2011-12-15 10 views
0

私はキネクトから深さのカメラのフィードを取って、私のiPhoneアプリにそれをストリーミングを進めている。私はkinectの奥行き画像(30 fps)から作成されたすべてのフレームのjpegを保存してローカルディスクに保存する段階に入っています。私はこれをMPEGにffmpegで変換することができました。ストリーミングjpegsはiphoneアプリにライブ

私の質問は今、私のiPhoneでこのライブを見ることができますか?基本的には、あなたがそれがkinectから来ているのを見ているように、私はそれがiPhoneで生きているのを見たいと思っています。

httpライブストリーミングを使用し、リンゴHttpLiveStreaming機能を使用するためにセグメンタを使用する必要がありますか?または、生のjpeg画像ファイルを何らかの方法でディスクにストリーミングすることができますか?

iphone(facetime/skypeなど)でビデオ会議がどのように達成されているのだろうか?私はそれがビデオプレーヤーの中で演奏されていなかったことを好むので、画面にライブコンテンツを表示したいだけです。

アイデア?事前に感謝

答えて

0

Hereのようなプロジェクトです。それが役に立てば幸い。

0

JPEGは通常、リアルタイムでストリーミングするには大きすぎます。私はそれがWi-Fiで約5 fpsになることを発見しました。もし、あなたのMPEG出力を小さなチャンク(例えば、各チャンクで5〜10秒のビデオ)で取り出し、ffmpegを使って.tsコンテナ(mpeg2トランスポートストリーム)に変換すれば、m3u8インデックスファイルを動的に書くのはかなり簡単です。チャンクのリストが順番に入っています。 m3u8ファイルのURLでUIWebViewをポイントすると、内蔵ビデオプレーヤーを使用しますが、ストリームの再生が開始されます。他のメディア/ AVクラスを使用してストリームを見ることはできますが、私は信じています。

関連する問題