2017-12-26 9 views
-1

デバイスの入力(またはマイク)から直接オーディオをストリーミングするiOSアプリケーションを構築しようとしています。私が考えているのは、ある一定の時間が経過すると、オーディオバッファをサーバーに送信する必要があるため、サーバーはそれをリスンしたい別のクライアントに送信する必要があるということです。私はWebSocketをサーバー側の実装に使用する予定です。iOSデバイスのマイクからサーバにオーディオバッファを送信する

iOSデバイスの入力(マイク)からバッファの特定のストリームを取得し、ユーザーが別のビットなどを話している間にサーバーに送信する方法はありますか?私はAVAudioRecorderをおそらくAVAudioEngineで開始し、毎秒または0.5秒ごとに記録できると思っていますが、それはあまりにも多くの遅延を引き起こし、おそらくは移行過程でストリームを失うと思います。

これを実行するより良い方法はありますか?私は本当にそれの背後にある科学を理解することに本当に興味があります。これが最善の方法でない場合は、それがどちらであるか教えてください。その実装のための基本的なアイデアか、正しい方向に向けることができるものを教えてください。

答えて

0

私自身の質問に対する答えが見つかりました!答えはAVFoundationフレームワークにあります。具体的にはAVCaptureAudioDataOutputとその代理人が入力ソースがキャプチャするとすぐにバッファを送信します。

関連する問題