2017-03-07 6 views
1

マイクからオーディオを録音しようとしています+その後、複数の場所からのビデオと組み合わせてマイクからの単一のビデオw /オーディオを作成しようとしています。AVAudioFileからのAVAssetは0の持続時間を持っています

AVCaptureDevice + AVCaptureSessionを使用するとちょっとばかりですが、音声認識を行いたいので、AVCaptureSessionでビデオキャプチャを行うようにしました。私はAVAudioEngineでオーディオをやろうとしています。

)AudioTapにSFSpeechRecognizerを添付するのは簡単なのは、ここでは、コードです:+停止を開始した後

class AudioCaptureSession { 

    var engine = AVAudioEngine() 
    var outputFile : AVAudioFile! 

    func initAudioEngine() { 
     engine.stop() 
     engine.reset() 
     engine = AVAudioEngine() 

     do { 
      try AVAudioSession.sharedInstance().setCategory(AVAudioSessionCategoryPlayAndRecord) 
      let ioBufferDur = 128.0/44100.0 
      try AVAudioSession.sharedInstance().setPreferredIOBufferDuration(ioBufferDur) 
     } catch { 
      print("AVAudioSession setup error: \(error)") 
     } 
     let outputPath = NSTemporaryDirectory().appending(kTempAudioFilename) 
     let outputFile = URL(fileURLWithPath: outputPath, isDirectory: false) 
     if FileManager.default.fileExists(atPath: outputPath) { 
      do { 
       try FileManager.default.removeItem(at: outputFile) 
      } catch { 
       print("Filemanager can't delete the audio file: \(error)") 
      } 
     } 
     do { 
      print("Settings: \(engine.mainMixerNode.outputFormat(forBus: 0).settings)") 
      try self.outputFile = AVAudioFile(forWriting: outputFile, settings: engine.mainMixerNode.outputFormat(forBus: 0).settings) 
     } catch { 
      print("Can't make file for writing: \(error)") 
     } 
     let input = engine.inputNode! 
     let format = input.inputFormat(forBus: 0) 
     engine.connect(input, to: engine.mainMixerNode, format: format) 
     engine.prepare() 
     try! engine.start() 

    } 

    func startRecord() { 
     let mixer = engine.mainMixerNode 
     let format = mixer.outputFormat(forBus: 0) 

     mixer.installTap(onBus: 0, bufferSize: 1024, format: format) { (buffer: AVAudioPCMBuffer!, time: AVAudioTime!) -> Void in 
      do { 
       try self.outputFile.write(from: buffer) 
      } catch { 
       print("Can't write audio to file: \(error)") 
      } 
     } 
    } 

    func stopRecord() { 
     print("Audio len: \(self.outputFile.length)") 
     engine.mainMixerNode.removeTap(onBus: 0) 
     do { 
      let f = try AVAudioFile(forReading: outputFile.url) 
      print("Length of reading file: \(f.length)") 
      print("Pos: \(f.framePosition)") 
     } catch { 
      print("Error getting file for reading: \(error)") 
     } 
     let asset = AVAsset(url: outputFile.url) 
     print("Stop recording asset duration: \(asset.duration)") 

    } 
} 

出力例は次のとおりです。

Audio len: 105840 
Length of reading file: 0 
Stop recording asset: CMTime(value: 0, timescale: 44100, flags: __C.CMTimeFlags(rawValue: 1), epoch: 0) 

あなたが見ることができるように、outputFileはそれがいくつかのN単位であることを知っていますが、私が読むためにファイルを開くと、それは0であると考えられ、AVAssetは0の持続時間を持つと考えます。ファイルが保存されていないのだろうか?か何か?私が見たことは、「AVAudioFile、file.write(バッファ)、ファイルを使用する」と言うだけで、明らかに機能していないからです。それをエクスポートする必要がありますか?か何か?

答えて

2

AVAudioFileは、明示的にクローズを持っていないので、あなたはそれはあなたがそれへの書き込みを終えたときself.outputFile = nilを設定することにより、スコープの外に出るようにする必要があります。

+0

"finsihedWriting"コールバックはありますか、それとも魔法のようにいいですか? – nickneedsaname

+0

あなたはオープン/リード/ライトがあります。理論的には、ランタイム/ ARCが 'AVAudioFile'をリリースするときに依存するように見えるので、それはうまくいっているとは言いません(いつ誰が知っていますか?)。実際にはおそらくそれは大丈夫です。 –

+1

私はこれが動作すると思います!編集:これは100%動作します。ファイルに「クローズ」を持たないことはとても汚いです – nickneedsaname

関連する問題