2017-08-17 5 views
2

を記録しながら、パススルーのMacOSませIOSスウィフトOSXのオーディオは、私はXcodeの9でのプログラミングだ

私はヘッドフォンとマイクを持つ歌手を記録するため、以下の基本的な記録オーディオを設定しています。 Logic Xのように反応させたいです。

Logic Xでは、録音したいトラックをレコーディング可能状態にしておくと、マイクはヘッドフォンにルーティングされ、ボーカリストは自分自身の発言を聞くことができます。再生中は録音準備がミュートされているので、ここでボーカリストが録音できるようになります。再生中に録音ボタンが押されると、ボーカリストは録音中のボーカルを聞きます。

私が抱えている問題は、オーディオを直接オーディオにルーティングすることです。私はAVAudioSessionを使用するべきオーディオシステムがiOSの場合は明らかに静かではない。 。私はCore Audioに行く必要がありますか?私は、あなたが代わりに直接のCore AudioのAVFoundationフレームワークを使用することができ、これまで私が持っているものである

import Cocoa 
import AVFoundation 

enum RecordingPreset: Int { 
    case Low = 0 
    case Medium 
    case High 

    func settings() -> Dictionary<String, Int> { 
     switch self { 
     case .Low: 
      return [AVLinearPCMBitDepthKey: 16, AVNumberOfChannelsKey : 1, AVSampleRateKey : 12_000, AVLinearPCMIsBigEndianKey : 0, AVLinearPCMIsFloatKey : 0] 

     case .Medium: 
      return [AVLinearPCMBitDepthKey: 16, AVNumberOfChannelsKey : 1, AVSampleRateKey : 24_000, AVLinearPCMIsBigEndianKey : 0, AVLinearPCMIsFloatKey : 0] 

     case .High: 
      return [AVLinearPCMBitDepthKey: 16, AVNumberOfChannelsKey : 1, AVSampleRateKey : 48_000, AVLinearPCMIsBigEndianKey : 0, AVLinearPCMIsFloatKey : 0] 
     } 
    } 

    func exportSettings() -> Dictionary <String, Int> { 

     var recordingSetting = self.settings() 
     recordingSetting[AVFormatIDKey] = Int(kAudioFormatLinearPCM) 
     recordingSetting[AVLinearPCMIsNonInterleaved] = 0 
     return recordingSetting 
    } 
}//eo RecordingPreset 



extension Array { 
    func firstObject() -> Element? { 
     var firstObject: Element? 
     if self.count > 0 { 
      firstObject = self[0] 
     } 
     return firstObject 
    } 

    func lastObject() -> Element? { 
     var lastObject: Element? 
     if self.count > 0 { 
      lastObject = self[self.endIndex - 1] 
     } 
     return lastObject 
    } 
} 

class MainWindowController: NSWindowController { 
    var audioEngine:AVAudioEngine! 
    var player:AVAudioPlayer! 
    var recorder: AVAudioRecorder? 

    override func windowDidLoad() { 
     super.windowDidLoad() 

    }//EO Overide 

    func createRecorder() ->() { 
     var initialisedRecorder: AVAudioRecorder? 
     let currentDate = NSDate() 
     let dateFormatter = DateFormatter() 
     dateFormatter.dateFormat = "dd-MM-yy HHmmss" 
     let fileName = "/RECORDING/Audio/Recording on " + dateFormatter.string(from: currentDate as Date) + ".wav" 
     let filePaths = NSSearchPathForDirectoriesInDomains(.documentDirectory, .userDomainMask, true) 
     if let firstPath = filePaths.firstObject() { 
      let recordingPath = firstPath + fileName 
      let url = NSURL(fileURLWithPath: recordingPath) 
      let selectedPreset = RecordingPreset.High 
      do { 
       initialisedRecorder = try AVAudioRecorder(url: url as URL, settings: selectedPreset.settings() 
       ) 
      }catch { 
       print("nope") 
      } 
      initialisedRecorder!.isMeteringEnabled = true 
      initialisedRecorder!.prepareToRecord() 
     } 
     recorder = initialisedRecorder 
    }//eo createRecorder 



    @IBAction func myRecord(_ sender: Any) { 
     print("RECORD") 
     createRecorder() 
     recorder?.record() 
    } 


    @IBAction func myStop(_ sender: Any) { 
     print("STOP") 
     recorder?.stop() 
     recorder = nil 
    } 



}//EnD oF thE wORld 

答えて

1

何かアドバイスはここ

をいただければ幸いですSWIFT 4

に固執したいと思います。パススルーオーディオの場合、カスタムV3 AUAudioUnitサブクラスを作成し、インスタンシエートされたオーディオオブジェクトの入力レンダリングブロックから出力バッファにデータを渡すことができます(おそらく円形FIFOを使用します)。

Apple(Core Audioの2017 WWDCセッションで)は、リアルタイムオーディオコンテキスト内でSwiftまたはObjective Cメソッドを使用しないことを推奨しているので、Cで小さな部分(バッファコピー)を書き込む必要があります。

関連する問題