Перевести Objective-C Введение в AudioUnits в Swift

Мне уже удалось перевести этот код, чтобы вызывался обратный вызов рендеринга: http://www.cocoawithlove.com/2010/10/ios-tone-generator-introduction-to.html

Я уверен, что мой метод обратного вызова рендеринга реализован неправильно, потому что я либо вообще не слышу звука, либо из наушников слышен довольно ужасный шум. Я также не вижу связи между моим audioSession в viewDidLoad и остальным кодом.

Есть ли кто-нибудь, кто может помочь мне с этим?

private func performRender(
inRefCon: UnsafeMutablePointer<Void>,
ioActionFlags: UnsafeMutablePointer<AudioUnitRenderActionFlags>,
inTimeStamp: UnsafePointer<AudioTimeStamp>,
inBufNumber: UInt32,
inNumberFrames: UInt32,
ioData: UnsafeMutablePointer<AudioBufferList>) -> OSStatus
{

// get object
let vc = unsafeBitCast(inRefCon, ViewController.self)
print("callback")

let thetaIncrement = 2.0 * M_PI * vc.kFrequency / vc.kSampleRate
var theta = vc.theta

//    var sinValues = [Int32]()
let amplitude : Double = 0.25

let abl = UnsafeMutableAudioBufferListPointer(ioData)
    for buffer in abl
    {
        let val : Int32 = Int32((sin(theta) * amplitude))
    //        sinValues.append(val)
        theta += thetaIncrement

        memset(buffer.mData, val, Int(buffer.mDataByteSize))
    }

vc.theta = theta

return noErr
}

class ViewController: UIViewController
{
let kSampleRate : Float64 = 44100
let kFrequency : Double = 440
var theta : Double = 0

private var toneUnit = AudioUnit()
private let kInputBus = AudioUnitElement(1)
private let kOutputBus = AudioUnitElement(0)

@IBAction func tooglePlay(sender: UIButton)
{
    if(toneUnit != nil)
    {
        AudioOutputUnitStop(toneUnit)
        AudioUnitInitialize(toneUnit)
        AudioComponentInstanceDispose(toneUnit)
        toneUnit = nil
    }
    else
    {
        createToneUnit()
        var err = AudioUnitInitialize(toneUnit)
        assert(err == noErr, "error initializing audiounit!")
        err = AudioOutputUnitStart(toneUnit)
        assert(err == noErr, "error starting audiooutput unit!")      
    }
}

func createToneUnit()
{
    var defaultOutputDescription = AudioComponentDescription(
        componentType: kAudioUnitType_Output,
        componentSubType: kAudioUnitSubType_RemoteIO,
        componentManufacturer: kAudioUnitManufacturer_Apple,
        componentFlags: 0,
        componentFlagsMask: 0)

    let defaultOutput = AudioComponentFindNext(nil,&defaultOutputDescription)


    let fourBytesPerFloat : UInt32 = 4
    let eightBitsPerByte : UInt32 = 8

    var err = AudioComponentInstanceNew(defaultOutput, &toneUnit)
    assert(err == noErr, "error setting audio component instance!")
    var input = AURenderCallbackStruct(inputProc: performRender,     inputProcRefCon: UnsafeMutablePointer(unsafeAddressOf(self)))

    err = AudioUnitSetProperty(toneUnit, kAudioUnitProperty_SetRenderCallback, kAudioUnitScope_Global, kOutputBus, &input, UInt32(sizeof(AURenderCallbackStruct)))
    assert(err == noErr, "error setting render callback!")

    var streamFormat = AudioStreamBasicDescription(
        mSampleRate: kSampleRate,
        mFormatID: kAudioFormatLinearPCM,
        mFormatFlags: kAudioFormatFlagsNativeFloatPacked,
        mBytesPerPacket: fourBytesPerFloat,
        mFramesPerPacket: 1,
        mBytesPerFrame: fourBytesPerFloat,
        mChannelsPerFrame: 1,
        mBitsPerChannel: fourBytesPerFloat*eightBitsPerByte,
        mReserved: 0)

    err = AudioUnitSetProperty(toneUnit, kAudioUnitProperty_StreamFormat, kAudioUnitScope_Output, kInputBus, &streamFormat, UInt32(sizeof(AudioStreamBasicDescription)))
    assert(err == noErr, "error setting audiounit property!")
}

override func viewDidLoad()
{
    super.viewDidLoad()
    let audioSession = AVAudioSession.sharedInstance()

    do
    {
        try audioSession.setCategory(AVAudioSessionCategoryPlayback)
    }
    catch
    {
        print("Audio session setCategory failed")
    }

    do
    {
        try audioSession.setPreferredSampleRate(kSampleRate)
    }
    catch
    {
        print("Audio session samplerate error")
    }

    do
    {
        try audioSession.setPreferredIOBufferDuration(0.005)
    }
    catch
    {
        print("Audio session bufferduration error")
    }

    do
    {
        try audioSession.setActive(true)
    }
    catch
    {
        print("Audio session activate failure")
    }
}

person bob    schedule 23.10.2015    source источник
comment
Спасибо, что задали этот вопрос, я смотрел на тот же код, и это спасло меня от преобразования Swift самостоятельно :)   -  person Ash    schedule 21.11.2015
comment
да, в итоге я использовал цель c для такой низкоуровневой задачи. Я согласился, что Swift не лучший выбор для этого.   -  person bob    schedule 26.11.2015


Ответы (1)


  • vc.theta не увеличивается
  • memset занимает только байт val
  • AudioUnit ожидает floats, но вы сохраняете Int32s
  • диапазон аудиоданных тоже выглядит забавно — почему бы не оставить его в диапазоне [-1, 1]?
  • theta тоже не нужно ограничивать, sin вполне с этим справится.

Вы уверены, что это работало в Objective-C?

person Rhythmic Fistman    schedule 23.10.2015
comment
да, 32767 не должно было быть там. Первый и последний пункт тоже были хорошими подсказками^^. Но memset ожидает Int32, поэтому стоит ли мне использовать memset для этого? Код Objective-C работает нормально. Я скачал проект Xcode с упомянутого выше веб-сайта. - person bob; 23.10.2015