我正在构建一个使用 AudioKit 框架来检测麦克风接收到的声音频率的游戏。我设置如下:
import SpriteKit
import AudioKit
class GameScene: SKScene {
var mic : AKMicrophone!
var tracker : AKFrequencyTracker!
var silence : AKBooster!
let mixer = AKMixer()
override func didMove(to view: SKView) {
mic = AKMicrophone()
tracker = AKFrequencyTracker.init(mic)
silence = AKBooster(tracker, gain: 0)
mixer.connect(silence)
AudioKit.output = mixer
AudioKit.start()
}
}
我也想用SKAction.playAudioFileNamed来播放音效等,但是用的时候播放音量很小。我认为它与场景的混音器节点和 AKMixer 有关?使用 AudioKit 播放声音文件比我需要的要复杂得多。
我需要扩展 SKScene 吗?非常感谢您的帮助!
Best Answer-推荐答案 strong>
Aurelius 似乎是正确的,因为 AudioSession 输出路由被定向到耳机。我仍然不确定为什么会这样,但是覆盖和设置输出的工作方式如下:
let session = AVAudioSession()
do {
try session.overrideOutputAudioPort(AVAudioSessionPortOverride.speaker)
} catch {
print("error setting output")
}
这需要在初始化 AudioKit 组件后完成。如果有更好的方法,请告诉我!
关于ios - 同时使用 AudioKit 和 SpriteKit 音频,我们在Stack Overflow上找到一个类似的问题:
https://stackoverflow.com/questions/41495659/
|