所以我计划构建一个应用程序,至少让我使用 iphone 上的麦克风通过耳机插孔将其转换为平衡的音频信号。问题是我不确定是否可以毫无延迟地将麦克风输入输出。我研究了 CoreAudio 和 AVFoundation,但看起来其中一个很快就会被弃用,而另一个可能太高而无法满足我的需求。我正在测试 AudioKit,但我只在 Windows 内的虚拟机上运行的模拟器中运行它,所以我可能会在实际设备上获得更好的结果(尽管我持怀疑态度,因为音频延迟与就像我通过窗口监控麦克风时一样)。
有没有人知道任何框架或任何东西可以使实时音频处理成为可能而不会太明显的延迟?
它甚至可能在 iOS 上还是操作系统开销太大?
从字面上看,任何答案都值得赞赏。
Best Answer-推荐答案 strong>
我正在使用 AudioKit 进行实时音频处理。有一些小问题,但我能够设法将处理节点添加到实时麦克风录音中,并将它们几乎没有延迟地输出到扬声器。
我遇到的一个值得注意的问题是 xcode 中的“调试”构建和“发布”构建之间的区别。发布版本编译需要更长的时间,但运行速度更快,从而减少了音频缓冲区处理的延迟。不过我的测试平台是旧的 ipad2,所以如果您使用的是较新的硬件,您可能不会遇到这些问题。
关于ios - 在 iOS 中可以进行实时音频处理吗?,我们在Stack Overflow上找到一个类似的问题:
https://stackoverflow.com/questions/52733594/
|