最近我遇到了下一个问题。
我使用 CoreAudio AudioUnit (RemoteI/O) 在 iOS 应用程序中播放/录制声音流。
进入音频单元的声音流是 2 channel LPCM,16 位,有符号整数,交错(我还配置了一个输出记录流,基本相同,但每个数据包和帧只有一个 channel 和 2 个字节)。
我已将输入 ASBD 配置如下(设置和初始化单元时没有错误):
ASBD.mFormatFlags = kLinearPCMFormatFlagIsSignedInteger | kLinearPCMFormatFlagIsPacked;
ASBD.mBytesPerPacket = 4;
ASBD.mFramesPerPacket = 1;
ASBD.mBytesPerFrame = 4;
ASBD.mChannelsPerFrame = 2;
ASBD.mBitsPerChannel = 16;
在我的渲染回调函数中,我得到带有一个缓冲区的 AudioBufferList(据我所知,因为音频流是交错的)。
我有一个用于测试的示例立体声文件,它是 100% 立体声,带有 2 个明显的 channel 。我将它翻译成对应于 ASBD 的流并馈送到音频单元。
当我播放样本文件时,我只听到左声道。
我会很感激为什么会发生这种情况。如果需要,我可以发布更多代码。
更新:我已经尝试设置
ASBD.mFormatFlags = kLinearPCMFormatFlagIsSignedInteger | kLinearPCMFormatFlagIsPacked | kLinearPCMFormatFlagIsNonInterleaved;
ASBD.mBytesPerPacket = 2;
ASBD.mFramesPerPacket = 1;
ASBD.mBytesPerFrame = 2;
ASBD.mChannelsPerFrame = 2;
ASBD.mBitsPerChannel = 16;
ASBD 和我有两个缓冲区的缓冲区列表。我将流解交错为 2 个 channel (1 个 channel 用于 1 个缓冲区)并得到相同的结果。我尝试在 iPad 上使用耳机和扬声器(我知道扬声器是单声道的)。
Best Answer-推荐答案 strong>
好的。所以我检查了我的代码,发现我使用了 VoiceProcessingIO 音频单元(而不是问题中的 RemoteIO),这对我的应用程序来说基本上是正确的,因为文档说“语音处理 I/O 单元(子类型 kAudioUnitSubType_VoiceProcessingIO)具有Remote I/O 单元的特点,并为双向双工通信添加回声抑制。它还添加了自动增益校正、语音处理质量调整和静音"
当我将音频单元类型更改为 RemoteIO 时,我立即获得了立体声播放。我不必更改流属性。
基本上 VoiceProcessingIO 音频单元沦为单声道并忽略流属性。
我在 Apple 开发者论坛上发布了一个关于使用 VoiceProcessingIO 音频单元进行立体声输出的问题,但尚未得到任何答案。
为了进行回声消除等信号处理,我选择单声道似乎很合乎逻辑,因为 iOS 设备只能录制单声道声音而无需特定的外部配件。尽管这在 Apple 文档中的任何地方都没有记录。我还遇到过一个帖子,他声称立体声在 iOS5.0 之前适用于 VoiceProcessingIO AU。
无论如何,感谢您的关注。非常感谢您对此事提出任何其他意见。
关于iphone - CoreAudio Audio Unit 只播放一个声道的立体声音频,我们在Stack Overflow上找到一个类似的问题:
https://stackoverflow.com/questions/17595425/
|