我正在尝试访问iPhone / iPad上的音频文件的原始数据.我有以下代码,这是我需要的路径的基本开始.但是,一旦我有了一个AudioBuffer,我就不知道该怎么做了.
AVAssetReader *assetReader = [AVAssetReader assetReaderWithAsset:urlAsset error:nil]; AVAssetReaderTrackOutput *assetReaderOutput = [AVAssetReaderTrackOutput assetReaderTrackOutputWithTrack:[[urlAsset tracks] objectAtIndex:0] outputSettings:nil]; [assetReader addOutput:assetReaderOutput]; [assetReader startReading]; CMSampleBufferRef ref; NSArray *outputs = assetReader.outputs; AVAssetReaderOutput *output = [outputs objectAtIndex:0]; int y = 0; while (ref = [output copyNextSampleBuffer]) { AudioBufferList audioBufferList; CMBlockBufferRef blockBuffer; CMSampleBufferGetAudioBufferListWithRetainedBlockBuffer(ref,NULL,&audioBufferList,sizeof(audioBufferList),&blockBuffer); for (y=0; y<audioBufferList.mNumberBuffers; y++) { AudioBuffer audioBuffer = audioBufferList.mBuffers[y]; SInt16 *frames = audioBuffer.mData; for(int i = 0; i < 24000; i++) { // This sometimes crashes Float32 currentFrame = frames[i] / 32768.0f; } } }
基本上我不知道如何判断每个缓冲区包含多少帧,因此我无法从它们中可靠地提取数据.我是处理原始音频数据的新手,所以我对如何最好地读取AudioBuffer结构的mData属性有任何建议.我在过去也没有做过很多关于void指针的事情,所以在这种情况下对它的帮助也会很棒!
解决方法
audioBuffer.mDataByteSize告诉您缓冲区的大小.你知道吗?只是因为你没有,你不能看看struct AudioBuffer的声明.您应该始终查看头文件以及文档.
要使mDataByteSize有意义,您必须知道数据的格式.输出值的计数是mDataByteSize / sizeof(outputType).但是,您似乎对格式感到困惑 – 您必须在某处指定它.首先,您将其视为16位符号int
SInt16 * frames = audioBuffer.mData
然后你把它当作32位浮点数
Float32 currentFrame = frames [i] / 32768.0f
inbetween你假设有24000个值,当然如果没有24000个16bit值,这将会崩溃.此外,您将数据称为“帧”,但您真正的意思是样本.您调用’currentFrame’的每个值都是音频的一个示例. ‘Frame’通常指的是像.mData这样的样本块
所以,假设数据格式是32位浮点数(请注意,我不知道它是否是,它可能是8位int,或32位固定为我所知道的所有)
for( int y=0; y<audioBufferList.mNumberBuffers; y++ ) { AudioBuffer audioBuffer = audioBufferList.mBuffers[y]; int bufferSize = audioBuffer.mDataByteSize / sizeof(Float32); Float32 *frame = audioBuffer.mData; for( int i=0; i<bufferSize; i++ ) { Float32 currentSample = frame[i]; } }
注意,sizeof(Float32)总是4,但我把它留下来清楚.