我有一个 (CMSampleBufferRef)imageBuffer
,它是 yuv_nv12(4:2:0) 的类型。
现在我运行下面的代码,发现结果很困惑。
UInt8 *baseSRC = (UInt8 *)CVPixelBufferGetBaseAddress(imageBuffer);
UInt8 *yBaseSRC = (UInt8 *)CVPixelBufferGetBaseAddressOfPlane(imageBuffer, 0);
UInt8 *uvBaseSRC = (UInt8 *)CVPixelBufferGetBaseAddressOfPlane(imageBuffer, 1);
int width = (int)CVPixelBufferGetWidthOfPlane(imageBuffer, 0); //width = 480;
int height = (int)CVPixelBufferGetHeightOfPlane(imageBuffer, 0); //height = 360;
int y_base = yBaseSRC - baseSRC; //y_base = 64;
int uv_y = uvBaseSRC-yBaseSRC; //uv_y = 176640;
int delta = uv_y - width*height; //delta = 3840;
我对这个结果有几个问题。
1:为什么 baseSRC
不等于 yBaseSRC
?
2:为什么yBaseSRC+width*height
不等于uvBaseSRC
?理论上,y平面数据后面跟着uv平面数据,没有任何中断,对吧?现在它被大小为 3840 字节的东西打断了,我不明白。
3:我尝试使用以下代码将此示例像素转换为 cvmat,在大多数 iOS 设备上,这可以正常工作,但不适用于 iPhone 4s。在 iPhone 4s 上, 转换后,像素缓冲区的旁边有一些绿线。
Mat nv12Mat(height*1.5,width,CV_8UC1,(unsigned char *)yBaseSRC);
Mat rgbMat;
cvtColor(nv12Mat, rgbMat, CV_YUV2RGB_NV12);
现在 rgbMat 看起来像这样:
终于找到了解决办法,基本上解决办法就是分配一 block 新的内存,把y平面数据和uv平面数据拼接起来,然后转成cvmat就好了。
这里是代码片段:
UInt8 *newBase = (UInt8 *)malloc(landscapeWidth*landscapeHeight*1.5);
memcpy(newBase, yBaseSRC, landscapeWidth*landscapeHeight);
memcpy(newBase+landscapeWidth*landscapeHeight, uvBaseSRC, landscapeWidth*landscapeHeight*0.5);
Mat nv12Mat(landscapeHeight*1.5,landscapeWidth,CV_8UC1,(unsigned char *)newBase);
关于ios - YUV-NV12 video buffer的y平面和uv平面的延续,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36145599/
欢迎光临 OStack程序员社区-中国程序员成长平台 (https://ostack.cn/) | Powered by Discuz! X3.4 |