我正在尝试在 iOS 中使用 OpenGL ES 2.0 播放视频。我无法获得示例代码或如何实现这一目标的起点。有人可以帮我解决这个问题吗?
您正在寻找的是实时获取视频的原始缓冲区。我相信您需要查看 AVFoundation
并以某种方式提取 CVPixelBufferRef
。如果我没记错的话,你有几种方法;一种是在特定时间点播,另一种用于处理,您将获得 block 中帧的快速迭代,而您可能需要的一种是实时接收帧。因此,您可以提取一个原始 RGB 缓冲区,该缓冲区需要推送到纹理,然后绘制到渲染缓冲区。
我建议您(每个视频)创建一次纹理并尝试使其尽可能小,但要确保视频帧适合。您可能需要 POT(二的幂)纹理,因此要从视频宽度中获取纹理尺寸,您需要以下内容:
GLInt textureWidth = 1.0f;
while(textureWidth<videoWidth) textureWidth <<= 1; // Multiplies by 2
因此纹理大小预计会比视频大。要将数据推送到纹理,您需要使用纹理子图像 glTexSubImage2D
。它需要一个指向原始数据和矩形参数的指针,然后将数据保存在 (0, 0, sampleWidth, sampleHeight)
的位置。此外,必须计算纹理坐标,使其不在 [0, 1] 范围内,而是在 x
范围内:[0, sampleWidth/textureWidth]
。
那么你只需要把它们放在一起:
glTexSubImage2D
更新纹理(注意线程)您可能需要注意视频方向、转换。因此,如果可能,请使用设备上以不同方向录制的一些视频来测试您的系统。我认为现在支持接收已经正确定向的缓冲区。但默认情况下,样本至少曾经是“错误的”;纵向录制的视频仍然具有横向样本,但 Assets 提供了转换矩阵或方向。
关于ios - 如何在 iOS 中使用 OpenGL 播放视频?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40102587/
欢迎光临 OStack程序员社区-中国程序员成长平台 (https://ostack.cn/) | Powered by Discuz! X3.4 |