是否可以使用 AVCaptureSession
捕获 AVPlayer
的输出?我相信这是可能的,但不知道如何使用 AVPlayer
作为输入。
您不能将 AVPlayer
插入 AVCaptureSession
,尽管您可以通过 CVPixelBuffer
s 的形式访问播放器的视频和音频和 AudioBufferList
s.
这是通过两个 API 实现的:AVPlayerItemVideoOutput
用于视频,MTAudioProcessingTap
用于音频。
尽管是一个 c-api,MTAudioProcessingTap
更容易集成,就像 AVCaptureSession
一样,它通过回调推送样本,而使用 AVPlayerItemVideoOutput
你在给定的时间内拉帧。
出于这个原因,如果您想要类似 AVCaptureSession
的体验(实时、推送),您可能应该让音频点击驱动您的帧拉动。
objective-c here中有一些AVPlayerItemVideoOutput
示例代码并迅速here以及在 swift here 中使用 MTAudioProcessingTap
的示例.
关于ios - 使用 AVPlayer 作为 AVCaptureSession 的输入?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34568512/
欢迎光临 OStack程序员社区-中国程序员成长平台 (https://ostack.cn/) | Powered by Discuz! X3.4 |