是否可以使用 AVCaptureSession 捕获 AVPlayer 的输出?我相信这是可能的,但不知道如何使用 AVPlayer 作为输入。
Best Answer-推荐答案 strong>
您不能将 AVPlayer 插入 AVCaptureSession ,尽管您可以通过 CVPixelBuffer s 的形式访问播放器的视频和音频和 AudioBufferList s.
这是通过两个 API 实现的:AVPlayerItemVideoOutput 用于视频,MTAudioProcessingTap 用于音频。
尽管是一个 c-api,MTAudioProcessingTap 更容易集成,就像 AVCaptureSession 一样,它通过回调推送样本,而使用 AVPlayerItemVideoOutput 你在给定的时间内拉帧。
出于这个原因,如果您想要类似 AVCaptureSession 的体验(实时、推送),您可能应该让音频点击驱动您的帧拉动。
objective-c here中有一些AVPlayerItemVideoOutput 示例代码并迅速here以及在 swift here 中使用 MTAudioProcessingTap 的示例.
关于ios - 使用 AVPlayer 作为 AVCaptureSession 的输入?,我们在Stack Overflow上找到一个类似的问题:
https://stackoverflow.com/questions/34568512/
|