OStack程序员社区-中国程序员成长平台

标题: ios - CoreImage 人脸检测发生在每一帧 [打印本页]

作者: 菜鸟教程小白    时间: 2022-12-13 12:20
标题: ios - CoreImage 人脸检测发生在每一帧

我目前正在探索 Apple 的 Core Image 框架中的人脸检测功能。

现在,我正在使用 Apple 的示例项目,该项目在人脸周围放置红色方 block 。 (https://developer.apple.com/library/ios/samplecode/SquareCam/Introduction/Intro.html)

我遇到的问题是人脸检测每帧都会发生,所以即使我不移动我的脸,红色方 block 的大小也会疯狂变化。

我承认以下方法运行人脸检测。

NSArray* features = [detector featuresInImage:image];

我可以在以下循环中使用眼睛、嘴巴的位置进行操作:

for(CIFaceFeature* feature in features)
{

}

有什么方法可以随着时间的推移平滑红色正方形(面部区域)的大小?换句话说,如果人的脸不动,我想尽量减少红色方 block 大小的变化。

附言我可以在 Swift 中得到答案。以上方法都在 Obj-C 中,因为我是从旧项目中得到的。



Best Answer-推荐答案


您可以保存返回的帧,并在新返回的帧与您保存的帧不接近时更新它们。
如果返回的帧超出了您的帧,您也可以将您的帧画得更大一些并更新它们。

关于ios - CoreImage 人脸检测发生在每一帧,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34101195/






欢迎光临 OStack程序员社区-中国程序员成长平台 (https://ostack.cn/) Powered by Discuz! X3.4