我目前正在探索 Apple 的 Core Image 框架中的人脸检测功能。
现在,我正在使用 Apple 的示例项目,该项目在人脸周围放置红色方 block 。 (https://developer.apple.com/library/ios/samplecode/SquareCam/Introduction/Intro.html)
我遇到的问题是人脸检测每帧都会发生,所以即使我不移动我的脸,红色方 block 的大小也会疯狂变化。
我承认以下方法运行人脸检测。
NSArray* features = [detector featuresInImage:image];
我可以在以下循环中使用眼睛、嘴巴的位置进行操作:
for(CIFaceFeature* feature in features)
{
}
有什么方法可以随着时间的推移平滑红色正方形(面部区域)的大小?换句话说,如果人的脸不动,我想尽量减少红色方 block 大小的变化。
附言我可以在 Swift 中得到答案。以上方法都在 Obj-C 中,因为我是从旧项目中得到的。
您可以保存返回的帧,并在新返回的帧与您保存的帧不接近时更新它们。
如果返回的帧超出了您的帧,您也可以将您的帧画得更大一些并更新它们。
关于ios - CoreImage 人脸检测发生在每一帧,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34101195/
欢迎光临 OStack程序员社区-中国程序员成长平台 (https://ostack.cn/) | Powered by Discuz! X3.4 |