ios - CoreImage 人脸检测发生在每一帧
<p><p>我目前正在探索 Apple 的 Core Image 框架中的人脸检测功能。 </p>
<p>现在,我正在使用 Apple 的示例项目,该项目在人脸周围放置红色方 block 。 (<a href="https://developer.apple.com/library/ios/samplecode/SquareCam/Introduction/Intro.html" rel="noreferrer noopener nofollow">https://developer.apple.com/library/ios/samplecode/SquareCam/Introduction/Intro.html</a>)</p>
<p>我遇到的问题是人脸检测每帧都会发生,所以即使我不移动我的脸,红色方 block 的大小也会疯狂变化。</p>
<p>我承认以下方法运行人脸检测。</p>
<pre><code>NSArray* features = ;
</code></pre>
<p>我可以在以下循环中使用眼睛、嘴巴的位置进行操作:</p>
<pre><code>for(CIFaceFeature* feature in features)
{
}
</code></pre>
<p>有什么方法可以随着时间的推移平滑红色正方形(面部区域)的大小?换句话说,如果人的脸不动,我想尽量减少红色方 block 大小的变化。 </p>
<p>附言我可以在 Swift 中得到答案。以上方法都在 Obj-C 中,因为我是从旧项目中得到的。</p></p>
<br><hr><h1><strong>Best Answer-推荐答案</ strong></h1><br>
<p><p>您可以保存返回的帧,并在新返回的帧与您保存的帧不接近时更新它们。<br/>
如果返回的帧超出了您的帧,您也可以将您的帧画得更大一些并更新它们。 </p></p>
<p style="font-size: 20px;">关于ios - CoreImage 人脸检测发生在每一帧,我们在Stack Overflow上找到一个类似的问题:
<a href="https://stackoverflow.com/questions/34101195/" rel="noreferrer noopener nofollow" style="color: red;">
https://stackoverflow.com/questions/34101195/
</a>
</p>
页:
[1]