我从下面的github下载了affectiva相机测试iOS应用程序示例。
https://github.com/Affectiva/ios-sdk-samples
它工作得很好。我将能够看到愤怒、轻视、厌恶、恐惧、快乐、惊讶等情绪的日志,但“悲伤”情绪除外。
我想知道,这个样本项目是使用他们的云服务来检测情绪,还是在iOS上原生工作?它在内部使用OpenCV吗?它是如何在内部工作的?我想稍微修改一下功能,但我想知道这个程序是如何检测情绪的?
请解释一下。
发布于 2016-12-03 07:41:23
Affectiva iOS软件开发工具包不需要云服务调用来分析人脸。当前版本的软件开发工具包使用计算机视觉从人脸中提取HoG特征,并使用支持向量机分类器对面部表情和情感进行分类。分类是在iphone / ipad上完成的,没有图像被上传到云中。
发布于 2016-11-30 14:17:45
我认为如果没有云服务调用,Affectiva iOS SDK是不会工作的。它也不使用OpenCV。
https://stackoverflow.com/questions/40872154
复制相似问题