一直以来,作为人类,我们以拥有情感为荣,这是我们和机器的本质区别。随着计算机的发展,我们期待着人机之间的交流,尤其是一种情感的交流。电脑在情感上的成长经历,和我们每个人的成长过程是相似的。观察和辨别情绪是自然、亲切和生动互动的开始。
说到情绪识别,就不得不提到一个在这一领域做出巨大贡献的人:埃及科学家拉纳埃尔卡柳比。和很多成功的“程”一样,她不仅代码好,而且人际关系也很好,智商和情商并重。她与导师罗莎琳德皮卡德(Rosalind Picard)一起创办了情感分析软件开发公司Affectiva。Affectiva也被一些商业媒体列为增长最快的创业公司。事实也证明,这个领域确实很吸金。
为了阐明工作原理,我们首先需要了解情绪识别的理论基础。保罗艾克曼(心理学家)提出了无论性别、年龄和成长环境,每个优艾设计网_设计LOGO人都有的六种基本情绪:愤怒、厌恶、恐惧、快乐、悲伤和惊讶。后来他开始解读这些情绪的表达,开发了一套“http://www . Sina.com/”(FACS)将每个人的表情分解成许多面部动作单元。光是这些面部单元并不能代表任何情绪,但是我们可以利用它们的组合特征来识别一些面部表情,是的,就像《Lie to me》中的那个。如果一个人在对你微笑的时候只触碰到了颧大肌,那么这很可能是一个真正的假笑,因为真诚的微笑除了会影响颧大肌之外,还会影响眼轮匝肌。
罗莎琳德皮卡德(Rosalind Picard)一大早就起来,在麻省理工学院媒体实验室(Media Lab of M.I.T)做一些图像压缩的技术开发,但很快就遇到了瓶颈,因为她开发的方法(虽然后来很流行)完全独立于正在处理的对象:例如,用同样的方法压缩大运河的图片和总统的肖像。她认为如果计算机能知道它在处理什么,它就能改进这个过程。直到她读了一本关于通感的书《The Man Who Tasted Shapes》,她才突然意识到情感和理性之间的联系。面部动作组织系统
回到计算机情感识别,其实做法是提取人脸上的一些关键点,固定那些相对不变的“锚点”,比如鼻尖,作为最参考的固定点,然后用像嘴角这样的点来判断你的表情。然而,在20世纪90年代,创建一个能够精确生长这些离散面部运动单元的系统太难了。仅数字化一个视频就花了25秒。一位早期的研究员说:不管怎么做,总有一点偏差,而且随着结构的不断扩展,错误越来越多,每十秒钟就需要重启一次。
就这样,研究陷入了瓶颈,于是卡柳比带着遗憾去了剑桥继续攻读博士学位。巧合的是,在一次演讲后,一位听众告诉她,她训练她的电脑读脸,这类似于他患有自闭症的哥哥遇到的问题。当时剑桥自闭症研究中心正在做一个面部表情目录的大项目,不同于埃克曼把表情分成小的动作单元,然后通过动作单元的组合来判断情绪的做法。他们对表情的分类更加自然易懂,对表情的分类也更加细致,然后从一个具体的表情整体上学习特征。比如在“思考”中,有担忧、犹豫、幻想、判断等等。他们邀请了6位演员在镜头前展示这些表情,几乎所有演员都通过后才给他们贴上标签。这样,他们就有了足够的信息来开发MindReader,这是一款几乎可以在各种环境中检测复杂情绪的软件,这也是Affdex的原型。提出FACS的心理学家Ekman与他人合作,创建了Emotient,这也是一款情感识别软件,它也利用机器学习,通过海量数据学习,构建出准确的表情识别框架。
虽然有人质疑这种只基于表情、脱离真实情况的判别方法的准确性,但实验表明,计算机不仅能捕捉到那些虚假表情,还能捕捉到一些闪现而过、人无法分辨的微表情。加州大学研究员玛丽安巴特利特(Marian Bartlett)发现,当女儿看到戏剧中的暴力场景时,她先是吸收了一瞬间的愤怒,然后假装惊讶,最后变成了大笑3354,但这一切都被电脑捕捉到了。利用“微表情”测试,研究人员可以捕捉到人们在拒绝经济援助前闪现的厌恶表情,这是普通人肉眼很难做到的。
自然,这些软件具有广阔的应用前景。在2012年的总统选举中,卡柳比的团队使用Affdex测试了200多人观看奥巴马和罗姆尼辩论的场景,并以73%的准确率预测了投票结果。目前,情感识别已经在商业中得到广泛应用,未来将会有更加多样化的应用前景。
精彩评论