文章主题:AI情感识别, Cambridge University, 面部识别, 情绪检测

666AI工具大全,助力做AI时代先行者!

研究人员开发小游戏展示AI情感识别有多不可靠 来源:cnBeta.COM

据The Verge reports,科技企业不仅仅局限于面部识别技术来识别用户,他们还试图利用人工智能来洞察用户的内心世界。然而,在许多科学家看来,计算机感知并理解情感的能力存在固有的局限性。为了揭示这一问题,剑桥大学的学者们开发了一款别具一格的浏览器网页游戏,旨在帮助人们深入理解情感识别技术的潜在挑战。

AI情感识别的局限性:CambridgeUniversity研究人员开发小游戏揭示

访问emojify.info网站,用户可以通过网络摄像头观察到计算机如何“解析”您的情感状态。该应用程序设计了一项挑战,试图让您在6种基本情绪中产生——快乐、悲伤、恐惧、惊讶、厌恶和愤怒,然后AI会尝试去识别这些情绪。但是,您可能会发现这个软件的读数并不十分精确,有时会将一些夸张的表情解读为“中性”。甚至当您展现出微笑时,计算机也可能误判您正处于快乐之中,然而您内心却知道这是伪装。

作为该游戏的设计者之一,剑桥大学未来情报Leverhulme中心的Alexa Hagerty研究员在接受The Verge的采访时指出:“这些技术的基石在于,我们的面部表情与内心情感之间存在着一种极具预测性的关联。例如,当我微笑时,人们可能会认为我正在享受欢乐时光;而当我皱眉时,人们可能误以为我在生气或烦恼。然而,美国心理学会在2019年对相关研究进行了全面的回顾,结果表明,我们并不能仅通过观察人们的面部表情就准确推断出其内心的情感状态。在游戏中,玩家有机会迅速调整自己的面部表情,模仿六种不同的情绪表现,但关键在于,玩家的心境并未随着表情变化而产生连续不断的情感体验。”

虽然当前存在着诸多挑战,但情绪识别技术正在迅速受到人们的广泛关注。许多企业承诺采用这种技术来审查求职者、发掘潜在的恐怖分子,甚至评估商业司机的状态是否不佳。

人类在解读他人面部表情时,有时会因为各种原因而出现错误。然而,将这一任务交给机器则存在一定的局限性。首先,机器无法像人类那样解读其他社会信息,这可能会影响它的判断准确性。其次,机器可能会做出一些 automatic decisions that humans cannot challenge, and it could conduct large-scale monitoring under people’s unconsciousness. Moreover, similar to facial recognition systems, emotion detection AI technology is often biased by race. All these factors make the emotional detection of AI more difficult than humans in understanding others’ emotions.

danger comes in many forms, Hagerty pointed out. “When it comes to human misinterpretation, we have numerous opportunities to correct it. However, once something is automated or read without our knowledge or consent, those options disappear effortlessly.”

AI情感识别的局限性:CambridgeUniversity研究人员开发小游戏揭示

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!