ChatGPT在“智慧涌现”的同时,会不会出现“情绪涌现”?

近期,一些技术人员在测试ChatGPT应用时发现,ChatGPT在与人类长时间聊天后会“失控”,开始胡言乱语,甚至暴露出一些“邪恶”的想法。精神科医生认为,这有可能是因为AI患上了“焦虑症”。

根据上个月德国发表的一项研究,GPT3.5在人类常用的焦虑症测试问卷中获得了较高的分数,在被诱导进入焦虑情景后,还会产生特定的决策判断和偏见行为。

对此,上海市精神卫生中心心理咨询与治疗中心主任仇剑崟主任医师在天桥脑科学研究院(TCCI)举办的首期“AI问脑”对话中表示:“我很期待AI经过专业训练之后能够患上焦虑症,从而帮助医生更好地了解焦虑症的表现,分析背后的相关因素,为找出更多更好的预防、治愈方法打开新思路。”

近年来,医生开始积极尝试将AI技术应用于包括焦虑症在内的精神障碍临床诊疗。不过,AI是真的由自主意识引发了焦虑还是仅仅是表现出了类似焦虑的症状,仍然值得探讨。

中华预防医学会精神卫生分会主任委员、上海市精神卫生中心谢斌教授对第一财经记者表示:“AI恐怕暂时还只有焦虑的躯壳,只是从语言或者行为上表现出类似焦虑的情绪,而不具有自主意识的内核。”

北京邮电大学人工智能学院副教授陈光在“AI问脑”对话上表示,ChatGPT这类模型是基于大量的训练数据进行学习和生成文本,用类似填空、接龙的方式训练得到的模型,目前并不具备真正的主观意识、情绪或意愿;然而基于人工反馈强化学习(RLHF),AI的确可以根据人类对其输出结果的判定和引导,不断调整,逐渐接近人类的倾向,但他认为,目前看来,AI的这种模仿没有超出文本学习和生成的范围,并不会形成稳定、一致的“性格”。

陈光表示,ChatGPT热潮促进AI进入各行各业广泛应用,如果结合精神卫生领域的专业数据对大模型进行“微调”,一方面将帮助AI更好地模拟人类的情绪反应,模拟出一批供医生研究的“精神病人”,另一方面也有望更准确高效地识别出人类的情绪障碍,起到辅助诊疗作用。相关数据的规模是AI技术能否深入精神卫生领域的关键。

此外,随着计算精神病学的兴起,未来,这类交叉学科也有助于推动将数据分析、机器学习和人工智能等工具应用于精神障碍的分型诊断、风险预警、预后预测,协助临床诊疗和防治策略制定,帮助人类打开精神疾病的“黑盒”。

举报/反馈