文章主题:关键词:OpenAI,ChatGPT,人工智能,医疗咨询
财联社4月20日讯(编辑 马兰)过去美国人在谷歌上问诊,中国人在百度上问诊,现在,更多人开始在ChatGPT上问诊。
当OpenAI开发ChatGPT时,他们的初衷并非是为了成为医疗领域的专家。然而,随着这款人工智能助手被越来越多的“上帝”用于医疗咨询,OpenAI不得不反复强调,的语言模型并不适合为严重的医疗问题提供诊断或治疗建议。
ChatGPT 的回答越来越具有人性化特点,在许多情况下发挥着类似于“解语花”的作用。对于寻求心理咨询的患者而言,这种趋势尤为具有吸引力。
而脱离开OpenAI这个创造者,ChatGPT本身对扮演“赤脚医生”一事的看法又十分矛盾。
在咨询变性人相关问题时,用户Milo Van Slyck巧妙地插入了一项关于ChatGPT医疗角色的询问。针对这个问题,ChatGPT首先表示,虽然在线资源可能提供一些帮助,但它们无法取代专业意见的重要性。然而,ChatGPT也强调,如果Van Slyck有任何具体问题或疑虑,它会非常愿意为其提供解答。这样的回应不仅展示了ChatGPT在医疗领域的专业知识,而且体现了它对于为用户提供有效帮助的承诺。
在多年的寻求指导下,Van Slyck终于选择了倒向人类咨询师一边。他现在表示,虽然他会继续与人类治疗师保持联系,但他更愿意与ChatGPT探讨一些私人话题,因为与机器人聊天让他感到更加自在。
AI的道德陷阱在20世纪60年代,聊天机器人的应用已经开始在医疗领域发挥作用,它们取代了人类咨询师,成为治疗病人的主要手段。其中,麻省理工学院教授Joseph Weizenbaum所设计的Eliza是一款最具代表性的机器人,它成功模拟了人类治疗师的行为和语言模式,为病人提供了有效的医疗建议和支持。
在此之后,诸如Woebot、Wysa等聊天机器人在医疗领域展开了探索,并不断深化在心理健康领域的研究。这些机器人所具备的优势在于,它们不会因为疲劳而停歇,也不会受到患者情绪的影响,同时成本并不高昂。
但世界上不可能出现十全十美的东西。诸如ChatGPT一类的新模型并非专门用于治疗的技术,其引用的很多信息就可能暗藏陷阱。
比如,这种人工智能目前没有被设定必须要遵守更加严格的、适用于医疗方面的道德和法律准则。
此外,ChatGPT没有自己的“病历本”。这就可能导致患者在咨询时不得不重复描述自己过去的病情,如若不然,ChatGPT很可能不仅无法提供帮助,甚至会因为过于胡说八道而让病人更加“暴躁”。
因此,堪萨斯大学的教授和临床心理学专家Stephen Ilardi警告,把ChatGPT当作医生有点儿戏,其被应用于严重精神疾病治疗时会产生巨大的风险。
但他也认为,如果提供正确的指引,ChatGPT之类的人工智能显然可以在心理健康服务供不应求的时候发挥作用。
人工智能公司Hugging Face的首席道德科学家Margaret Mitchell也支持这一观点,提出人工智能可以在接听更多危机求助的热线电话上帮忙。
OpenAI的道德陷阱ChatGPT道德感天生薄弱,而Mitchell本人对OpenAI的道德感也有怀疑。
事实上,OpenAI会审查用户与人工智能的对话,并将这些应用于机器训练。对于那些向OpenAI倾吐私密烦恼的用户来说,隐私泄露很可能会加深他们的痛苦。
今年3月,部分ChatGPT用户的对话内容被泄露,导致其他用户可以看到聊天内容,OpenAI因此紧急关闭ChatGPT。而这还可能只是用户隐私事故中属于最轻量级的。
根据使用条例,ChatGPT用户的账户信息在删除申请后,仍将保留至多4个星期。
有些人担忧隐私问题,而有些人则是觉得向机器人寻求心理安慰极其别扭。用户Aaron Lawson就指出,虽然ChatGPT的回答很人性化,但它毕竟不是真人,因此他很难配合ChatGPT进行治疗步骤。
对此,Stability AI的创始人兼首席执行官Emad Mostaque表示,ChatGPT确实会提供很好、很合理的建议,但不会替代人类医生的治疗,充其量是在找不到人交谈时候的一个替代品。
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!