文章主题:关键词:OpenAI,ChatGPT,人工智能,医疗咨询
财联社4月20日讯(编辑 马兰)过去美国人在谷歌上问诊,中国人在百度上问诊,现在,更多人开始在ChatGPT上问诊。
当OpenAI开发ChatGPT时,他们的初衷并非是为了成为医疗行业的主角。然而,随着这款人工智能助手逐渐被众多“上帝”所采用,作为医疗建议的替代品,OpenAI只能不断地重申,在面临严重医疗问题时,的语言模型不应被用于提供诊断或治疗方案。
ChatGPT 的回答越来越具有人性化特点,在许多情况下发挥着类似于“解语花”的作用。对于寻求心理咨询的患者而言,这种趋势尤为具有吸引力。
而脱离开OpenAI这个创造者,ChatGPT本身对扮演“赤脚医生”一事的看法又十分矛盾。
在咨询变性人相关问题时,用户Milo Van Slyck巧妙地插入了一项关于ChatGPT医疗角色的询问。针对此问题,ChatGPT首先表示,虽然在线资源可能提供一些帮助,但它们无法取代专业意见。然而,ChatGPT也强调,如果Van Slyck有任何具体问题或疑虑,它会非常愿意为其提供解答。这样的回应不仅展示了ChatGPT在医疗领域的专业知识,而且体现了其对用户需求的关注和尊重。
在多年的寻求指导下,Van Slyck终于选择了倒向人类咨询师一边。他现在表示愿意与人类治疗师继续保持联系,但是与ChatGPT畅谈私事将让他感到更加舒适。
AI的道德陷阱在20世纪60年代,聊天机器人的应用已经开始涉足医疗领域,其替代人类咨询师的角色逐渐显现。其中,麻省理工学院的Joseph Weizenbaum教授所设计的Eliza是一款最具代表性的作品,它成功模拟了人类治疗师的行为和语言模式,为医疗领域的智能化发展奠定了基础。
在此之后,诸如Woebot、Wysa等聊天机器人在医疗领域展开了探索,并不断深化在心理健康领域的研究。这些机器人所具备的优势在于,它们不会因为疲劳而停歇,也不会受到患者情绪的影响,同时成本并不高昂。
但世界上不可能出现十全十美的东西。诸如ChatGPT一类的新模型并非专门用于治疗的技术,其引用的很多信息就可能暗藏陷阱。
比如,这种人工智能目前没有被设定必须要遵守更加严格的、适用于医疗方面的道德和法律准则。
此外,ChatGPT没有自己的“病历本”。这就可能导致患者在咨询时不得不重复描述自己过去的病情,如若不然,ChatGPT很可能不仅无法提供帮助,甚至会因为过于胡说八道而让病人更加“暴躁”。
因此,堪萨斯大学的教授和临床心理学专家Stephen Ilardi警告,把ChatGPT当作医生有点儿戏,其被应用于严重精神疾病治疗时会产生巨大的风险。
但他也认为,如果提供正确的指引,ChatGPT之类的人工智能显然可以在心理健康服务供不应求的时候发挥作用。
人工智能公司Hugging Face的首席道德科学家Margaret Mitchell也支持这一观点,提出人工智能可以在接听更多危机求助的热线电话上帮忙。
OpenAI的道德陷阱ChatGPT道德感天生薄弱,而Mitchell本人对OpenAI的道德感也有怀疑。
事实上,OpenAI会审查用户与人工智能的对话,并将这些应用于机器训练。对于那些向OpenAI倾吐私密烦恼的用户来说,隐私泄露很可能会加深他们的痛苦。
今年3月,部分ChatGPT用户的对话内容被泄露,导致其他用户可以看到聊天内容,OpenAI因此紧急关闭ChatGPT。而这还可能只是用户隐私事故中属于最轻量级的。
根据使用条例,ChatGPT用户的账户信息在删除申请后,仍将保留至多4个星期。
有些人担忧隐私问题,而有些人则是觉得向机器人寻求心理安慰极其别扭。用户Aaron Lawson就指出,虽然ChatGPT的回答很人性化,但它毕竟不是真人,因此他很难配合ChatGPT进行治疗步骤。
对此,Stability AI的创始人兼首席执行官Emad Mostaque表示,ChatGPT确实会提供很好、很合理的建议,但不会替代人类医生的治疗,充其量是在找不到人交谈时候的一个替代品。
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!