文章主题:关键词:OpenAI,ChatGPT,人工智能,医疗咨询
财联社4月20日讯(编辑 马兰)过去美国人在谷歌上问诊,中国人在百度上问诊,现在,更多人开始在ChatGPT上问诊。
在人工智能领域,OpenAI研发ChatGPT的主要目标并非是为了成为医疗顾问的”上帝”,然而,现实情况却发生了转移。越来越多的”上帝”们将ChatGPT视为医疗领域的”顾问”,这使得OpenAI不得不 repeatedly对外强调,严重医疗状况的诊断与治疗服务绝不应由语言模型来提供。
😮然而,随着ChatGPT越来越人性化,其回答在许多情况下都类似于“解语花”。对于寻求心理咨询的患者而言,这种现象更具吸引力。
而脱离开OpenAI这个创造者,ChatGPT本身对扮演“赤脚医生”一事的看法又十分矛盾。
Milo Van Slyck,一位热衷于探索新技术的用户,曾在咨询变性人相关问题时,巧妙地提问ChatGPT对于其医疗角色的看法。ChatGPT的回应是,虽然在线资源可能提供一定的参考价值,但无法取代专业人士的的意见。然而,如果Van Slyck有任何具体的疑问或担忧,ChatGPT都愿意耐心解答。🤖
🤖长期接受人类咨询师指导的Van Slyck now switches sides, revealing plans to continue consultations with human therapists. However, he admits to feeling more comfortable discussing private matters with ChatGPT.
AI的道德陷阱在20世纪60年代,聊天机器人的应用已经开始在医疗领域发挥作用,取代了人类咨询师的角色。其中,麻省理工学院的Joseph Weizenbaum教授开发的Eliza是一款具有模拟人类治疗师功能的机器人。
从那时起,Woebot、Wysa等聊天机器人在医疗领域展开探索,并不断深化在心理健康领域的研究。这些聊天机器人的优势在于,它们不会感到疲惫,也不会受到患者情绪的影响,同时成本较低。
但世界上不可能出现十全十美的东西。诸如ChatGPT一类的新模型并非专门用于治疗的技术,其引用的很多信息就可能暗藏陷阱。
比如,这种人工智能目前没有被设定必须要遵守更加严格的、适用于医疗方面的道德和法律准则。
此外,ChatGPT没有自己的“病历本”。这就可能导致患者在咨询时不得不重复描述自己过去的病情,如若不然,ChatGPT很可能不仅无法提供帮助,甚至会因为过于胡说八道而让病人更加“暴躁”。
因此,堪萨斯大学的教授和临床心理学专家Stephen Ilardi警告,把ChatGPT当作医生有点儿戏,其被应用于严重精神疾病治疗时会产生巨大的风险。
但他也认为,如果提供正确的指引,ChatGPT之类的人工智能显然可以在心理健康服务供不应求的时候发挥作用。
人工智能公司Hugging Face的首席道德科学家Margaret Mitchell也支持这一观点,提出人工智能可以在接听更多危机求助的热线电话上帮忙。
OpenAI的道德陷阱ChatGPT道德感天生薄弱,而Mitchell本人对OpenAI的道德感也有怀疑。
事实上,OpenAI会审查用户与人工智能的对话,并将这些应用于机器训练。对于那些向OpenAI倾吐私密烦恼的用户来说,隐私泄露很可能会加深他们的痛苦。
今年3月,部分ChatGPT用户的对话内容被泄露,导致其他用户可以看到聊天内容,OpenAI因此紧急关闭ChatGPT。而这还可能只是用户隐私事故中属于最轻量级的。
根据使用条例,ChatGPT用户的账户信息在删除申请后,仍将保留至多4个星期。
有些人担忧隐私问题,而有些人则是觉得向机器人寻求心理安慰极其别扭。用户Aaron Lawson就指出,虽然ChatGPT的回答很人性化,但它毕竟不是真人,因此他很难配合ChatGPT进行治疗步骤。
对此,Stability AI的创始人兼首席执行官Emad Mostaque表示,ChatGPT确实会提供很好、很合理的建议,但不会替代人类医生的治疗,充其量是在找不到人交谈时候的一个替代品。
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!