文章主题:关键词:国外, Alex, 脊髓栓系综合征, ChatGPT
ChatGPT能看病了?
在海外,一位名叫Alex的年轻人长期遭受一种神秘疾病的困扰,已经持续了3年的时间。在这段时间里,他的家人带着他四处求医,寻求能够为他解除病痛的方法。然而,无论是哪里的医生,都无法准确地诊断出病因,因此,Alex的病情依然没有得到解决。
在某一天,男孩的母亲尝试在网上寻找ChatGPT的援助。她详细描述了孩子所表现出的各种症状,然而,ChatGPT却提供了一个母亲从未听说过的答案——脊髓栓系综合征。
在之后的时间里,母亲携手孩子以及由ChatGPT生成的答案,再次踏上了寻医之旅。经过医生的详细检查和对比分析后,这位医生终于确认了男孩患上了一种疾病。
而此时,男孩先后看过的医生已经有18位了,都没有诊断出这种稀有的疾病。
这件事一出来,便引起了网民的热烈讨论。
有其他人有分享了自己的亲身经历,或是给人看病,或者是给宠物狗问诊,ChatGPT都能给出令人满意的答案。
就连马里兰大学医学院的研究人员,也曾以研究的形式问诊ChatGPT。研究人员问了它二十多个关于乳腺癌以及筛查等相关问题,它的回答经过专业人员的评估后,发现其中88%的内容都是恰当的。
甚至于ChatGPT的升级版GPT-4,据说此前在试验中,还通过了美国职业医师考试。
从这些情况来看,似乎ChatGPT坐堂问诊已指日可待。不过也有些人对它的表现持有怀疑态度甚至不屑一顾:只要吸取的信息和知识够多,完全能做到瞎猫撞上死耗子。
ChatGPT会看病的原理是什么?
以Alex为例,他所患的脊髓栓系综合征是一种较为罕见的疾病,它在成年人群中的发病率相对较低,通常局限于儿童群体。据统计数据显示,该疾病的发病率大约在0.005%到0.025%之间。
在医疗领域,由于某种疾病的发生率较低,医生通常不会将其与患者联系在一起。然而,在现代医学体系中,专业的专科医生专注于自己的领域,各自拥有独特的主攻方向,这与全科医生无关。
当面对那些较为罕见的疾病时,医生可能会感到力不从心,这是非常正常的。然而,ChatGPT却可以发挥其优势,因为它具有无限量汲取人类现有知识的能力。换言之,ChatGPT可以通过对大量病例的学习,积累丰富的经验,从而更准确地诊断疾病。这种基于理解的诊断方式,正是ChatGPT所擅长的。
GPT, or Generative Pretrained Transformation Model, is a highly advanced language generation technology that sounds complex but has a simple underlying principle. The name “Chat” refers to the act of communication, while the acronym GPT stands for its汉语翻译——可生成型预训练变换模型。 This model has been designed to generate natural and coherent text based on large amounts of training data, allowing it to learn patterns and relationships within language that can be used to create new, relevant content.
依据基本原理,各类知识只有在与之建立联系后,通过不断语言学习和语法训练,才能真正实现对人类文本信息的生成理解和掌握。换言之,ChatGPT的理解能力和现有知识储备,都取决于人类为其提供的知识数量。
至于看病和问诊,实质上就是把它知道的答案呈现了出来。所以,这就跟人们在互联网搜索各种知识点是类似的。
不同的是,传统互联网只会呈现出一个答案,不能汇总也做不到融汇贯通,一切要搜索人自己去查找和理解。
而ChatGPT借助于训练出来的理解能力,不但能将相关答案呈现出来,还能做到以它自己的理解来输出全新的内容。
相比于传统的互联网搜索,这肯定算是进步了太多。但是,由于ChatGPT的所谓理解能力还相当原始,有时候它所呈现出来的答案也可能是错误的。
除此之外,它目前还做不到脱离人类现有的信息,去主动思考和生成新的内容。说白了,它所有的知识输出,都建立在人类现有的基础之上。
你问它一个关于外星人的问题,它绝对回答不出来什么新鲜的颠覆人类认知的内容。
一切取决于现阶段人类的内容“投喂”
吕海龙是精神卫生科的医生,今年初的时候,他和浙江大学一附院的团队成员做了一个实验。研究人员让ChatGPT参加了一场中国执业医师的考试。
参与实验的ChatGPT,其所掌握的数据信息,是2021年之前训练得出来的,相关考题则是2020年执业医师考试的试题。
综合来看,一张满分100分的试卷,ChatGPT的成绩只有57分,连及格线都没有达到。
从具体的类型来看,很多基础性的医学类知识,ChatGPT都回答错了,吕海龙和团队成员猜测,最大的原因可能是此前它从网上获取的信息就是错误的。
对比之下,一些需要逻辑思考的实践题,它回答的还算不错,但这类问题在实验中,给ChatGPT设置的前提条件也很充足。
一旦某些问题设置的信息有缺失,它要么回答不上来,要么就是给出答非所问的答案。所以这也能看出来,在逻辑思考上,ChatGPT基本上还不会思考,跟不会像人类一样去运用猜测和联想。
说白了,现阶段的ChatGPT就像一个刚上学的儿童一样,完全依赖人类的信息投喂,给它提供什么内容,经过对话训练后它就输出什么内容。
不过,虽然完全依赖人类的投喂,它的信息整合和加工能力还是具备的。这样一来实际上就产生了另一个问题,即它做不到像人类一样去甄别信息的来源,更做不到去分辨信息的真伪与好坏。
在此前国外的相关训练中,一旦研究人员给它提供有争议性的甚至错误的信息,ChatGPT整合输出的内容就完全是胡言乱语。
尤其是给它提供一些明显错误其误导性的信息后,它能很快整合生成一篇新的内容,从人类的角度去判断,新输出的内容看起来真实可靠,可实际上是彻头彻尾的假信息。
难怪一些互联网公司的高管们对ChatGPT将来的运用持悲观态度,因为利用它将能传播大量错误的信息。
马里兰大学医学院在此前的研究中也发现了这一点,ChatGPT会编造一些完全不存在的期刊文章,还会伪造所谓的第三方权威机构来支持某种观点。
这些内容,有时候非专业人员根本分辨不出来,即便是一些专业人士,也需要经过仔细的甄别才能发现问题。
研究人员猜测,ChatGPT并没有故意造假的企图,它只是依据自身的文本内容储存,再根据与人类的对话训练,进而会依照自身的逻辑判断来整合和输出信息。
换句话说,它没有人类的意识思维,只是在简单模仿和套用人类输出内容的格式模块。
如此一来,即便有时候ChatGPT给出的答案建议是正确的,但不能保证它给出的所有答案都是正确的。
所以在医学领域,国外的一些研究人员不建议患者通过ChatGPT问诊,而应该去看医生。
这就又回到原来的问题了。
现阶段ChatGPT能胜任医生的职务吗?
吕海龙和团队在实验后,基于ChatGPT的实际表现,他认为在未来的医学领域,类似ChatGPT这样的AI产品,应该变成一个庞大的知识库。
在基础类的医学知识上,如果能做到百分百的正确,就能成为医生很好的助手,可以随时随地辅助医生提供大量正确的建议。吕海龙还希望,未来的发展中它的答案还应该明确标定出处,比如是某本书籍,或者是互联网等。
当然,也有医生认为,ChatGPT光做一个知识储备库太过于浪费,凭借其越发强大的整合能力,未来的临床医生,其实也可以将大量的临床经验传授给AI产品,这样和它自身储备的大量知识相结合,给人看病就不再是梦想了。
有医学领域的专家认为,未来的ChatGPT最好能用声音和人类交流,通过不断向患者提问来积累临床经验,这样或许能做出新的医学判断,给出新的经验来。
但这一切都基于未来的发展,目前ChatGPT还达不到这样的水准。相关产品的记忆、计算、逻辑判断以及推理等可能与人脑持平甚至超过了人类,但是智能的起点,也就是自我认知的能力,目前的AI产品没有,而且也模拟不出来。
所以就现在的情况来看,ChatGPT还做不到独立给人看病,它最多只能作为辅助,成为医生在临床上的一个智能助手。
至于文章开头的案例,那不过是它基于海量的储备知识,正好给出了一个准确的判断。但是个案不能代表全部,尤其在医学领域,个案更不能代表普遍的临床实践。
当然在医学领域之外,也有诸如教育、新闻等行业,试图训练和利用ChatGPT做出某种突破性的改变。不过整体看来,目前都还位于起始点,颠覆性的突破还没有出现。
结语:人类跟得上ChatGPT的变化吗
前一段时间,据说一家美国的媒体,曾利用ChatGPT代替人工报道体育方面的消息,然而在用过一段时间后,它写出来的新闻要么错误百出,要么不知所云,文笔和人的文笔比起来更是味同嚼蜡。最后不得已只能将该项目关停。
这就是将ChatGPT投入到实际产业中一次失败的尝试。
诚然,ChatGPT的优势肉眼可见,但是它的短板也相当突出。归根结底,没有判断能力就不存在认知能力,既然没有认知,它所有的知识储备就都是“死”的,无法真正像人类这样将其串联起来。
至于这种关键的改变何时会发生,目前人类自己也不知道。就像宗教传说中那样,亚当和夏娃,最早也是吃了禁果之后,才产生了自由意志和自我意识。
同样,目前ChatGPT这样的AI产品,它们缺少的就是那颗最关键的禁果。现有的人类科技水平,同样不清楚这样的变化将会带来什么。
现在对于ChatGPT的研究,都是建立在它还没有自我认知的基础上的。大量的实验以及相关的训练,都是想把它变成全知全能的人类助手。
可从本质上来看,这里面可能存在一个悖论,假如未来的AI产品真做到了全知全能,你觉得它不会演化出自我认知吗?
如果脑洞开的再大一点,现今ChatGPT这样的初级产品,又何尝不是在人类的调教下,一步步的演化呢?人类又如何能分辨出来,它不是对自我的认知进行了掩藏和修饰呢?
既然要赋予其智能,既然想创造出新的智能,这些情况就不可能不会出现,一切只不过是时间问题罢了。
当然,现在还没有到达那种地步,ChatGPT还是既聪明又蠢萌的聊天工具。未来它在变,人类也跟着改变认知才行。
参考资料:
《ChatGPT能看病吗?医生出了一百道单选题,它没及格》 澎湃新闻 2023年2月22日《是“公平台”还是“狗屁通”?ChatGPT真的“无所不知”吗?》 大象新闻 2023年2月10日《国产医疗版”ChatGPT”来了,能给我们看病吗?》 南方日报 2023年2月10日
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!