文章主题:分享, 点赞, 看

666AI工具大全,助力做AI时代先行者!

提示点击上方”中洪博元“↑免费订阅本刊

分享的力量:为我的文章注入活力

科研工具作图丨实验SCI统计分析国自然

2023年初,一个聊天机器人突然成为“全球明星”,它就是ChatGPT。

ChatGPT是一种基于深度学习的大语言模型,它正在以惊人的自然语言处理能力,引起广泛关注。先是引发全球注册使用然后感叹amazing,而后它的智能引发全人类对失业的焦虑。

人工智能并不是一个新词,为什么这一次ChatGPT会那么火?

实际上人工智能的概念早在1956年达特茅斯会议就诞生了。而起起落落是人工智能产业发展的常态。

直到去年11月,ChatGPT发布,让每个人都能了解人工智能的威力。

如果之前我们熟悉的语音识别、“刷脸”等视觉识别,仍然停留在“感知智能”,那么GPT为代表的AGI(通用人工智能)将让人类社会进入“认知智能”阶段,能够解决很多场景的不特定问题,这就比较像人的智能了。

中国中医科学院广安门医院党委书记王笑频曾用一个比喻,说明人工智能对人类的影响:如果将AI领域简化类比手机领域,ChatGPT就相当于iPhone。“从诺基亚、爱立信,再到摩托罗拉,直到iPhone的出现,它们确确实实改变了人们的生活和工作方式。”

分享的力量:为我的文章注入活力

分享的力量:为我的文章注入活力

那么,ChatGPT对于医疗领域意味着什么呢?

在医疗领域,生成式AI会有非常多的作为,在远程患者监控、疾病监测、患者分诊、医学写作等方面都有潜在的应用。

(1)处理信息

在现代医疗中,有大量的时间用于处理信息,包括写病历、写医嘱、写医疗保险文书、写患教材料等。

ChatGPT可以通过从大量医学数据中学习,并生成详尽、准确的医学报告。最简单的例子,如果一个医生一天要花半小时去写病历,那半小时能不能变成3秒钟?

(2)分析健康数据

ChatGPT持有的数据信息量几乎是所有同业持有的数据信息的“总和”,多达数十亿的参数准确“定位”最佳方法和决策选项,权衡选项并预测各种可能性是否是最佳匹配方案。这为医务人员和研究人员提供更好的决策支持,并为医疗机构提供有关患者治疗结果等方面的见解,还可以辅助远程医疗。

(3)改善就医体验。比如,它可以通过训练和积累,快速回答患者问题、减少等待时间。

前段时间,加州大学圣地亚哥分校进行了一项有趣的研究,研究人员在社交网站找到 195 个真实的医患问答,然后将相同的问题投喂给 ChatGPT,再交给专家盲评,比较人类医生和 AI 的高下。

这些问题多种多样,从「怎么治疗长期咳嗽」,到「吞了根牙签,朋友说我要死了」。结果让人惊掉下巴。ChatGPT 在信息质量和同理心这两个方面,都打败了人类医生。

ChatGPT 的同理心通常体现在,会对患者的不适感到抱歉。也不同于医生简短、省时的风格,它的答案更长、更亲切。

(4)辅助医生发挥最大价值

由于GPT-4经过海量公开数据进行训练,拥有丰富的医疗知识,可以回答医生或患者常见的医学疑问。因此,ChatGPT 可能会以超乎想象的方式继续提高医生的知识和更新所掌握的技能,提供更好的医疗实践。

医学生通常需要十年左右的教育和培训才能成为一名合格的医生,而ChatGPT有望在数月甚至更短时间内完成这一培训过程,它可以从数百家医院的临床经验信息中习得最佳临床技能和经验。

中国人民武警部队重庆总队医院院长王伟曾表示,ChatGPT的应用,至少对专家团队不占优势的医院来讲,是一个好消息。“它可以辅助提高医生临床诊断水平。年轻医生临床经验不太丰富,对指南把握仍不太全面。ChatGPT则可以弥补这些不足。

(5)写论文时的辅助工具

由于ChatGPT是一种大型语言模型,它可以提供直接的答案,而不是像谷歌或其他搜索引擎一样给出数百个来源和/或链接。因此它可作为研究人员撰写论文时的辅助工具。

客观上,ChatGPT或将帮助临床医生解脱“爬格子”写论文的痛苦。但这引起了巨大争议,导致一些科学期刊禁止将ChatGPT列为作者。例如Nature出于审慎,禁止包括ChatGPT在内的大型语言模型工具(LLM)署名论文作者,若实际使用,则要在论文方法或致谢部分明确说明。

同时,ChatGPT还可以在研究设计、数据分析和建议方法等多个方面帮助研究人员,它甚至可以筛出某些研究中的关键优点或弱点,以帮助研究人员提高效率。

近期,据美国新闻网站“Daily Beast”报道,田纳西大学健康科学中心的放射科医生Biswas 使用GPT在4个月内至少撰写了 16 篇论文,其中已发表5篇。

分享的力量:为我的文章注入活力

分享的力量:为我的文章注入活力

科研医生会被取代吗?

能写出逻辑清晰论文,甚至通过执业医师资格考试的ChatGPT,再次勾起人们的疑虑:它会抢走医生的“饭碗”吗?医生会被取代吗?

今年3月,高盛发布了一个预测,预计全球有18%的工作岗位可由 AI实现自动化(医疗行业其实也肯定在18%中)。那么,什么样的医疗是最容易被GPT所取代的?

从整体来讲,未来只要是辅助性的工作,大部分会被 AI取代。包括医疗机构里的HR,或是助理、秘书之类的职务。

但是医生会不会被取代?

王伟的答案是ChatGPT永远不可能取代临床医生。“疾病是复杂的,医学也是多学科的。仅就目前来看,ChatGPT尚无法具备临床医生的综合判断思维。

中国医学科学院肿瘤医院深圳医院副院长昌盛也得出同样结论。“医学问题包含着人性、尊严、情感等伦理的考量,这些是目前的ChatGPT尚不能提供的。

《超越想象的GPT医疗》一书中提出了一个点,就是GPT提供了一种医生、患者的三方关系,就是“副驾”的作用,不是替代的作用,相当于给人创建了一个助手,通过人机协作,做一些比较繁琐的文书工作、病历输出工作,来部分地解放医生,所以GPT能够在一个新的层次上去提升医生的生产力,或者是我们每个人的生产力。

从长远来看,一部分医生会被取代。

未来ChatGPT知识积累到一定程度的时候,知识性的工作会被取代,未来会把图像接口引进来,类似于皮肤科这种靠形态学诊断的医生,可能会面临挑战。

外科医生从某种意义来讲也是可能会被取代的,如果外科医生只是动手,动手能力的要求将来会比知识的能力要求更低,越来越多的器械、越来越多的手术变得越来越微创化的时候,动手能力已经不是一个高学历的人所独有的优势,这恰恰又是人工智能的优势。

AI的出现,就像互联网出来时那样,所有行业都会面临冲击,面临重组、重构。

分享的力量:为我的文章注入活力

分享的力量:为我的文章注入活力

如何应对?

面对现代医学的复杂性和智能技术的强力冲击,第一要务则是“变革思维”。若借用开创国家大规模资助科学研究的先驱Vannevar Bush科学散文中的精神,即是“我们不再应对!我们自由畅想!”

因此,对人工智能,既要保持警戒之心,同时我们也要学习。

张强医生集团创始人张医生对此建议:

医生要开始学习驾驭人工智能的能力,这个技能不是搜索、不是搞个数字人讲短视频,它认为将来的应用是在关系上,以及在一些决策上面。

如果学会驾驭人工智能,短时间内可能会弯道超车。但如果你不会驾驭人工智能,而又是做知识性的工作,就很容易被取代。

海创汇首席生态官檀林对此也给出建议:

因为未来的工作场景可能是人机合作的场景,所以人可能需要的能力是怎么去领导知识比你更丰富、学习能力比你更强的机器。

因为机器现在还没有发展出来基于主观意义主动去行事的能力,这部分的主动性还是靠人去赋予的。所以它要达成的目标一定是人赋予它的,而不是它自己产生的意识,自作主张去做的,所以驾驭能力非常重要。

对于老医生、新医生,甚至对于病人,在跟AI产生互动关系的过程中,目标感、意义感是我们要一直攥在手里的。

以后可能很多的工作场景都是问答型的,因为人还是有主观能动性的,就像让机器写开场白,也是给了它一堆指令,让它写成什么样子,这个prompt(提示)是你给它的。所以现在为什么 Prompt Engineer(提示工程师)在美国收入比一般的码农还要高,就是这个道理,因为他有更多的行业洞察或人生经验,可以用最简洁的表达、指令和prompt(提示)去规训机器 AI,然后一起达成目标。所以机器是经由你的指令,帮助你达成目标的工具,或者是助手。

微软(中国)公司首席技术官韦青说:

GPT时代来临,有点像电的发明。现在还是点煤油灯的阶段,我们每个人应该进入新电力时代,需要去学习这种工具,然后让这个工具更好地服务于我们。

鹰瞳Airdoc创始人张大磊表示:

GPT医疗不再是一个大家想象中要不要来的问题,而是它会且即将成为生活的一部分,就像空气一样随时随地都在。从业者或每个人怎么把它用好,是我们要思考的;先用好的人,一定在这个时代里有巨大的先发优势。

比起担心被取代,不如将时间用在思考如何用好这一工具,提高我们的工作效率~

分享的力量:为我的文章注入活力

分享的力量:为我的文章注入活力

ChatGPT应用于医学领域的局限

每一个技术进步都是两面性的。

与潜在价值并行,目前ChatGPT也有其显然易见的局限性,例如数据截至2021年9月导致信息不完整,缺乏个性化,隐私问题,临床验证不足和无法诊断等。

将“ChatGPT应用于医学领域的局限“这一问题抛给ChatGPT,以下是它给出的回答:

数据质量:ChatGPT主要是通过互联网上的数据进行学习和生成文本,但这些数据质量不一,可能存在错误和偏差,这可能会影响ChatGPT的准确性和可靠性。

诊断和治疗方案:ChatGPT可以提供一定的诊断和治疗建议,但对于某些疾病和症状,ChatGPT可能无法提供准确的建议,这可能会导致患者的健康风险。

伦理问题:在医学领域中,保护患者和病人的隐私和权益是非常重要的。ChatGPT会根据互联网上的数据来生成文本,因此可能会涉及到患者的个人信息和隐私,需要更加谨慎地处理。

模型的可解释性:ChatGPT是一种黑箱模型,难以解释它生成文本的原因和过程。在医学领域中,需要对模型的决策和结果进行解释,这可能会对ChatGPT的应用造成限制。

不适用于紧急情况:在紧急情况下,如心脏骤停,ChatGPT无法提供及时的诊断和治疗建议,这可能会影响患者的生命安全。

此外,ChatGPT的优点是可训练,缺点也是可训练,如果别有用心的人用数据炸弹去训练无监管的ChatGPT,可能会诱导其给出商业化的特定答案。这是未来我们使用ChatGPT要保持审慎态度的重要原因之一。

另外,要解决法律问题,人犯错误会承担责任,机器没有情感,怎么追责?如果GPT是一个“副驾”的概念,将来机器出问题了,被追责的是用机器的这个人。法律关系理顺了以后,GPT在临床实际应用中,一旦突破这个瓶颈,会进入到一个全新的世界。

而ChatGPT进入医学领域还将带来一系列的重要问题。例如医生的工作是否将被自动化?人工智能是否能代替医生提供诊疗意见?然而,这些问题的答案并不是非黑即白。需要我们通过科学和客观眼光来看待ChatGPT在医学领域的应用。

参考来源:【1】GPT冲击医疗,医生怎样才能不被淘汰?医学界,2023.06.22【2】ChatGPT 要抢医生“饭碗”?医学报,2023.03.30【3】ChatGPT将为医疗带来怎样的改变,首席健康官,2023.06.13【4】ChatGPT:革新还是噱头?浅谈其对自身免疫领域的冲击,医脉通风湿免疫科,2023.06.19【5】GPT将颠覆医疗,我们该怎么办?医学界智库,2023.06.24分享的力量:为我的文章注入活力分享的力量:为我的文章注入活力

因为你的分享、点赞、在看

我足足的精气神儿!

分享的力量:为我的文章注入活力

分享的力量:为我的文章注入活力

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!