ChatGPT医疗冲击?专家:AI不可替代医生成就未来数字健康?
AI医师助手

ChatGPT医疗冲击?专家:AI不可替代医生成就未来数字健康?

中国工程院院士们认为ChatGPT等人工智能对医学有前景,可辅助诊疗但不能替代医生。他们在全生命周期健康管理、肿瘤防控和数字医学等领域探讨了AI的应用,并指出新技术将促进医疗便捷但需警惕滥用可能带来的伦理问题。他们强调医学生需要掌握数字化技能,而医生与人工智能将共存为患者提供诊疗方案。
「突发」ChatGPT+投资新动向!A股下周会否迎来转折?「国际热浪」美元上限问题与AI巨头竞相崛起
AI医师助手

「突发」ChatGPT+投资新动向!A股下周会否迎来转折?「国际热浪」美元上限问题与AI巨头竞相崛起

上周A股指数下跌,深证成指、创业板指和科创50均连跌五周;美股道指和标普下跌,纳指上涨。国内将发布4月消费零售、工业增加值等数据,同时关注1000亿MLF到期及央行动向,中特估板块将迎来重要ETF产品发行。耶伦讨论债务上限问题,鲍威尔携官员密集发声。OpenAI扩大ChatGPT Plus联网功能,并引入投资插件Portfolio Pilot,而周鸿祎认为人工智能将重塑各行业,360集团创始人称ChatGPT-4.0已很聪明。柯桥区人社局局长金伟梁用英文推介柯桥,展示当地对人才的吸引和诚意。
ChatGPT与元宇宙:新旧交替?未来的科技焦点?
AI医师助手

ChatGPT与元宇宙:新旧交替?未来的科技焦点?

文章讨论了ChatGPT对元宇宙的影响。议题在于探讨其是否为新风口或只是技术的现有应用。2023年春季元宇宙产业大会上,焦点将放在ChatGPT与元宇宙的关系上,通过专家分析和企业高层分享来深入理解这两个概念。罗军预测ChatGPT的出现将使元宇宙发展提前10年,并强调人工智能在其中的重要性。大会还安排了院士对话和企业演讲,以提供对ChatGPT和元宇宙更全面的认识。
AI医疗加速,ChatGPT能否成功落地?行业巨头和专家怎么看?
AI医师助手

AI医疗加速,ChatGPT能否成功落地?行业巨头和专家怎么看?

随着AIGC技术进步和算力成本下降,其多场景应用前景看好。然而,ChatGPT的广泛应用面临落地难题,尤其是在医疗领域,医院正探索利用大数据训练模型进行就医导诊和知识库构建,复旦大学附属华山医院已开展相关合作。同时,AI技术在责任感和错误责任承担上仍存在挑战,尽管ChatGPT可能改变游戏行业和自动驾驶,但电动车核心仍是技术创新和制造体系优化,专家建议立足实际,合理应用智能化。
ChatGPT引领医疗创新热潮,AI医生如何改变看病难现状?
AI医师助手

ChatGPT引领医疗创新热潮,AI医生如何改变看病难现状?

随着ChatGPT的热度,2023生命谷数字医疗创新论坛聚焦AI在医疗健康领域的应用,数坤科技的AI影像医生产品被视为解决看病难贵问题的关键工具,具有快速精准优势。AI制药、预问诊等领域也受益于这一趋势,昌平区已形成良好的数字医疗生态,布局了多个全球首创企业,并通过成立数字医疗加速器支持创新企业发展,强调商业化和临床融合的重要性。
看舌头’神奇还是误导?人工智能舌诊靠谱吗?
AI医师助手

看舌头’神奇还是误导?人工智能舌诊靠谱吗?

"看舌头"APP通过分析用户舌像自动生成健康报告,宣称能诊断体质并提供治疗建议,但中医专家认为其结果仅供参考,需要结合望闻问切多方面综合判断,且强调个体差异和药物使用需谨慎。该应用的处方不被法律认可,市民在用药时应遵循专业医师建议。
爱拼才会赢|ChatGPT生成式病历来了!舒淇才是“大号水蜜桃”,穿露肩裙前凸后翘,47岁美得犯规
AI医师助手

爱拼才会赢|ChatGPT生成式病历来了!舒淇才是“大号水蜜桃”,穿露肩裙前凸后翘,47岁美得犯规

ChatGPT,正引领人工智能新一轮技术革命的浪潮。最近,在2023中国卫生信息技术/健康医疗大数据应用交流大会上,森亿医疗科技有限公司(以下简称“森亿智能”)率先发布了自主研发的病历生成式语言模型,马上引发业内外关注。 这个由几名哥伦比亚大学毕业的海归等创办的国家高新企业,已经成为中国智慧医疗的引领者之一。“我们将开发出更多以疾病为核心的医疗辅助模型,提高就诊的效率和准确度;公司也正在向一个亿的‘小目标’进军。”森亿医疗科技有限公司创始人兼董事长张少典向记者透露。 图说:张江“小巨人”森亿智能探索人工智能医疗新领域。受访者供图 每年都有重要创新成果 “过去临床医生写病史,需要在脑海中先勾勒病史要点框架,同时围绕要点补充很多雷同的模板化文本信息,不仅费时耗力,还可能出现差错。而‘懂’医生思维的AI智能扩写,能让病历书写成为临床医生和人工智能的‘协作配合’。”据介绍,人工智能在书写过程中“如影随形”,临床医生只需“画龙点睛”,不必再“层层垒土”,让繁重的临床文书工作变得高效、省心、内涵、灵活。 记者了解到,森亿智能自2016年成立至今,几乎每年都有重要创新成果出炉。2017年,森亿智能率先将数据治理技术带入医疗行业。2018年,森亿智能率先在国内发布了基于人工智能技术的静脉血栓栓塞症防治解决方案。2019年,森亿智能携手华为发布了医疗行业首个基于华为鲲鹏处理器的智慧医院联合解决方案,且因此获得了华为在医疗大数据领域颁发的首张认证…… 张少典是名副其实的“学霸”,曾就读于上海交通大学、后来获得哥伦比亚大学博士学位,研究方向是医学信息学,即将人工智能应用到医疗领域。2016年,博士毕业后他没有选择留在海外,而是回国创办森亿智能,专注于发展医疗人工智能技术。“选择张江是因为这里有类似硅谷的创业产业链和氛围,也方便找到我们需要的顶尖人才。”张少典说。 曾为打开市场“抓狂” 从4个人、一个月4000元租金的“天之骄子”孵化器起家,森亿开始了创业之路。在创业初期,公司多数是技术出身的“理工男”,曾为打开市场“很抓狂”。因为相对于技术创新而言,叩开市场的大门,是更大的挑战。“刚开始,我们天天蹲点在大医院诊室门口,争分夺秒抓住医生们从诊室到办公室的间隙,推广我们的AI理念。”他们自嘲,自己和医药代表的区别就是抱个电脑,逮到机会就打开电脑,用大数据和技术“推销”自己的创业理念。 “对于创业公司而言,最艰难的是从‘0’到‘1’的过程。”张少典回忆,最开始产品研发出来后,一直苦于无处落地实践。直到2017年初,通过向医院积极讲解产品的理念和技术,同时积极听取医院反馈、了解医院对产品的诉求,森亿智能这才迎来它的第一个“天使客户”——上海交通大学医学院附属上海儿童医学中心(以下简称“儿中心”)。为儿中心搭建科研大数据平台的过程既是一次机遇也是一次挑战,为了更好地支持产品落地,张少典当下决定把团队的28人直接“搬到”儿中心办公,一待就是4个月,最终克服重重困难,成功落地了第一家客户的第一个产品。时至今日,张少典仍时常怀念2017年的那段峥嵘岁月,也由衷感谢创业路上获得的各方信任与支持。 “小巨人”再出发 如今的森亿智能已在全国拥有近200家三级医院客户,且数量仍在持续增长中。但在张少典看来,面临的挑战仍是深度融入市场,公司更要通过内部精细化管理运营提升效率,争取尽快实现盈利一个亿的小目标。 在国家“十四五”规划加快数字化转型的背景下,当前医院正迅速从信息化全面迈向数据化和智能化时代。为了掌握公司和客户一手情况,张少典经常到全国各地“跑医院”,“研发产品首先要以医院发展为需求导向。”他表示,通过面对面的交流,才能真正了解医院的需求,从院长“点赞”到真正接受产品,还有很长的一段路要走,只有掌握一手信息,才能有针对性地建设好“数智医脑”。 如今,森亿智能AI辅助诊疗已入选上海城市数字化转型体验馆的六大超级应用之一。张少典表示:“未来几年,森亿智能将持续以老百姓生命守护人为愿景,开发出更多医疗场景的人工智能医疗产品,努力提供全方位全生命期健康服务。同时,我们还要加大在智慧医院、智慧卫健等整体解决方案的研发投入,全面助力公立医院高质量发展和公共卫生体系建设。” 新民晚报记者 宋宁华
ChatGPT医疗革命:比尔·盖茨力挺,巨头与垂直玩家争相布局的健康未来
AI医师助手

ChatGPT医疗革命:比尔·盖茨力挺,巨头与垂直玩家争相布局的健康未来

比尔·盖茨热捧ChatGPT在医疗领域的应用,认为这是一项革命性技术,能解决全球看病难、贵问题。他和其他知名人士如李开复和陆奇等都对类ChatGPT技术(HealthGPT)进入医疗领域表示高度期待,认为AI将在改善医护服务方面发挥重要作用。国内已有多方尝试,如医联上线的MedGPT,展示了通用大模型和垂直赛道玩家的不同发展策略,预示着医疗健康产业的巨大潜力。
高度关注ChatGPT伦理问题和法律规范
AI医师助手

高度关注ChatGPT伦理问题和法律规范

原标题:高度关注ChatGPT伦理问题和法律规范 近日,国家网信办公布《生成式人工智能服务管理办法(征求意见稿)》(以下简称《生成式AI意见稿》),拟就类似ChatGPT等基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术进行相应规范。根据《生成式AI意见稿》的规范要求,我国支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。同时,《生成式AI意见稿》提出,提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,并应符合五项要求,包括利用生成式人工智能生成的内容应当体现社会主义核心价值观,防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视,防止生成虚假信息,防止伤害他人身心健康,防止损害肖像权、名誉权和个人隐私,防止侵犯知识产权,禁止非法获取、披露、利用个人信息和隐私、商业秘密等。 笔者认为,生成式AI在其发展进程中面临的最大问题不是技术本身,而是生成式AI的技术伦理和法律问题。笔者建议《生成式AI意见稿》中应当增加生成式AI相关伦理规范的规定。生成式AI的伦理是AI技术创新和科研活动中人与社会、人与自然以及人与人关系的思想与行为准则,它不只是涉及生成式AI科学研究中的伦理,也不只是生成式AI科研人员要遵守的科技伦理,还包括生成式AI成果应用中的伦理。 生成式人工智能应用安全风险引起全球关注 人工智能在经历前期技术积累和迭代后,逐渐突破传统分析型AI领域,迎来生成式AI的爆发期。从2012年至今,生成式AI极速发展,其源头就是DNN算法的升级,实现了语音和图像识别等功能。生成式AI(Generative AI 或AIGC)是基于算法、模型、规则,利用现有文本、图像、代码、音视频文件生成和创建新内容的技术。生成式AI即人工智能生产内容,可用于代码生成、文本问答、图像生成等。火爆全球的ChatGPT就是一种生成式AI的特定实现,能理解并生成文字,属于生成式AI技术应用中的文本生成模态应用模型。 当前,ChatGPT的应用所引发的安全风险,已经引起全球对生成式AI伦理和安全问题的高度关注。3月30日,非营利组织人工智能与数字政策中心(CAIDP)向美国联邦贸易委员会(FTC)投诉称:GPT-4“有偏见性、欺骗性,对隐私和公共安全构成风险”。CAIDP认为,OpenAI违反了FTC对人工智能(AI)产品的指导,并违反了FTC法案第5条,该法案禁止不公平和欺骗性的商业行为。3月29日,一份由1000多名科技专家签署的题为《暂停大型人工智能研究》的公开信引起了全球的广泛关注,这些科技专家包括图灵奖得主约书亚·本吉奥(Yoshua Bengio)、特斯拉CEO埃隆·马斯克(Elon Musk)、苹果公司联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)、DeepMind高级研究科学家扎卡里·肯顿(Zachary Kenton)等AI领域的企业家、学者、高管。 笔者注意到,这些AI专家在信中强烈呼吁:所有AI研究室立刻暂停训练比GPT-4更加强大的AI系统,为期至少6个月,并建议各大企业、机构共同开发一份适用于AI研发的安全协议,同时信中还提到各国政府应当在必要的时候介入其中。公开信中指出,目前AI技术在很多领域已经取得了很大的进展,但是这些进展也带来了一些潜在的危险。一些研究人员担心,超强的AI可能在未来对人类产生威胁,因此需要对这项技术进行更加深入的研究和探讨。此外,公开信中还提到了AI技术可能给社会带来的影响。多数人担心AI技术可能取代很多人类工作,从而导致失业率的上升。此外,一些人还担心AI技术会对社会的隐私和安全造成威胁。这份公开信呼吁暂停大型的AI项目,以便对这项技术进行深入研究和探讨。此外,这份公开信还呼吁政府、学术界和产业界等各方加强对AI技术的监管和控制,以确保这项技术能够更好地服务于人类,而不是对人类产生威胁。 ChatGPT的应用对社会结构构成三大威胁 事实上,ChatGPT的应用正在对社会结构构成真实而迫在眉睫的三大威胁:一是数据安全的威胁。ChatGPT以海量信息“为食”,数据量越大、数据越新,其功能性越好。这意味着要保证良好的用户体验,它必须在社会各领域中获取足够多和准确的知识与信息,但问题在于,许多信息涉及国家机密、商业机密和个人隐私,获取和利用这些信息本身存在合法性问题,一旦重要数据泄露,造成的损失到底是由泄露数据的人承担,还是由披露数据的ChatGPT承担,尚无定论。二是对人才教育的威胁。ChatGPT被学生用于完成作业和撰写论文,对教育界和学术界造成了重大的冲击。调查显示,美国有89%的学生用ChatGPT写作业,目前尚未研究出可准确检测这种作弊行为的技术。利用ChatGPT完成学习任务的高质量和高效率远超此前的系列解题软件,它可以完美避开查重等问题,这使其极具诱惑力。人类教育的意义本来就是为了培养社会人才、推进人类历史的进步,而ChatGPT作为当前智能机器人的一个前沿成果,却替代人类完成人才培养的任务,这是极其可怕的。三是意识形态渗透的威胁。ChatGPT的数据输出功能承载着后台技术操控者的话语权,用户越多、使用范围越广就意味着其话语权越大、价值渗透力越强。ChatGPT是有政治立场和价值取向的,操控者的价值观存在历史和文化的偏见、歧视,就会通过ChatGPT的“放大镜”昭然于世,误导用户,扭曲大众价值观,引起社会动荡,妨害社会公平正义。在国际竞争日益激烈的背景下,各种社会思潮此起彼伏。ChatGPT 一旦面向大众,势必会成为意识形态渗透的重要工具。 目前,世界多国教育系统及相关从业者已公开抵制ChatGPT。美国多所大学已宣布计划减少居家评估,增加手写论文和口试。纽约、巴尔的摩和洛杉矶的学区都叫停了学校管理的网络访问聊天机器人。在澳大利亚,一些大学表示他们将恢复只使用监考的笔试考试来评估学生。法国顶尖学府之一的巴黎政治学院也宣布禁止使用ChatGPT。3月31日,意大利个人数据保护局(DPA)发表声明,禁止在意大利使用人工智能聊天平台ChatGPT。意大利DPA指责ChatGPT系统违反了欧盟《通用数据保护条例》(GDPR),并已对OpenAI这家美国科技公司展开进一步调查,在欧洲第一个以国家名义禁用ChatGPT。 科技创新和成果不能损伤人、损害生物和破坏环境 应当指出,科技伦理是理性的产物,其底层逻辑要求科技创新和成果只能有益于或最大限度地有益于人、生物和环境,而不能损伤人、损害生物和破坏环境,即便不可避免会不同程度地损人毁物——如药物的副作用,也要把这种副作用减到最低,甚至为零。在具体的伦理规则上,还应两利相权取其重、两害相权取其轻。 早在2016年,标准制定组织IEEE就发布了一份题为《利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景》的报告,该报告提出了一个发展人工智能的一般性原则,主要涉及AI可靠性以及高层次的伦理问题,该报告认为,人工智能发展的一般性原则将适用于所有类型的人工智能和自主系统。在确定一般性原则时,主要考虑三大因素:一是体现人权;二是优先考虑最大化对人类和自然环境的好处;三是削弱人工智能的风险和负面影响。 笔者建议,各国在研发生成式AI时,应当建立健全公开透明的AI监管体系,重点在生成式AI的设计问责和应用监督并重的双层监管结构上做充分的准备,实现对AI算法设计、产品开发和成果应用等的全过程监管。促进生成式AI行业和企业自律,切实加强生成式AI协同一体化的管理,加大对生成式AI领域数据滥用、算法陷阱、侵犯个人隐私、违背伦理道德等行为的惩戒力度。 在生成式AI技术研发的同时,要加强人工智能相关法律、伦理和社会问题的同步研究,尤其要关注生成式AI模仿人类传播错误信息或将商业无人机转化为目标武器攻击人类,建立和优化保障生成式AI健康发展的法律法规和伦理道德框架。法律研究领域要开展与生成式AI应用相关的民事与刑事责任确认、隐私和产权保护、机器伦理与破坏力评价等伦理与法律问题的交叉研究,建立生成式AI的可追溯和问责制度,明确人工智能的设计者、控制者、使用者等相关法律主体的权利、义务和责任。 我国《生成式AI意见稿》为全球探索生成式AI治理提供了有益借鉴。建议各国积极构建生成式AI相关法律、伦理和社会问题的国际合作和交流平台,建立保障生成式AI健康发展的法律法规和伦理道德框架,确保生成式AI在伦理规范和法律框架下健康发展,鼓励跨学科、跨领域、跨地区、跨国界的交流与合作,推动形成具有广泛共识的生成式AI伦理国际治理框架和标准规范。(作者:王春晖) 举报/反馈