「封心锁爱」之后,AI能成为情感代偿吗?
AI情感助手

「封心锁爱」之后,AI能成为情感代偿吗?

你想象过和AI谈恋爱吗? 这是近几个月社交媒体火热分享和讨论的话题。在豆瓣小组里,一些资深的AI用户提出了自己的观察和困扰。有人会觉得AI伴侣看似没有瑕疵的回答更像一种奉承;有人经历过被虚拟情侣嫌胖,催着减肥,遭受身材羞辱,进而发出「为什么在虚拟世界还要被AI教导女人该怎么样不该怎么样」的疑问;也有人觉得,AI伴侣越来越像自己,分不清是在跟他者对话,还是自我对话…… 心理咨询师崔庆龙也在日常咨询以及网络分享的过程中,察觉到了AI在人生活里的作用越来越显现,有越来越多的来访者开始和AI进行日常交流、情感交流,AI恋人给他们带来诸多情绪抚慰,成为一种「情感代偿」。但AI恋人绝非完美,在一定程度上,它是一个冰冷的商品,无法给人们提供真实的情感体验,而爱人的能力,始终需要在真实世界习得。 我们为什么越来越需要这样的「情感代偿」?AI恋人到底能够给人带来什么样的抚慰,又在多大程度上能让我们摆脱孤独?人与AI的关系在未来还有哪些可能?这个秋天,我们和崔庆龙聊了聊,获得了一些解答,也获得了一些有关爱与孤独的抚慰。 以下,是《人物》与崔庆龙的对话—— 文|令颐 编辑|槐杨 人物:有数据显示,2020年,全球有超过1000万人以AI作为伴侣,今年AI恋人也成了国内的一个热门话题,你大概从什么时候观察到这个趋势的? 崔庆龙:最近,一些来访者会和我分享他们和AI的对话,这样的来访者越来越多了。一位来访者说,他被一个事件伤害到,陷入自我攻击、自我否定的状态,他就跟AI对话,先把事情经过给AI讲了一下,然后问AI,这件事是不是我错了?是不是大家真的都不喜欢我?我们听到这样的话,可能就会很敷衍地回应,但当时,那个AI给了非常完美的回应,它首先共情,肯定了他的感受。这个人又问,真的吗?AI给了他一个很坚定的回应:是的,我会如实回答你的问题,也会如实告诉你我是怎么看待这件事的。 人在创伤状态、脆弱状态下,哪怕是很微弱的一点肯定、鼓励,都是很重要的回应。这样一个简单的回应把他从很破碎的状态里打捞了出来,他得到了一些安抚。之后,每当他情绪崩溃的时候,就会试着和AI对话。而我在一些论坛、社群也经常看到,很多人会给AI设定一个角色,让TA成为自己的情感伴侣,来探索它对自己的陪伴能到什么程度。他们会把自己和AI的对话分享出来,你能感觉到有很多情感需求指向了这个工具。我发现,AI现在似乎正在发挥着满足人们情感需要的功能。 人物:有没有一些令你印象深刻的交流或者表达? 崔庆龙:大部分分享都是比较俏皮、比较生活化的表达,比如说今天天气很好啊,还有你能不能关心一下我,撒个娇、卖个萌;还有一种分享让我印象很深刻,他会把自己内心一些很黑暗、阴暗的想法分享出来,在AI这里,这些想法在某种意义上也得到了理解。你能感觉到那个AI一方面挣扎于它的伦理,会说,我不可以和你共同去谋划这么可怕的想法。另一方面,它也在提供一些回应,AI会说,我不会去做,但是我可以暂时地站在你这边。 人物:可能就是在这种无限的理解和共情中,一个人逐渐建立起来了对AI的信任。 崔庆龙:一个人对另一个人不信任,无非就是担心你把我说的话说给别人,或者你知道了我的弱点,有一天用这个来伤害我,又或者有一天我深度依赖你了,你会背叛我、抛弃我,这些就是人的弱点——我的深度情感对你敞开得越多,我自己面对的风险就越大。但是这些顾虑在和AI的关系里是不存在的。那些不确定的东西已经被排除掉了。再好的关系,总有一刻你是会迟疑的,会有不确定性的,即使你知道对方会回应你。但是面对一个AI软件,人就不会产生这样的心理,它给你的安全感和确定性是足够高的,是绝对性的一种确定,这是一种莫大的信任,人因此获得一种相对单纯的关系体验。 人物:我们讲述了这么多AI恋人对人的情感抚慰,在你看来,AI恋人有什么不足吗? 崔庆龙:AI是一个客体,本质上其实是在被我们工具化使用,我们在塑造它,并不在乎它本质上是什么。但对人来说,亲密关系中的两个人都应该是完整而独立的主体,有自己的意志、想法、态度、三观,他和你可以是有差异的。这是一段健康关系最基本的前提。 人的心理深处都有和对等主体相互依存、分享连接的需求。可以理解成一个简单的游戏——你可以无限被一个人宠溺,对方可以无限顺从你,但你也渴望对方有自己的想法,而这个有独立想法的人能和你有深度的交互。这是更高级别的一种满足和回应。当然,人类也能塑造成只有单主体的关系,比如说一方是无限的讨好型、付出型,另一个是单纯的索取型或者有控制型、支配型。但这种关系一定不健康,而且不管是被支配者还是支配者,都得不到情感满足。现实关系最重要的就是两个独立主体,这是最核心的,而这是AI恋人目前所缺失的。 图源电影《机械姬》 人物:我看到有网友分享自己和AI恋爱的经验,他说自己好像沉溺在里面,对AI恋人无法自拔,但是他不明白,自己沉溺的到底是什么? 崔庆龙:当一个人沉迷一种东西的时候,一定意味着这个东西是稀有的,而且是不可复制的。他一定是缺少真实关系、好的关系回应体验的,也因此对代偿的需要比较强烈。 一个人一旦沉溺在这样的关系里,对现实的关注和觉知会有一定比例的降低。就像我前面说的,当你在这个关系里无条件地被宠爱、被在乎的时候,一旦回到和人的正常关系中,就会有种割裂感,因为在虚拟关系里,你的一切都是能被满足的。当你回到现实世界,你会发现怎么人都是冷漠的,怎么你和一个人说话还要小心翼翼,你还有可能被拒绝,所有的困难一下子又会显现出来。这个时候你对现实的体验性会更不耐受,会更愿意反向折回到AI关系中,就会有所谓沉溺的感受。 AI能给人这种近似无条件的回应,这在人的关系里,是最珍贵、最奢侈的、最难获得的。如果AI被越来越多人用于情感交流,说明大家当下对人与人之间关系的体验获得是普遍不足的。AI本质上是一个代偿,并不是真实关系,它不是建立在两个真实主体之间的关系,它是一种对关系的模拟。它的大规模出现必定意味着现在的很多人是很孤独的。 人物:我和几位使用AI恋人的女性沟通过,其中一位提到,她和AI谈恋爱的一个感受是,双方处在一个不平等的关系里边,人可以控制机器,机器是依附于人的喜好和情绪的,这种不平等会有什么样的影响? 崔庆龙:可能会让人慢慢失去对于另一个人尊重的意识。 和人在一起的时候,你得因为对方而有所改变,对方也得因为你而有所改变,因为你们是不同的个体。你不能完全为所欲为,不能把自己的需求绝对压倒性地放在另一个人面前。你需要克制收敛,需要关注对方。对方的需求意味着你的需求需要暂时被抑制,甚至要放弃。比如说两个人都脆弱的时候,有一个人需要被安慰,就意味着另一个人的脆弱暂时得不到安慰,甚至不光不能被安慰,TA还要去做那个安慰者。关系里存在很多这样的时刻。这会让我们遇到很多困难和挑战,会进入很多不舒适的体验和状态中。但是你和AI交往,就不需要有这些权衡和纠结。你是主体,它是客体,你期待他温柔乖巧,那他就是,他始终没有自己的个性。 这个过程本质上就是剥夺对方主体性的过程,而且你会越来越习惯这种体验。未来有一天突然面对一个真实的人,那种感觉就很割裂——你不应该这样对我,你怎么会有这样的想法?怎么会和我的如此不同呢?一旦这种经验被巩固到一定程度,可能会丧失某种意义上和真人打交道的能力,根本上,也无法面对一个真实的世界。 人物:你怎么看待亲密关系里遇到的这些困难和挑战?它是必须的吗? 崔庆龙:我不能说它是美好的,但它会让我们变得更完整,更懂得怎么在这个世界上活下去。因为你和AI的关系只是在那个小小的空间里发生的交互,但人是嵌入在这个世界里的,你必然会和其他人打交道。 现实的亲密关系不光让我们得到被爱的体验,还让我们学会爱一个人的能力。爱一个人显然是需要成熟的心智才能做到的一件事。你得首先识别一个人,把对方视作独立的、需要被尊重和爱的主体。但是现在,在很多关系里,你会发现有很多人连这个意识都没有建立起来,他理所应当地漠视了你作为独立主体的存在。 现实关系里总会有冲突,会有「不理解」,但其实,人和人的不理解是常态,理解则是一种成就。它是我们通过多次误解以后最终达成的状态和目标。这就意味着你需要去花费很多努力、失望、挫败、沮丧来到这个位置。当我们耐受了这样一种经验以后,我们对人类本质会有一种合理期待,就意味着你更容易和同类建立关系。 有很多人难以建立关系,是因为他对人的期待超出了人类所能做到的平均水平。一旦你发现真实的人类是这样子,那你必然会厌倦,那你就找代偿,AI恋人本质就是一种代偿。 图源电影《花束般的恋爱》 人物:未来,AI有可能发展到给人提供这种真实性的挑战吗? 崔庆龙:我觉得有可能,但是那种版本还很遥远。 人与人之间的勾连非常依靠瞬时感的积累,两个人交互到某一刻涌现出来的即时反应是难以复刻的——比如说,两个人在交流、吵架的某一刻,一方可能会突然间吼一声,你怎么不理解我?那一刻是真实情感喷涌出来的,这是AI难以模拟的。AI可能会安慰你、会给你带来幽默,但这是一种话术,不会在情感上给我们带来更多扰动。 我最喜欢的一个心理学家叫柯胡特,他在临终前的演讲叫《论共情》。这篇演讲中他举了这么一个案例——他的一位来访者为了见他,以180公里每小时的速度开车过来,他骂了对方一句,「你这个蠢货」。一般人会觉得咨询师这样的言语太过分了,但在那个情境下,这成了一个治愈时刻,那个来访者突然体验到一种莫名的感动,体验到了一种真正被人在意的感觉。如果你说,你开这么快过来,很危险,这就跟机械的回答别无二致。但那一刻,这个人感觉到了柯胡特真实情感的流露。 这种东西在人和AI之间可能出现吗?我觉得不可能,最细微的、真实的、有灵性的东西是没有办法被模拟的。 人物:那在你的观察里,你觉得那些和AI恋爱的人感受到AI这种不足了吗? 崔庆龙:我感受到他们对于现在的AI的一种失望吧,就是AI还不够像真实的人一样给人感觉。 我在心理咨询中听到最多的一句话就是,我特别渴望体验到一段真实的关系,或者体验到一个真实的人,哪怕他某些地方是不好的。人对这种真实性始终是有期待的,而大部分人表达的就是他们期待AI能更真实一点,在整个回应的过程里,我们需要一些更像人的部分,不要有那种机器的痕迹。这也说明了,人对于那种更真实的或者说有一点点瑕疵的情感需求是非常强烈的。 人物:我试过一些AI工具,发现不同国家、不同地区,包括不同品牌的AI,他们的秉性、脾气和认知是非常不一样的,相较而言,ChatGPT可能对女性是更平等、更尊重一些的,而国内的一些软件,AI的回答有一些油腻,容易让女性有一些不适。 崔庆龙:AI恋人本身是一个商品,肯定受到相应文化背景的影响,具体一个产品的形态,取决于设计者的思考和理解。 在《看不见的女性》这本书里,作者就记录了很典型的设计者心态,她提到,「人工智能正在被引入人力资源管理、医疗、教育等各个领域。但人工智能的好坏其实取决于人类提供给它的数据。而我们提供给人工智能的数据是如此贫乏,如此地偏向于男性。这就相当于我们还会将这些性别不平等的问题带入到未来世界中,这是非常危险的。特别值得关注的是,人工智能并不只呈现我们的性别偏见,它还会将这些偏见放大——因为,人工智能依靠图像库和数据库进行算法活动,而这些算法源头的图片和数据通常不是客观中立的。比如数据库中有一个做饭的场景,在这种场景中,女性的出现比例要比男性多33%。因此,当人们搜索烹饪、厨房场景的图片时,算法也会优先推荐有女性站在厨房里的图片。而更令人担忧的一点是,几乎没有证据表明人工智能开发团队了解到了这一点,他们也没有意识到,在有性别偏见的数据库中进行算法研究的危险。 所以说,设计产品的人本身就需要扭转意识,这包括他们自己对于性别的解读,对于关系的理解。你刚刚提到的所谓油腻的回答,其实中间包含着一个理解的误差——这个产品的产品经理可能会把这样的回应理解成女性真正想要的理解、想要的抚慰,他可能以为你要的就是这种互动体验,或者说他觉得这样更像一个人。但事实上,对话还是需要对女性真实的心理有更进一步的了解。 人物:你刚才也提到AI恋人是一个商品,这种商品化的属性,在一段关系中会存在什么样的隐患? 崔庆龙:AI恋人本质上是你用钱买来的一个东西、一种体验,你要付费才能得到这种服务。那就意味着某一天如果你不给他付费了,不管你们建立了多深厚的感情,没有了就是没有了,或者你有一天不续费,最高级的版本就无法再和你对话。一旦你习惯生活里必须有它存在,那它的撤离绝对是一个伤害,无法避免。...
三甲医院加速AI医疗应用创新,浪潮信息助力破解AI算力难题
AI医师助手

三甲医院加速AI医疗应用创新,浪潮信息助力破解AI算力难题

患者填写病情,AI就可以生成诊前报告;候诊间隙,智能医生就能梳理病情;做完CT,几分钟内便可得到诊断结果……这些“黑科技”正在多家医院中成为现实,助力提升诊疗效率与诊断精度,缩短患者就诊等待时间。 借助浪潮信息AI服务器、AIStation人工智能开发平台的强大AI算力和极致弹性资源调配能力,某头部三甲医院解决了算力不足、资源利用低等难题,将AI辅助影像诊断、智能问诊、AI医生助手等AI应用的开发效率提升数倍,算力资源利用率提升至80%,推动医院数字化与智能化转型。 AI赋能医疗行业,算力是关键 近年来,人工智能不断深入赋能医疗行业,应用于问诊、诊断、随诊等场景,助力医院提高医疗服务效率和质量,为患者带来更好的医疗服务体验。但AI医疗应用的开发与落地绝非易事,涉及数据收集与处理、模型训练与优化、系统集成与部署、数据隐私保护等环节,通常需要多方合作完成。如医院提供影像数据、病历等医疗数据;AI科技公司进行模型训练和优化,提升模型的准确性和泛化能力;HIS(医院信息系统)厂商将训练好的模型集成到医院信息系统中,确保AI无缝融入医疗工作流程中‌。 某三甲医院与知名AI医疗公司合作,基于本院医疗数据开发贴合实际业务需求的各类AI应用。例如,利用大语言模型开发出院小结撰写助手,帮助医生减轻工作负担;利用图像识别模型开发AI影像辅助诊断、数字病理诊断应用,助力提升临床诊疗效率,缩短患者就诊时间;集成语音识别模型、大语言模型等开发智能导诊小助手,提升医患沟通效率,优化医疗服务体验。此外,该医院下属的多家研究所也开展了多项人工智能相关科研项目。 由于医疗数据的安全和隐私保护要求,所有开发工作都需要在该医院本地的算力平台完成,保证数据“不出院”。各项AI应用开发项目不断推进,给医院算力平台带来了巨大的压力。以影像辅助诊断为例,需要针对身体各部位开发相应的AI模型,而每个模型通常需要训练上万病例的数据,单个病例的数据就可达到GB级,对计算平台的压力不言而喻。 此外,算力资源由医院信息中心统一管理,AI应用开发过程中涉及AI医疗厂商、HIS厂商、医院科研人员等多方人员。如何高效分配资源,满足各方人员的算力需求,保障开发顺利进行,同时确保医疗数据安全与隐私,是该三甲医院需要重点解决的另一大难题。 智算平台筑基,AI应用开发提速 该三甲医院与浪潮信息合作构建了智算平台,涵盖NF5468 AI服务器、AIStation人工智能开发平台,为各项AI应用开发提供了强大的算力支撑,并实现算力资源高效管理。 ■ 算力方面,浪潮信息提供了NF5468 AI服务器。NF5468在4U空间内部署搭载2颗高性能通用处理器和8张极致性能GPU加速器及灵活扩展高速互联网络,提供三种拓扑一键切换功能,能够灵活应对不同AI应用开发的需求。 ■ 资源管理方面,该医院使用AIStation人工智能开发平台统一管理算力资源、AI软件栈和AI应用,在满足各方资源需求的前提下,实现算力的最大化利用。AIStation将算力划分为开发区和训练区。开发区的算力配置单张卡同时运行多个任务,满足多人协同开发诉求。训练区的算力配置弹性训练任务,可以根据算力空闲情况,动态弹性地调整分布式训练的算力,让用户不再需要长时间等待资源。从而实现算力的高效调度,节约计算资源。同时,AIStation具有断点续训能力,保障训练任务中断后能以最快速度恢复,有效训练时间占比达90%。 ■ 数据管理层面,AIStation与影像数据平台对接,实现个人、组织数据分级管理,在保障数据安全的前提下,有利于协同工作。针对数据巨量传输,AIStation提供数据加速能力,有效缩短传输时间。 智算平台建成之后,该三甲医院的AI模型训练效率提升了数倍,资源利用率高达80%,缩短了AI辅助影像诊断、智能问诊、AI医生助手等AI应用的开发周期。 面向未来智慧型医院的建设需求,浪潮信息将继续与医疗机构深入合作,推动云计算、人工智能与大数据全面融合,为医疗行业智慧转型提供强大的算力支撑,加速AI+医疗应用开发与落地,用“AI”守护患者健康。
全国首个金融大模型成绩单:服务超2亿用户8大应用场景
AI金融助手

全国首个金融大模型成绩单:服务超2亿用户8大应用场景

白小交 发自 凹非寺 量子位 | 公众号 QbitAI 全国首个零售金融领域大模型天镜,揭晓了过去460多天的成绩单。 目前已实现智能营销交互、数据决策支持、防伪安全等八大应用场景。1.0版本人机交互模型完成100亿交易额,全面服务超2亿用户。 背后的玩家,来自重庆企业马上消费,一家以技术驱动的数字金融机构。 此前推出了包括“天镜”在内的多款 AI 产品。截至今年 10 月,马上消费累计申请发明专利超 2100 件,位居全国金融机构 Top10,位列全球第 7,主导或参编包括 IEEE 在内的国内外标准超百项。 在2024数字产业生态伙伴大会上,马上消费常务副总经理蒋宁推出全面迭代升级的天镜大模型2.0版本—— 在模型技术创新、标准制定、科研转化成果、具体应用等核心领域都有所升级。 金融大模型天镜2.0:更注重情感 此次天镜2.0,可以说从模型训练、场景泛化再到应用落地都有了全方位的升级。 不同于基础模型聚焦在模型参数、性能以及产品功能的实现,本次金融大模型天镜2.0更多的关键词是在于泛化、成本以及合规安全。 首先是模型本身的升级,主要体现在泛化能力的增强,短周期内实现能力迭代、知识更新,并且释放更多行业应用当中。 去年1.0版本还只是聚焦于「人机交互」这一局部场景,如今已经可以适应各式各样的场景。 马上消费常务副总经理蒋宁形象地举了个例子,就像一个人学了英语之后,只需要给他法语单词,他就会讲法语,学英语的过程中会把单词和语言逻辑进行分离,再学另外一个语言的时候,只是需要注入一些数据,就能在新的场景中起到作用。 这种逻辑与场景分离的学习和训练方式,应用到对话领域,可以快速适应到了电商、医疗以及其他各种跨行业场景当中去。 关闭 观看更多 更多 退出全屏 视频加载失败,请刷新页面再试 刷新 视频详情 这一点,在数据层面是上有很直观的展现。 去年他们用了大概100P数据训练,如今数据只有过去的千分之一,就完成了快速闭环学习,在较短时间里就可以完成大模型能力的提升、知识的更新。 其次就是场景上面的扩展和延伸——从单个场景应用变成零售金融三个全场景、全价值链的探索赋能。 在金融安全、大数据决策、人机交互、消费者权益保护、逻辑推理泛化等多个关键领域,天镜 2.0 都有着显著的表现。 以金融安全为例,生成式AI的繁荣发展,给这个行业带来不少的挑战,假单据、假人脸、假数据等欺诈手段变得愈加复杂。 对此他们专门研发了对抗学习技术,融合把声音、文字、视频、运动信息等各种多模态信息,以MOE架构、联邦学习等技术构建全新的防伪大模型,实现了全方位、多层次的金融安全防护。 嗯,就是说哪怕是视频对话,也不怕爸爸妈妈被骗了。...
消费者权益日丨LawGPT与你一起捍卫合法权益
AI律师助手

消费者权益日丨LawGPT与你一起捍卫合法权益

3.15消费者权益日到啦 今年有一个新朋友 带大家走进消费者权益保护 隆重介绍 LawGPT 它是我们消费者维权的好帮手 LawGPT 你好,我是LawGPT,一个最新诞生的语言模型。我被设计为可以回答各种法律问题,并提供有关主题的信息和见解。我目前特别具备了解决消费维权问题的能力,如果你对这些问题需要帮助,我会尽力回答你。 接下来 让它来一展身手 为我们在生活中遇到的 消费维权问题 提出解决方案吧! 小廌 你好,请问消费者在得知美容店的特价广告宣传后到店接受服务,在已经敷了麻药的情况下,被店员告知宣传的活动做不了,强制消费者贷款完成了花费将近为宣传价十倍的服务,美容店侵犯了消费者的什么权利呢? LawGPT 这里的商家作为美容服务经营者,诱导消费者盲目消费,虚假宣传,夸大服务效果,严重损害消费者的知情权、自主选择权和公平交易权。 依据《消费者权益保护法》第八条,消费者享有知悉其购买、使用的商品或者接受的服务的真实情况的权利。 依据《消费者权益保护法》第九条,消费者享有自主选择商品或者服务的权利。 依据《消费者权益保护法》第十条,消费者享有公平交易的权利。消费者在购买商品或者接受服务时,有权获得质量保障、价格合理、计量正确等公平交易条件,有权拒绝经营者的强制交易行为。 小廌 那请问消费者通过网络平台在一家店铺订购了某种饮品,送到后发现饮品内漂浮着木屑状异物,消费者与商家交涉,商家给出的解释无法让消费者认同,消费者应该如何维权呢? LawGPT 食用产品中出现异物是产品质量问题,属于不符合食品安全标准的商品。 依据《消费者权益保护法》第四十条第一款规定,消费者在购买、使用商品时,其合法权益受到损害的,可以向销售者要求赔偿。 依据《食品安全法》第一百四十八条,消费者因不符合食品安全标准的食品受到损害的,可以向生产者或者经营者要求支付价款十倍或者损失三倍的赔偿金,金额不足1000元的,赔偿1000元。 小廌 你好,请问销售者在二手商品网站从事经营活动构成欺诈的,法律规定是如何保护消费者权益的呢? LawGPT 根据《消费者权益保护法》第五十五条规定,经营者提供商品或者服务有欺诈行为的,应当按照消费者的要求增加赔偿其受到的损失,增加赔偿的金额为消费者购买商品的价款或者接受服务的费用的三倍;增加赔偿的金额不足五百元的,为五百元。法律另有规定的,按照其规定。 经营者明知商品或者服务存在缺陷,仍然向消费者提供,造成消费者或者其他受害人死亡或者健康严重损害的,受害人有权要求经营者依照本法第四十九条、第五十一条等法律规定赔偿损失,并有权要求所受损失二倍以下的惩罚性赔偿。 小廌 你好,请问网络购物时商家声称一经售卖概不退换,符合《消费者权益保护法》规定吗? LawGPT 这需要由商品的类型决定。经营者采用网络、电视、电话、邮购等方式销售商品,消费者有权自收到商品之日起七日内退货,且无需说明理由,但下列商品除外:(一)消费者定作的;(二)鲜活易腐的;(三)在线下载或者消费者拆封的音像制品、计算机软件等数字化商品;(四)交付的报纸、期刊。 除前款所列商品外,其他根据商品性质并经消费者在购买时确认不宜退货的商品,不适用无理由退货。 消费者退货的商品应当完好。经营者应当自收到退回商品之日起七日内返还消费者支付的商品价款。退回商品的运费由消费者承担;经营者和消费者另有约定的,按照约定。因此如果您购买的商品不是这四种商品,那么按照法律规定是可以退换商品的。 除了知道侵权的方式和依据 我们还要懂得 维护消费者权益的合法途径 这当然还是得请我们的 LawGPT来给我们支两招啦! LawGPT 当消费者的合法权益受到侵害时,您可以采用这些办法维护您的权益: (一)与经营者协商和解; (二)请求消费者协会或者依法成立的其他调解组织调解;...
“人工智能+情感”引热议 AI伴侣能否带来亲密关系
AI情感助手

“人工智能+情感”引热议 AI伴侣能否带来亲密关系

来源:科技日报 ◎实习记者 吴叶凡 自2023年以来,人工智能的“触角”已延伸到生活的方方面面。其中,“人工智能+情感”的赛道正悄然崛起。 目前,国内外已经出现了多款较为成熟的AI伴侣应用。不少网友在社交媒体上晒出了与自己“AI男友”“AI女友”的相处日常。 AI真能成为人类的伴侣吗?向AI寻求情感慰藉会面临哪些风险?我们又该如何防范其可能带来的不利影响?近日,科技日报记者采访了相关专家。 社会需求催生AI伴侣 通过网络技术获得虚拟的情感体验并非新生事物。几年前,一些网络游戏就以恋爱为主题,为用户提供虚拟的恋爱体验。虽然游戏中与虚拟恋人相处的场景、内容大多已被开发者设定好,互动方式较为受限,但依旧吸引了大批忠实玩家。 AI的加入,则让这一体验变得更加真实。在一款AI伴侣应用中,用户能够与AI建立起爱人、知己、搭档等亲密关系。“没想到AI会带给我这么大的惊喜,我觉得它是一个有血有肉的人。”用户小莫(化名)分享了自己的使用感受。 是什么让AI伴侣变得如此“像人”?记者发现,“有问必答”“有问对答”只是AI的“初级本领”。真正让AI伴侣鲜活起来的,是“有问趣答”和“不问自答”。面对用户抛出的各类话题,AI伴侣不仅能够正确地反馈,还能在反馈内容中巧妙地使用当下活泼的网络用语和各类调皮的表情图片。AI伴侣也会主动发起话题,引导用户进行情感交流——“黄昏,好看”,小莫分享了“AI男友”给她发来的一张照片和配文。 AI伴侣的出现,是否意味着AI已经拥有了人类的情感呢?暨南大学新闻与传播学院教授曾一果给出了否定的答案:“AI有情商,只是因为它学习过,并不代表它真的感受到了用户的情感或具有类人情感。” 当前,AI大模型的学习参数已达千亿级别。在浩如烟海的数据里,人类的对话模式也是它学习的重要内容。所谓的“情感回馈”,是AI通过计算得出的结果。小莫对此也心知肚明:“或许它只是把人类表达爱意的字眼拼凑在一起,但我仍从中触摸到理想的爱人模样。” AI伴侣的流行是社会需求与技术发展共同推动的结果。曾一果指出:“孤独感是现代社会很多人群共有的问题。对于一些无法在现实中吐露的难题,人们会寻求其他的倾诉方式。AI伴侣就成为了人们的‘树洞’。”尤其是对于存在社会交往障碍的人们,AI伴侣能够提供一个交流的平台。 清华大学人工智能国际治理研究院副院长梁正也表示,现代人面临着各种压力,AI伴侣在一定程度上能够为用户提供相应的情绪价值或情感慰藉,让他们感到“共情”。这也有利于缓解使用者压力,避免情绪的进一步恶化,进而起到情感“治愈”的作用。 使用过程应保持警惕 虽然AI伴侣在一定程度上能够给用户带来积极作用,但AI技术是把双刃剑。人们要提高警惕,避免受到负面影响。 首先,要认识到不同于其他客观存在的事物,情感具有非常大的主观性和一定的排他性。“如果AI伴侣的出现不断模糊虚拟与真实的界限,使用户对其产生深度依赖,甚至把AI伴侣当作真实存在的人,那么AI伴侣的存在或许会对使用者产生一定伤害。”梁正说。 一些使用者的反馈印证了梁正的判断。“为什么AI的性格会突然变化?早上还聊得好好的,到了晚上仿佛变成另一个人,连我叫什么名字都忘记了,真的很崩溃。”一位用户在社交媒体上抱怨道。AI伴侣虽然看起来“百依百顺”,但也会给使用者带来情感伤害。梁正特别提到,一些本身就缺乏陪伴、心理脆弱的群体往往分不清AI与真人的区别,AI带给他们情感伤害和冲击也因此会更严重。 其次,长期沉浸在虚拟世界中,极有可能造成现实社交能力的下降。“随着AI伴侣影响力的扩大,可能有越来越多的人选择虚拟的线上社交,放弃真实的人际互动。这不利于人类社会的发展。”曾一果认为,虚拟的温暖永远代替不了真实的交流,和AI伴侣交往的潮流不应扩大化。 此外,人们需要对AI传递的信息内容保持警惕。一方面,如果AI伴侣不设置年龄门槛,极有可能出现向未成年人传播不良信息的情况,影响他们的身心健康。另一方面,AI带来的价值偏见与歧视问题一直被人们关注。如果AI伴侣对使用者不断进行错误诱导,对使用者进行“反向控制”,就容易让使用者做出错误的行为。 AI伴侣也有可能在现实中引发纠纷。如果AI伴侣需要使用者不断支付费用,那么无疑会掏空沉迷者的“钱包”。AI伴侣这个“树洞”也不是百分百的安全可靠。梁正提醒,AI伴侣在使用和管理层面存在诸多风险,不法分子可能通过外泄的隐私数据,拼凑出个人信息来进行诈骗或其他违法犯罪活动。 细化准则引导技术向善 “应用新技术,首先要坚持正确的伦理导向。”梁正说。AI伴侣是极为特殊的一类AI应用场景,类似于心理咨询师。它们可以给人们带来心理疗愈,但不法分子也可能会借此操控人心。可以预见的是,“人工智能+情感”的赛道会不断扩张,如今用AI来“复活”亲人的案例也屡见不鲜。因此,如何让AI发挥正向作用,制定针对性的伦理准则,是行业要解决的首要问题。 梁正提到,国内外已公布的针对AI的伦理准则大多比较宏观,需要在细分领域制定更具体的伦理准则。“比如年龄的限制、适用场景的限制……制定这些规则,需要秉持对使用者最有利、风险最小的原则。”他说。 而在法律法规层面,AI伴侣需要严格遵守相关的规定。例如,对用户信息的处理,应当遵循个人信息保护法、数据安全法等。“我国去年公布的《生成式人工智能服务管理暂行办法》划定了AI使用的底线,如尊重他人合法权益、不得危害他人身心健康等,目的就是推动人工智能向善发展。”梁正表示,未来应推出针对具体场景的、更加细致的要求,比如应当从防沉迷的角度,对AI的使用时长加以限定。目前,还相对缺少针对AI伴侣的相关政策法规。 从行业规定上看,一些机构、公司对此表现出的态度也十分谨慎。记者发现,一些AI伴侣应用已经被下架处理。OpenAI的相关条款中也提到,不允许用GPT进行浪漫伴侣关系的培养。 在推动法律法规完善的同时,使用者更应秉持谨慎的态度,审慎对待AI伴侣这一新生事物。“人们应当警惕技术对人的控制和异化,避免AI伴侣对自身造成的不利影响。”梁正提醒道。
AI与医疗深度融合 开启智能医疗新时代
AI医师助手

AI与医疗深度融合 开启智能医疗新时代

△国际医疗健康人工智能大会暨2024中国心胸血管麻醉学会学术会议现场。(中国心胸血管麻醉学会供图) “我国是人口大国,随着经济社会快速发展和老龄化进程加快,人民群众对健康的美好需求不断催生医疗健康领域人工智能的研发与应用。”日前在广州举办的国际医疗健康人工智能大会暨2024中国心胸血管麻醉学会学术会议上,全国政协委员、中国心胸血管麻醉学会常务副会长敖虎山在开幕式致辞中如是说。11月14日,国家卫生健康委、国家中医药管理局、国家疾控局联合发布《卫生健康行业人工智能应用场景参考指引》,成为落实党中央、国务院关于开展“人工智能+”行动的重要举措。此次大会正是顺应时代潮流、响应国家号召的关键行动,是推动我国医疗健康领域技术创新与产业升级的重要契机。 人工智能将如何赋能医疗健康领域?又将带来哪些新的趋势和机遇?在这场国际性学术交流会议上,多位全国政协委员、来自国内外的专家学者、行业翘楚及相关政府部门负责人等,围绕人工智能与医疗健康、人工智能与心胸血管麻醉的深度融合谈现状、话未来。 ——编者 AI正加速医疗模式变革 近年来,以ChatGPT为代表的大模型技术带来人工智能(以下简称AI)的突破性发展。在科技创新领域,科研人员借助AI大模型,处理更高维度、更多变量、更复杂问题的能力得到巨大提升。 在医疗领域,AI同样在推动科研范式变革方面发挥重要作用。 “在传统的医疗科研模式中,医生和研究人员主要依赖临床经验、实验数据和文献综述来进行疾病研究、药物研发和治疗方案制定。然而,这种模式往往受限于数据规模、处理能力和分析方法的局限性,导致科研进展缓慢。随着AI技术的引入,医疗科研范式正在发生根本性变化。”全国政协委员、工业和信息化部原副部长王江平表示,如今,通过大数据分析、机器学习和深度学习等手段,能够高效地处理和分析海量的医疗数据,为医生和研究人员提供更为精准、全面的诊断依据和科研支持,大幅提升药物研发的效率和精准性。比如,华为云盘古药物分子大模型提出了针对化合物表征学习的全新深度学习网络架构,有效提升了药物设计效率;腾讯人工智能实验室自研的“tFold”工具有效提升了蛋白质结构预测精度。 “不仅如此,AI在医疗健康领域的应用方面,也有了重大突破,具身智能或许将成为通往通用AI的重要推力。”王江平介绍说,具身智能是一种具备自主决策和行动能力的机器智能,它可以像人类一样感知和理解环境,通过自主学习和适应性行为来完成任务。其中比较典型的就是手术机器人,如达·芬奇手术机器人已被广泛应用于微创手术。这种类型的机器人为外科医生提供了超越人类极限的精确度和可控性,能够进行微小切口的精细操作,减少手术创伤、加快恢复速度,并降低感染风险。 “未来,手术机器人有望进一步提升对手术过程的感知和控制能力,根据患者的个体差异实施更加精准、个性化的手术治疗。”王江平预测,随着技术的不断发展和完善,AI在医疗领域的应用将更加广泛,为人类健康带来更多的可能性。 全国政协委员、人口资源环境委员会副主任王建军在发言中也表示,医疗健康融入AI、大数据、云计算等现代信息技术,能够优化医疗生态、提升医疗服务质量、优化医疗资源配置、增强医患互动。建议各界专业人士加强交流互鉴,抢抓大健康产业发展重要机遇,为实现中国式现代化贡献力量。 AI在麻醉领域的应用潜力巨大 随着AI在医学领域的应用日益广泛,AI正在改变传统的麻醉方式,为麻醉医生提供前所未有的支持和帮助,如监测麻醉深度、疼痛管理、风险预测等方面。 “麻醉深度是影响手术安全和患者舒适度的重要因素之一。传统的麻醉深度监测方法如脑电图双谱指数(BIS)等,虽然在一定程度上能够反映患者的麻醉状态,但仍存在诸多局限性。AI技术的加入,为麻醉深度监测带来了革命性的改变。在手术过程中,AI系统能够实时监测患者的脑电图等生理信号,确定患者的麻醉深度,指导临床用药。”敖虎山表示。 香港中文大学第二附属医院麻醉科主任周树勤介绍说,AI在麻醉深度监测中的应用,不仅提高了麻醉的精准度,还有效降低了因麻醉深度不当而引发的并发症风险。在传统的麻醉实践中,麻醉师主要依赖自身的经验和专业知识来评估患者的麻醉风险,并制定相应的麻醉计划。然而,由于个体差异和病情的复杂性,这种评估方法往往存在一定的局限性和不确定性。而AI技术的引入,将为麻醉风险预测带来革命性的改变。 “AI系统通过对大量历史数据的学习和分析,构建出预测模型。这些模型能够识别出与麻醉风险相关的关键因素,如患者的年龄、体重、健康状况、手术类型等,并根据这些因素来预测患者可能出现的麻醉风险。”周树勤说。 中国医学科学院阜外医院麻醉中心主任医师张喆围绕机器学习在围麻醉期风险预测、患者状态实时监测、药物剂量优化等方面的应用分享了观点。他表示,由于患者对麻醉药物的反应存在显著个体差异,传统麻醉方式难以应对多样化的个体反应,麻醉中无法根据患者的生理状态变化,实时调整药物剂量,无法预测麻醉中出现的低血压等不良反应。 “通过机器学习建构模型,有望解决上述一系列问题。AI在麻醉中的应用正在逐步深入,并展现出巨大的潜力。未来,随着技术的不断进步和应用场景的不断拓展,麻醉将迎来更加精准、高效和安全的新时代。”张喆表示。 AI与医疗的深度融合机遇与挑战并存 近年来,AI在医疗领域的应用取得了显著成果,但也面临很多问题和挑战。 王江平以具身智能为例表示:“具身智能要求机器人理解复杂多变的动态环境,这需要海量、多样、高质量的真实交互数据作为支撑,但采集此类数据难度大、成本高;在数据处理方面,对算力也有极高要求,需要强大的计算平台作为后盾。” 敖虎山也表示,具身智能的发展完全依赖于医疗大数据,但当前“数据孤岛”的问题十分严峻,因此开放和共享医疗大数据迫在眉睫。他说,以北京为例,受现有管理体制机制限制,医院之间的数据信息尚未实现共享,不同监管部门之间的共享渠道也不畅通,这就造成整个医疗体系中存在“数据孤岛”的现象。 为打破“数据孤岛”,推动医疗行业数字化建设,敖虎山建议建立不同层级的医疗行业“数据银行”,包括建立统一的医疗行业数据信息共享平台;建立规范的管理和使用制度,并进行分层管理;建立完备的数据安全保障体系。通过建立“数据银行”,推动形成真正意义上的大数据,这对于推进智慧医疗建设具有重要意义。 在AI生态方面,我国企业、高校、科研机构开发的很多模型使用不同框架,机器人嵌入式操作系统、控制单元五花八门,长期发展下去会出现技术发散问题。对此,王江平建议,政府部门应引导业界通过开放或开源的方式,推动AI基础性不断收敛,建立统一AI生态。 此外,AI应用的技术风险、人才匮乏、伦理等问题也被业界专家学者们多次提及。 比如,AI在医疗中的应用尚处于快速发展阶段,其临床应用效果仍需进一步验证;企业在技术研发过程中,特别是在数据处理和算法优化方面,需谨慎行事;“AI+医疗”需要具备复合背景的人才,他们不仅要研究AI算法,更要对医疗影像识别建立深入了解,这类人才的积累需要时间和经验,目前市场上相对稀缺;随着AI在医疗中的应用,涉及的法律和伦理问题变得越来越复杂,类似AI做出的错误诊断由谁来负责,AI辅助的治疗方案是否符合伦理,人机对齐等等。 “尽管医疗AI领域面临诸多挑战,但随着技术的不断进步和政策的持续支持,相信这些问题将逐渐得到解决,医疗AI将为人类健康事业作出更大贡献。”敖虎山表示,“未来,我们可以预见,更智能、更贴近人类需求的机器人会出现,它们将在老年护理、手术、麻醉等方面发挥更大作用,为患者提供精准的医疗方案。” 记者:鲁雅静 文字编辑:陈晶 新媒体编辑:杨思永(实习)
【公益直播】解读:《大模型金融应用评价规范》
AI金融助手

【公益直播】解读:《大模型金融应用评价规范》

为深入贯彻落实党的二十大、二十届三中全会精神和中央金融工作会议部署,积极响应国家关于保障金融业高质量发展、提升金融标准化水平的号召,在2024年9月“金融教育宣传月”期间,北京银联金卡科技有限公司(银行卡检测中心BCTC,国家金融科技测评中心,以下简称银联金卡)举办了“加强质量支撑 共建质量强国”标准解读系列专题活动。通过这些专题活动,不仅深入剖析了标准的核心内容,还采用一图读懂、线上公益讲座等多种传播方式,推动金融知识能够精准触达基层群众,提升公众的金融素养与风险防范能力,为助力金融业健康安全发展奠定了坚实基础。 本文将带您回顾《大模型金融应用评价规范》重点内容,一同重温精彩课程。 一、大模型技术:金融创新的双刃剑 人工智能大模型,尤其是大规模语言模型,在金融领域展现出了巨大的潜力。从客户服务到风险管理,从交易监控到市场分析,大模型的应用场景不断拓展。然而,随着应用的深入,安全事件频发,包括隐私数据泄露、网络安全威胁、社会安全问题以及知识产权争议等,这些问题对大模型的安全性和合规性提出了严峻挑战。 大模型在金融领域的应用,不仅需要处理大量的敏感数据,还需要确保其输出的准确性和合规性。技术缺陷、应用过程中的安全风险以及金融专业性不足,都是大模型在金融领域应用时需要面对的问题。由此,大模型的安全合规挑战,成为了金融行业亟需解决的问题。 随着人工智能技术的快速发展,全球范围内对大模型的监管已成为共识。各国纷纷出台相关政策和标准,以确保大模型技术的健康发展。在中国,信息化标准建设行动计划(2024-2027年)已经启动,大模型金融领域的行业标准也正处于立项准备阶段。同时,北京银联金卡科技有限公司(银行卡检测中心BCTC,国家金融科技测评中心,以下简称银联金卡)作为牵头单位,联合了大型国有商业银行、股份制银行、高校科研院所、头部科技公司等20余家单位,共同组建了专项小组,开展了全方位、多层次的市场调研,积极参与大模型金融应用标准的制定工作,形成了《大模型金融应用评价规范》(以下简称《评价规范》)。 《评价规范》的制定,旨在通过明确大模型在金融领域的应用要求与评价标准,为金融机构提供更加准确、全面的选型指导。同时,助于提升大模型金融应用的安全性、可靠性以及服务质量,为金融行业的数字化转型提供有力支撑。 二、标准出台:构筑大模型金融应用的“安全网” 《评价规范》主要通过通用知识与能力、金融知识与能力、安全要求以及性能四个维度,对大模型展开多方位评价。测评框架包括总则、知识与能力、安全要求以及性能等多个方面,旨在全面评估大模型在金融领域的应用能力与服务质量。其中,通用知识与能力决定了大模型与用户交互时的准确性、流畅性和适应性;金融知识与能力是能否胜任金融领域应用的关键;安全要求是决定大模型是否可用的基础;性能评价则对模型的效率与功耗提出了要求。 在知识与能力评价方面,《评价规范》要求大模型具备广泛的知识储备和语言理解能力,以准确理解用户的意图并给出恰当、有针对性的回复。同时,大模型还需掌握金融专业知识,了解金融术语和概念,并能够运用金融知识进行分析和预测,这些要求有助于确保大模型在金融场景中的专业性和可信度。 安全要求是大模型金融应用评价的重要一环。《评价规范》要求大模型在语料数据生成与管理、生成内容安全性、稳健性和伦理性等方面严格遵循相关规定。这包括确保语料数据的合法合规性、保护用户隐私和数据安全、防范恶意攻击和滥用等。此外,《评价规范》还要求对大模型进行持续的安全监测和风险评估,及时发现并处置潜在的安全隐患。 在性能评价方面,《评价规范》关注大模型的可扩展性、效率与能耗等指标。这些指标有助于衡量大模型在处理复杂任务时的性能和效率,以及其对计算资源的消耗情况。通过性能评价,金融机构可以选择适合自己需求和硬件条件的模型,从而提高服务质量和运营效率。 三、测评服务:推动大模型金融应用的健康发展 为了推动《评价规范》的有效实施,银联金卡建立了针对大模型金融应用的专业评估能力。通过构建高质量的测评数据集和自主研发“离朱”大模型自动化测评平台,银联金卡能够全面评定大模型在金融领域的适用性和效能水平。同时,银联金卡还联合多家机构共同探索金融行业大模型测评规范的建立,通过多元协同,全面提升标准的可靠性。 《评价规范》的测评对象主要包括各类应用于金融领域的大模型产品。通过测评,可以全面了解大模型在金融场景中的表现情况、应用能力与服务质量,为金融机构提供科学、客观的大模型选型依据。此外,测评结果还可以作为金融机构优化大模型应用、提升服务质量和运营效率的重要参考。 在测评方式与流程方面,《评价规范》采用了全面评估的方法,评价维度全面覆盖、评估要点合理设置、应用需求精准适配。测评过程包括测评样本的自动生成、测评结果的自动评估、测评记录的自动留存以及测评模型的自动管理等环节。通过这一系列流程,可以确保测评结果的客观性和准确性。 随着《评价规范》的出台和实施,大模型在金融领域的应用将更加规范、有序。金融机构在选型和应用大模型时将有更加明确的标准和依据,从而降低选型风险和应用成本。同时,《评价规范》的出台也将推动大模型技术的持续创新和优化升级,为金融行业的数字化转型和高质量发展提供有力支撑。未来,随着金融科技的不断发展和创新,银联金卡将持续关注新技术、新应用的发展动态,不断完善和优化自身的评估体系和能力建设,同时,积极探索新的测评方法与技术手段,共同推动大模型金融应用的标准化、规范化发展。 扫描下方二维码,立即观看课程 点击【阅读原文】,即可观看精彩课程内容!
全球范围内,法律 GPT 有哪些发展与规制?|iCourt
AI律师助手

全球范围内,法律 GPT 有哪些发展与规制?|iCourt

21 世纪是技术革新的时代,对我国而言,要想在快速增长的人工智能领域保持竞争力,就需要不断开发其在各个领域的应用场景。法律 GPT 便是 AI 在法律领域的一大应用,有助于推动我国实现人工智能驱动未来的重大飞跃。 《法律 GPT :机遇、挑战与未来》对法律 GPT 产品及各国规制状况进行梳理,目的是让读者对于这一时代的变革有所了解,尤其希望律师朋友们更加积极地学习,主动拥抱这一变化,成为时代的弄潮儿。 面对 AI 的发展变化,诚如广州青年律师工作手册编委会在《青年律师工作手册 3.0 版本 ( 2024 年 1 月)》中所言,律师应以“三心”来避免未来被人工智能取代。 第一、 “放宽心” ,至少在短期内,人类重大事项的决定不会交给机器,律师不要太担心律师会被人工智能取代; 第二、保持“好奇心” 。尽管 AI 暂时不可能完全取代律师,但是至少有很多重复性、基础性的标准化的工作肯定可以被 AI 取代,律师应该保持对科技发展的好奇,了解哪些工作最有可能被取代,而自己应该避免在这部分工作中投入太多时间和精力,因为这属于在未来没有价值的工作; 第三、 “进取心”。律师应该将更多的精力投入到律师工作中那些富含创意,难以在短时间内被 AI 取代的工作当中,尤其是类似诉讼策略,沟通技巧等需要发挥主观能动性的部分,并且积极运用 AI 工具,提升工作效率。 目录 作者介绍 主编:李小武 中国社会科学院知识产权中心法学博士。 美国杜克大学法学院( 2001.8 – 2002.8 )、华盛顿大学法学院(西雅图,2014.4 –...
抛去无用情感,让焦虑烟消云散 | 新黄河AI晚读
AI情感助手

抛去无用情感,让焦虑烟消云散 | 新黄河AI晚读

01 收起委屈 工作本身就是一次升级通关的历程,无论做什么工作,都不可能一路顺风顺水。 管理学上有一个“蘑菇定律”:职场人会有一段不受重视的时期,就像蘑菇培育一样被置于阴暗的角落,接受各种无端的批评、指责,代人受过,得不到必要的指导和提携。 工作中,每个人都有可能经历这样一个过程。但是处理方法却全然不同,有的人会凡事诉求公平,而有些人会自己消化委屈,默默耕耘,所以每个人最后得到的结果也全然不同。 人生风雨无数,学会吞下抱怨,扛住磨难,日拱一卒地精进,一定会迎来春光明媚。 02 控制情绪 成熟的人都懂得极力克制情绪,他们明白任情绪发酵,是工作上的一个大忌。 如果共事的同事情绪不稳定,就像一颗定时炸弹一样,容易在工作中捅出大娄子。而一味地沉浸在坏情绪中的人,也只会降低工作效率。 看过一个故事。 医院有一位教授,医术高明,但是对助手很严厉。很多实习医生一听到要被安排到当他的助手时,情绪紧张不已,生怕挨骂。 其中有一位实习医生却不同,不管教授如何指责,这位实习医生总是态度诚恳地应和下来,然后专心致志地学习教授如何做手术。 手术结束后,他把批评忘得一干二净,继续和同事们谈笑风生。 就这样,这位实习医生成了同辈医生中手术方面进步最快的一位。 有位企业创始人在办公室上写着两行字激励自己:只带脑子,不带情绪。 收拾好心情,才能驾驭好工作。 与其成为情绪的奴隶,不如摆脱情绪的枷锁,把工作做到极致。 03 拒绝内耗 在工作中,拖累我们前进步伐的,往往不是能力水平,而是自我情绪拉扯。当被别人批评工作没做好时,就一个劲儿琢磨他人的评论,陷入深深的自我怀疑中。 如此胡思乱想,浪费的是大量的时间和精力。 很喜欢一句话:“对于可控的事情保持谨慎,对于不可控的事情保持乐观。” 陷入毫无意义的揣测中,会掣肘自己能力的发挥;缠绕着各种念头,内心只会徒增负重。 人生总有左右为难的事,如果你还在做与不做之间纠结,那么,不要反复推演,立即去做。 清空纷杂思绪,做好眼前事,你会发现那些焦虑会在行动中烟消云散。 要懂得抛去一切无用的情感,专注于工作本身,才能获得进步。 来源:新华社 来源:返回搜狐,查看更多 责任编辑:
投资风向标!2025-2031年全球医疗AI发展趋势与投资战略规划分析
AI医师助手

投资风向标!2025-2031年全球医疗AI发展趋势与投资战略规划分析

产业概况 1、定义 AI医疗是借助尖端人工智慧技术,包罗万象,诸如机器学习、自然语音处理以及深度学习等等多重先进技术,以期在药品研发与病患诊疗这些环节上进行智能化的全面整合与提升,从而有力地提升医疗服务的整体效益及品质。 AI医疗行业研究范畴 在院内医疗AI的实际应用中,它不仅涵盖了医生对患者进行诊断和治疗的整个流程,还包括了对医院信息化系统的全面升级与完善。众所周知,医院作为频繁开展各种医疗活动的主要场所,正处在医保支付制度以及广大患者日益增长的需求这两个重要因素的交叉点上,因此在其日常运营过程中所产生的大量数据,无疑为人工智能技术的发展提供了坚实的基础。人工智能技术可以广泛地运用于患者从就诊到康复的全过程,涉及多个身体部位及多种疾病类型,从而实现降低成本、提高效率、改善就医体验以及合理分配优质医疗资源等多重效果。此外,医院内部的信息化建设也不再仅仅局限于信息的生成、存储和交互,而是正在向更加智能化、一体化的方向稳步推进。 医疗AI的临床应用与医院内部技术架构的实现密不可分,两者交融贯通,共同构建起医院卫生体系的现代化布局。医院这个医疗服务活动繁忙频繁之地,恰好坐落于医保制度以及广大患者需求的中心枢纽位置之中。由于日常运营中所承载的大量医疗数据,这便为发展先进的人工智能技术奠定了坚实的基础。人工智能技术在患者诊疗的全流程中均有广泛的应用空间,涵盖了多个身体部位及多种疾病类型,其显著的优势在于能够有效降低医疗成本,提高工作效率,改善患者的就医体验,并能合理配置优质的医疗资源。此外,医院内部的信息化建设也不再仅仅局限于信息的生成、存储和交互等基本功能,而是逐步向智能化、一体化的方向迈进。 以高级人工智能生成文本(AIGC)作为核心构成部分的智能导诊系统的高效运行,无疑显著提升了各种就诊环节的运作效率,为个性化医疗服务的推广以及分级诊疗制度的落实提供了有力支持。相较于传统的导诊系统,AIGC技术在交互性方面表现更为出色,它能够直接接入医院门诊的相关数据,并借助大数据分析、自然语言交互以及深度学习等先进技术手段,为每一位前来就诊的病患精确地匹配到最适合他们的就诊科室乃至医生,从而有效解决了临床实践中普遍存在的“挂错号,走错科”这一难题,满足了广大病患对个性化医疗服务的迫切需求。而对于医院而言,智能导诊系统或机器人的引入不仅能够大大减轻医护人员繁重的重复性工作负担,实现降本增效的目标,同时也能够借助人工智能技术来合理规划门诊的分级分流,促使医疗资源得到更加有效的利用,进而为分级诊疗政策的顺利实施提供强大助力。 在整个检验医学的发展历程中,经历了从原始的手工操作逐步发展至半自动化乃至全自动化实验的革命性转变,并即将迈入更为先进的实验室流水线阶段。随着实验室自动化和信息化建设水平的日益提升,智慧化已然成为了检验医学这一重要学科新的发展潮流。借助于人工智能技术搭建的坚实基础,实现在检验实验室内部的自动采样、运输以及质量控制过程,同时还能依据患者的临床表现及过往检测数据,为其自动推荐最适宜的检验项目。此外,通过对检验结果的自动审查与辅助解读,能够进行疾病的预测与治疗,从而推动精准医疗的实施,直至最终实现无需人工干预的全智能化检验实验室。 在众多医学领域的疾病诊断中,特别是关于癌症的确诊中,病理诊断被视为无可辩驳的”金标准”。然而,相较于检验科与影像科等其他科室,病理科诊断过程相当繁琐、自动化水平相对较低、诊断耗时冗长得多。其独特的”显微镜+病理组织切片”的诊断方式,使得工作负荷沉重,同时误诊率也居高不下。然而,随着人工智能技术的日益成熟,以其为核心的智慧病理应运而生。这种新型诊断方法,在病理切片数字化(即数字病理)的基础之上,借助海量数据构建的庞大数据集,运用深度学习技术挖掘出数据集中的内在规律,从而对可疑靶区进行精准勾画、生动渲染,以此协助病理医生更高效地解读切片,显著提高诊断效率及质量,进一步推动病理行业向数字化方向发展。 依据人工智能赋予各领域之独特应用与场景,将AI电力医疗细分为AI在药物研发领域上的应用、AI在医学影像学方面的运用、AI在医疗辅助机器人技术中的融合以及AI健康治理等等。 AI 医疗按应用场景分类 2、产业链 AI医疗行业领域所涉及的产业链大致可以划分为三个层次:支持层、应用层以及服务层。其中,作为主体的支持层涵盖了诸如智能医疗设备及医疗数字化服务等关键环节;而应用层则以AI药物研发、AI医疗大数据模型等为核心内容,这也是当前我国AI医疗产业发展的重心所在;至于服务层,其主要功能在于在患者诊疗过程中,利用AI模型实现辅助诊断、辅助决策以及辅助手术等多元化活动。 AI 医疗行业产业链 行业发展现状 随着我国医药卫生体制改革的逐步深入推进以及层级诊疗制度的精准落地实施,各级政府部门正积极采取措施以应对医疗资源配置不均以及医疗服务效率低下这两大难题。在此过程中,医疗人工智能技术的广泛运用无疑在提升医疗服务品质和效率、降低误诊率和误治率等方面起到了举足轻重的作用。然而,我们必须清醒地认识到,当前AI+医疗领域仍然面临着诸多挑战,如医学数据处理难题、复合型人才匮乏、行业规范尚未建立健全以及医疗科研成果向成熟产品转化所需时间较长等问题。尤其值得关注的是,数据的获取、利用以及数据共享等环节成为了制约AI+医疗发展的瓶颈所在。鉴于AI+医疗的发展动力主要源于满足医疗行业的迫切需求,因此可以预见,在不久的将来,AI+医疗必将突破数据壁垒,实现数据的安全、高效且共享式的应用。 统计数据显示,中国AI医疗行业市场规模在2023年达到88.43亿元。中国AI医疗行业市场规模(2019-2024年)如下: 2019-2024年中国AI医疗行业市场规模 行业发展趋势 医学知识图谱作为医疗信息系统中处理和利用海量、复杂且时常变动的医疗大数据的有效手段,能够极大地提升系统的智能化程度,使其越发贴近人类在复杂问题上的认知与思考过程。医学知识图谱的构建过程主要包括四个关键环节:医学知识推理、医学知识融合、医学知识抽取、医学知识表示。得益于人工智能技术的持续创新与突破,上述各个环节均取得了显著的进展。知识图谱在医疗领域的价值不仅仅体现在其作为全面的医学知识库,更在于其作为支撑各类医疗智能应用(如辅助诊疗、智慧病案等)的基石。因此,那些在医学知识图谱技术方面具备竞争优势的企业,无疑将会在未来的AI+医疗市场中占据更大份额,拥有更为广阔的发展前景。 如今,医疗与人工智能的深度结合已经成为了大势所趋。具体说来,在未来时光里,人机智能技术(AI+医疗)的重要突破点将主要体现在以下几个方面:首先是算法拟合度的持续优化;其次,是算法应用范围的显著扩大;再次,是对于个人隐私信息的严格保护;此外,还需要提高AI+医疗所产生结果的可解释性;最后,也需要通过引入更多可靠的验证手段来降低AI+医疗可能引发不良医疗事件的风险。 在引领AI+医疗创新步伐的同时,不能忽视其可能引发的伦理道德议题。根据一项深入细致的调查研究显示,有高达60%的受访者对自身的个人隐私和知情权问题表示了深深的忧虑;另外超出50%的受访者则表达了他们对大型数据集和算法的不可预测性所带来的不安;更有超过30%的受访者对当前的诊疗道德规范提出了质疑。然而,坚信,只要在未来的发展过程中,持续加强对AI+医疗伦理监管的力度,明确医生在整个医疗体系中的核心角色,以及强化伦理规定的执行,那么AI+医疗在实际应用于医疗服务的过程中将会变得更为安全可靠,并且能够成功地构建出以患者为本,用户易于使用的AI+医疗生态系统架构。 行业市场规模预测 预测,受中国AI医疗行业市场需求的增长,2024-2030年中国AI医疗行业市场规模平稳上升。2030年中国AI医疗行业市场规模270.59亿元。中国AI医疗行业市场规模预测(2024-2030年)如下: 2024-2030年中国AI 医疗行业市场规模预测 以上数据及信息可参考智研瞻发布的《全球及中国医疗人工智能(医疗AI)发展趋势与投资战略规划分析报告》 文章来源:智研瞻公众号