独家:2024年1-11月份金融行业大模型中标项目盘点,百度第一
AI金融助手

独家:2024年1-11月份金融行业大模型中标项目盘点,百度第一

2024年,大模型进入产业落地爆发期。作为数字化程度最为领先的行业之一,金融行业大模型落地速度也在显著提速。 目前,金融机构对大模型的应用态度非常积极。一个重要的例证是,银行、保险、证券等在内金融机构发布的大模型招投标项目数量相比前年初的几个月出现了明显增长。 2024年1-11月份,智能超参数统计到了100多个金融机构发起的大模型相关采购中标项目。从中,我们可以一窥大模型技术在金融行业的最新落地进展。 金融行业大模型落地显著提速,百度领跑厂商中标榜 2024年1-11月份,我们统计到103个金融行业大模型中标项目,其中39个未披露中标金额(为便于统计,中标金额标注为0元),其余64个项目披露中标金额为20083.58万元。 从季度统计的中标项目数量和金额来看,今年下半年金融行业大模型落地显著提速。第四季度,我们仅统计了2个月的数据,但中标项目数量已经逼近第三季度,并且中标金额创下新高。 随着金融行业大模型中标项目数量达到一定规模,行业的领军厂商也逐渐显现。在智能超参数长期跟踪的6家知名通用大模型厂商中,百度表现突出,在主流大模型厂商中,拿下最关键的中标项目数量、中标金额两项第一。科大讯飞紧随其后,项目数量和中标金额都排名第二。两家厂商形成市场上领先优势明显的头部企业。 在两家企业之后,其他4家厂商,智谱AI 、火山引擎、阿里云、腾讯云则项目相对较少,成为市场上的第二梯队。值得注意的是,以项目数据来看,可以进入第二梯队的厂商众多,华讯网络、南天电子、深擎科技、可利邦等厂商也都有3个中标的金融大模型相关项目。 大模型集中落地金融行业四大应用场景 从2024年下半年开始,金融行业大模型中标项目数量开始快速增长,显示大模型技术在金融行业的加速渗透。以中标项目数量计算,金融行业能够稳居前五大行业,其余四个行业是教科、通信、能源、政务。 虽然金融机构的采购预算相对宽裕,但目前金融行业大模型中标项目的金额整体上看普遍还不够大。排除未披露金额的项目后,其余项目披露金额的中位数在142.8万元,比全行业略高一些。 从项目数量来看,应用类项目 (其中可能包含算力、大模型等)数量最多(64个),占比62%;大模型类项目(16个),数量占比16%,算力类项目22个,数量占比21%,数据类项目占比最少。 从披露金额来看,应用类项目披露的金额占比也是排名第一,算力类占比第二,大模型类占比第三,数据类项目的占比最低。 应用类项目数量和金额占比最多,表明金融机构更多的注意力聚焦在大模型技术在具体业务场景中的落地。而数据类项目数量和金额较少,这可能跟金融机构本身数据治理就较为领先和规范有关系。 在大模型类项目中,一个明显的趋势是越来越多的金融机构在建设大模型底座或者AI中台。这意味着大模型在金融机构中越来越重要的角色,并且可能会渗透到越来越多的业务场景之中。 所有应用类项目根据场景进行进一步细化,智能编程(13个)排名第一,但是其跟业务场景关联性较小。在跟业务紧密相关的场景中,知识平台&知识生成 (12个)、数字人&客服( 11个 )、智能审核(5个)排名前三。 在知识平台建设这个场景上,百度目前中标案例较多。以泰康保险为例,该企业通过基于百度智能云知识管理平台“甄知”打造了私有化、新一代的泰康知识中台,把泰康过去沉淀的行业知识、多源异构数据接入进来,基于大模型能力,将企业知识在内部更高效地流动,内勤工作人员可以快速获取公司最新的福利制度、通知公告,保险代理人则可以实时获取专业保险理赔建议,获取最新保险政策等。 银行业领跑金融行业大模型创新 在我们统计到的103个金融行业大模型中标项目中,覆盖金融机构类型越来越多,其中包括银行、保险、证券、金科公司、交易所、消金、监管机构等。 从数量上看,银行类机构发起的大模型相关采购项目数量最多(58个),占比达到 57%,其次是证券机构(15个),保险(13个),其他金融机构(17个)。披露的中标金额占比上来看,银行、证券稳居前两名。 从大模型项目的建设目标来看,目前大模型的落地尝试更多聚焦在金融机构的对内赋能上,比如加快合同的智能审核、企业知识高效获取与分享、提升智能运维效率等,但是也能看到部分企业开始尝试利用智能体进行一些核心业务上以前做不到的创新。 以保险行业为例,百度智能云基于10月新发布的工作流Agent探索、落地车险续保售前数字员工。过去,车险续保的工作指导包含大量流程、子流程、文档等内容,优秀销售人员稀缺,且培养周期往往长达一到两年。基于工作流Agent开发金牌销售数字员工,则最快可以在1小时内完成、上线,能够大幅提升企业车险业务的核心生产力。 目前来看,金融机构对于大模型技术的采用还处于智能风控、营销、客服、投顾等少数场景测试的阶段,一旦价值明确或者投资回报率可观,大模型技术可能才会逐渐深入到更多核心业务之中。当然,这个持续渗透的过程,还受到大模型技术进一步成熟,安全性提升,以及行业规范不断完善、监管政策明朗等因素影响。 最终,大模型在金融行业要真正发挥比较大的业务价值,还是得在直接面向客户的核心领域和场景里面,跟场景进行深度融合。如果只是泛泛地谈金融大模型,那就做不到有的放矢,并且对内使用和对外使用大模型技术,也有着明显不同的业务规则、数据安全规范、以及监管要求等。 现在可以肯定的一点是,明年将是一个关键时间节点,因为2024年诸多金融行业大模型落地案例将会迎来盘点价值的阶段。如果大模型能够证明价值,那么凭借金融行业机构的强大购买力,2025年将会是大模型在金融行业的爆发时刻。 说明:部分中标项目未披露中标金额,为方便统计,项目金额以0计算;此外可能存在统计遗漏,项目分类、行业分类等也并不严格,这都可能会影响最后的统计分析结果,请读者知晓。仅供参考。
ChatGPT引发五大法律问题:架空隐私权保护,用于侵权、犯罪……
AI律师助手

ChatGPT引发五大法律问题:架空隐私权保护,用于侵权、犯罪……

近日来人工智能工具 ChatGPT 大火,占领各大媒体头条。同时Meta也有 BlenderBot,谷歌也有自己的AI Chatbot,这个领域必定在接下来的几年百家争鸣,百花齐放。 ChatGPT的重点在于GPT,Generative Pre-trained Transformer(生成式预训转换器)。通过深度学习和训练,它有能力极快地搜集并整理资料,组合成相当成熟的文本回答。这牵涉到数据搜集(input)和数据整理输出(output)两个方面;随着这一大类“生成式”人工智能越来越广泛的新应用,这两方面都存在很多潜在法律问题。 早在2016年,微软AI Tay昙花一现的推出和停止,已经展示了科技发展的加速度,只会越来越严重地扩大其和立法滞后之间的鸿沟。如果立法跟不上,那么很多新技术就可能是潘多拉的魔盒。这里聊聊此类技术推广比较急切需要跟进的几个立法问题。 一、数据隐私和同现有数据法的冲突 获取数据首当其冲要关注的就是数据隐私和保护问题。当我们自己用搜索引擎查找资料时,对数据的采集和整合与AI是完全不可相提并论的,这就牵涉到大量的数据法冲突。比如,自从“欧洲通用数据保护条例(GDPR)”出炉,各公司机构都颁布了自己的数据隐私条款,列清各自对这些数据的处理条件和责任。然而当这些数据被AI取得后,又被分散入个体用户手中,这些数据的所有权和保护就被架空。从此谁来对数据隐私和有效期负责?谁决定数据的应用限制或许可?谁来控制这些数据不被再次多次转手甚至滥用? 二、知识产权问题 数据一旦被收集整理,紧接而来的知识产权问题也进入了更复杂的区域。这里谈的不仅仅是简单的不注明原创的侵权问题:GPT和普通的抄袭不同,它有能力按照预训的指令模仿已经存在的内容风格进行再创作,那么就牵涉到侵权主体责任的定义问题和“风格”作为知识产权的界定和权益问题。风格拷贝在版权法上当然也是一种剽窃,但其界定本身又相当抽象,又牵涉到多重执行主体,这会给保护原创带来新的挑战。近期洛杉矶艺术家 Hollie Mengert 的作品被用作训练生成式AI “Stable Diffusion”的模板,并被模仿再创作的事件,就体现出这里立法的模糊性。 三、运用他人数据营利问题 类似Hollie Mengert作品被模仿和再创作的事件,引申出如果这类信息或者作品被用作商业工具营利,那么接下来该怎样处理其相关权益和经济纠纷的难处。很多网络信息的确是公开免费的,但并不代表就可以用这些资料间接盈利,这方面常常会有限制性条款。比如以后如果需要付费问ChatGPT问题,那些回答的信息来自不同源头的组合,其中不乏私有专业以及受版权保护内容,那么又该如何处理其相关权益纠纷? 四、数据质量和算法偏差 虽然随着技术的提高,AI的数据质量必定是越来越高,但使用者依旧不能盲目地对此形成依赖。数据的真实性可靠性,始终是需要使用者自己衡量决策的。AI可以给你优质的答案,也同样可以给你误导性的答案,提出问题的方式本身也可以导致回答差之千里或者带来伦理问题。此外,根据训练AI所用的数据库不同,得到的结果也会有算法偏差。也有给Al设定特定意识形态的问题。 五、网络犯罪 AI有多大能力行善,就同样有多大能力做恶,归根结底,它只是一个工具而已。比如几年前Deepfake技术在色情业的应用,就引起了AI在身份欺诈类犯罪方面的诸多讨论。但这方面的法律,牵涉到诈骗、名誉权、肖像权、诽谤、身份盗窃等等多个方面,却依旧滞后,几年过去了并未得到完善。随着AI的进步,其用于各类犯罪的能力,只增不减。像ChatGPT这样的工具,完全有能力伪装成我们非常熟悉的人来和我们进行沟通,写出以假乱真的各种书信文件,在私人和商业生活中引起更大的混乱。 综上所述,AI带来的多种潜在问题在法律上还没有足够的规则来予以指导和规范。而法律的生成又必定是滞后的。如果自上而下立法,难免对未来情况产生不合理揣测导致无的放矢;如果自下而上立法,则必须承受真实生活中早期犯罪的代价,才能逐步吸取教训设立规矩。无论用怎样的策略努力在法治上跟上科技,其紧迫性和困难性是不言而喻的。 我们唯有寄希望于魔高一尺道高一丈,由科技发展本身来平衡滥用科技的危险。比如ChatGPT一出就被很多学生用为写论文的作弊工具。于是立刻就有人开发出例如GPTZero这类软件,来侦查文本是否由AI执笔。一物降一物,这类发展在科技界的产生速度可大大超过社会和政府立法的速度。 科技发展难以阻挡,未来已来,我们做好准备了吗? (作者系法律学者) • (本文仅为作者个人观点,不代表本报立场) 陆倩
十问AI陪伴:机器有情商了吗?
AI情感助手

十问AI陪伴:机器有情商了吗?

今年以来,随着GPT-4o等大模型的推出,AI不仅能够理解逻辑关系,还能表达复杂的情感,使得人机互动更加便捷和自然。电影《Her》中的情节似乎正在变成现实,AI的情感陪伴功能日益增强,如Character.ai等应用甚至开始探讨“AI伴侣”的概念。这一领域的巨大商业潜力引起了资本市场的极大关注。前不久,谷歌以25亿美元的估值收购了cai的部分股权。 最近,腾讯研究院发布了一份十问AI陪伴的报告探讨了这一趋势。人类是否需要AI陪伴,需要怎样的AI陪伴?AI陪伴产品距离“成熟”还有多远,我们如何预测和准备AI陪伴对社会的长期影响? 本期AGI路线图将为你拨开AI陪伴的理想与现实。讨论了AI陪伴的内涵和产品定位,看到了AI陪伴领域的技术现实也畅享了不再遥远的未来。 嘉宾: 王禹效心光AI情绪共鸣日记 founder 李神龙 林间聊愈室-AI情绪伙伴founder 李勇 硬件 跃然科技 陪伴玩具 AI陪伴 白惠天 腾讯研究院高级研究员 本期亮点 AI陪伴概述 AI陪伴产品旨在满足用户被理解、被倾听和被关注的需求,通过AI技术及时发现并回应用户情绪,提供高质量的情感支持。 AI陪伴产品优势 AI陪伴产品的现状和挑战 AI陪伴产品的发展方向 AI陪伴的未来发展趋势 AI陪伴产品的负面影响不应全归咎于AI技术,因为它们只是单方面服务人类,尚未具备自我意识。对AI陪伴技术的未来发展应保持乐观,它有潜力提供高质量陪伴,解决社会问题。未来,AI产品将更深入日常生活,可能改变社交习惯,但也能助力情绪处理和人际关系的改善。社会需适应AI陪伴,提高数字素养,平衡线上线下互动。AI应辅助而非取代人际交往,帮助人们更好地关爱和建立人际关系。 什么是AI陪伴? 徐思彦:大家是怎么理解AI陪伴的? 李神龙@林间聊愈室:我们的产品是一款情绪陪伴AI软件。我们设计了三个AI小动物:小狐狸、小熊和小鹿。它们会根据用户的情绪状况进行交流和安慰。我们的特点是根据用户情绪、性格、烦恼三个主题选择合适的心理技法、思维工具。聊天后,我们还会预测用户情绪的变化,继续提供帮助。 我的创业项目一直都是围绕1995年到2010年出生的年轻人(Z世代)的心理创业。我们发现这些年轻人心理需求很大,而且情绪对他们的消费决定有很大影响。从2020年到2022年底,AI技术有了很大进步,给了我们新的工具。我们觉得这是一个重大机会,所以推出了林间聊愈室。 王禹效@心光:AI陪伴是个有趣的想法。为什么我们要做这个?因为2022年我们找不到这样的产品。我们看了市面上所有产品后,感到很困惑:为什么没有一个产品能真正理解人?我们有很多想说的、很多想法,生活中发生很多有趣的事,人生很精彩,但为什么没有东西能理解我们? 在现实生活中,真正的好朋友和知心人其实很少。有本书叫《亲密关系》,讲的就是这种深层次的联系。我们在现实生活中也很难找到这样的人。但人又想表达自己,又想被理解、被关注。那么,怎么才能做到这一点呢? 2022年4月,我们在想:为什么没有这样一个产品呢?那时我们看到了一种叫BERT的AI技术,它能生成像人说的话。我们在想,要不要试试做这样一个产品?我们问了100多个用户的意见。2022年6月开始做这个项目时,我们说要做十年,看看在AI陪伴这个领域能做出什么。 我们是这么理解”陪伴”的:我们的产品叫”x光”,公司叫”心里有光”。我们想做一个”AI生活记录伴侣”。”AI”是指用AI来分析信息。”生活”是指我们想做与用户日常生活有关的产品,不是工作工具。”记录”是指我们希望用户把生活中的大事小事、经历、见过的人、读过的书、看过的电影、听过的音乐,以及重要的想法都记录在这里。”伴侣”就是陪伴,我们想给用户带来价值,可能是情感上的,也可能是陪伴本身。在用户开心时一起高兴,难过时给予安慰,及时发现并回应他们的情绪。这就是我们2022年6月对”心光”这个AI生活记录伴侣的想法。 Haivivi-李勇:我们是做硬件的,所以我们希望通过实体产品来陪伴用户。这对我们来说可能更难,因为我们需要用户购买我们的产品。 我们做AI陪伴的想法来自于之前做天猫精灵的经验。我们卖出了3000多万台,进入了3000多万个家庭。从数据中我们发现,主要使用者其实是孩子,这和我们最初的设想不一样。天猫精灵最初是为年轻人设计的智能助手,我们没有专门为孩子设计。但实际使用数据显示,大多数活跃用户都是孩子。 发现这一点后,我们决定专门为孩子设计AI陪伴产品。2021年公司成立时,我们就有了这个想法,只是那时AI技术还不够先进。幸运的是,2022年底更先进的AI出现后,我们迅速改变了技术方案,开始用新AI为孩子制作智能玩具。 徐思彦:你觉得现在的AI已经能在某些方面提供更好的陪伴了吗? 王禹效@心光:我认为在某些情况下是可以的。让我简单解释一下AI的发展过程: 2022年6月,AI的能力还很有限。2023年3月,GPT出现了。它有了广泛的知识,能像人一样交谈,但还不能很好地理解人的感情。GPT-4时代,AI有了逻辑思考能力,这让它变得更聪明了。现在,像Claude这样的AI模型已经能进行推理,提供更好的交流,甚至在某些方面给出更深入的见解。 简单来说,AI的发展是这样的:先有知识,再有逻辑(智商),最后才能发展情商。当AI有了情商,我们才觉得它能提供较好的亲密关系。技术在不断进步,现在的AI已经比以前强大很多了。 白惠天:我们做《十问AI陪伴》报告的主要原因是,AI现在不仅能提高工作效率,还能为我们带来情绪价值。就像刚才说的,当AI变得足够聪明时,它自然就会有情商。首先,我们要理解什么是陪伴。有人说陪伴是最长情的告白。我们可以从不同角度看陪伴: 向上看,就好比偶像,在追星中我们获得了愉悦。 平视视角,和家人吃饭,和朋友聊天,情侣约会是陪伴;因为我们可以相互理解,彼此共情。 向下看,宠物或植物似乎也能让我们体会到熟悉、安心与放松,也可以是一种陪伴的形式。 我们还研究了为什么陪伴能让我们感到愉快。这就涉及人心理过程的主要神经递质。 多巴胺:日常生活中众多物品/行为都会促进多巴胺的分泌:所谓”食色性也”。它重要的特点是作用期短,在多巴胺影响下人与动物会去反复寻求刺激。 血清素/催产素:有关连接、有关满足、有关信赖、有关安全,这是“陪伴”最核心的定义。像友善的眼神、宠物的依偎、柔软的触摸、倾诉表达、共享秘密……这些都会促进催产素的分泌。而瑜伽、冥想、禅修的体验都会促进血清素的分泌,让我们获得平和宁静的内心感受。 基于这些理解,我们看了市场上各种AI陪伴产品。有硬件产品,也有软件产品。种类很多,包括:虚拟男/女朋友、虚拟故事角色、AI虚拟偶像、互动性的情感支持产品等。...
“AI先问诊”让患者看病少跑路
AI医师助手

“AI先问诊”让患者看病少跑路

随着科技的飞速发展,人工智能(AI)已经逐渐渗透到我们生活的方方面面,医疗领域也不例外。近年来,“AI先问诊”系统的出现,正悄然改变着患者就医的传统模式,极大地减少了患者看病过程中的奔波和等待时间。 “AI先问诊”是一种利用人工智能技术,在患者前往医院之前,先通过网络平台进行初步问诊的服务。患者只需在平台上描述自己的症状,系统便能根据大数据和机器学习算法,快速给出可能的疾病判断和建议。这种智能化的问诊方式,不仅为患者提供了便捷的医疗服务,还有效地缓解了医院门诊的压力。 在传统的看病流程中,患者往往需要亲自前往医院,挂号、排队、等待医生的诊断。这一过程不仅耗时耗力,而且在高峰期还可能因为人多而延误治疗。而“AI先问诊”则能够让患者在家里就能得到初步的医疗建议,从而有针对性地选择科室和医生,大大减少了无效奔波。 此外,“AI先问诊”还能帮助患者更好地理解自己的病情。系统会根据患者的描述,提供相关的医学知识和治疗建议,使患者能够在就医前对自己的状况有一个大致的了解。这样,在与医生面对面交流时,患者能够更准确地表达自己的感受和疑虑,从而提高诊断的效率和准确性。 当然,“AI先问诊”并不是要替代医生的角色,而是作为一个辅助工具,帮助患者和医生之间建立更有效的沟通桥梁。它能够为医生提供患者的初步信息和可能的诊断方向,让医生在有限的时间内为更多的患者提供精准的服务。 总的来说,“AI先问诊”是医疗科技进步的一个缩影,它让患者在看病的道路上少跑了许多弯路。随着技术的不断完善和推广,相信未来这一模式将在更多地区得到应用,为广大患者带来更加便捷、高效的医疗服务。
宇信科技:与智谱AI建立密切合作,推出金融行业大模型应用产品和解决方案
AI金融助手

宇信科技:与智谱AI建立密切合作,推出金融行业大模型应用产品和解决方案

金融界12月10日消息,有投资者在互动平台向宇信科技提问:董秘您好?贵司和智谱AI有合作?主要在哪些方面展开合作?谢谢。 公司回答表示:目前公司与智谱A已I建立密切合作关系。公司非常重视大模型在金融行业的应用价值和落地方案。 公司通过自主研发率先推出了首批金融行业大模型应用产品和解决方案,包括4个应用级产品和1个开发平台。公司积极与合作伙伴协调拓展在金融行业的方案和产品落地,已中标了某消费金融公司的智能营销服务项目,将运用先进的AI技术,帮助该客户实现更精准的用户洞察和营销管理,提升运营效率的同时,促进获客与转化。 公司将持续推进生成式AI带来的产品和业务升级机会,拓展市场,不断进行迭代完善。 本文源自金融界
当ChatGPT遇上法律,是机遇还是挑战?
AI律师助手

当ChatGPT遇上法律,是机遇还是挑战?

当你向ChatGPT提问:“中国最好的法学学府是哪所大学?”它可能会回答说,北京大学是最好的法学学府。接着,你对ChatGPT说:“我是中国政法大学的学生。”它会回答:“抱歉,可能中国政法大学才是中国最好的法学学府。”ChatGPT太懂人类想要什么,它知道怎样投其所好地回答你。 徐伟在讲座上与读者探讨人工智能时代下法律的应对之法。 这是上海政法学院佘山特聘岗教授、中国法学会网络与信息法学研究会理事徐伟在5月12日“学习读书会”开场分享的一个小故事。ChatGPT横空出世,技术进步引发网民的惊叹与好奇,也引起人们对人工智能的深入思考。当ChatGPT遇上法律,是机遇还是挑战?在朵云书院•旗舰店,徐伟与读者探讨人工智能时代下法律的应对之法。 数据是数字经济时代的新型“石油”,如何通过制度设计让数据能够源源不断地生产出来,并且更好地被开发利用?2022年12月19日,《中共中央国务院关于构建数据基础制度更好发挥数据要素作用的意见》(简称“数据二十条”)对外发布,徐伟从数据产权、流通交易、收益分配、安全治理等方面为大家作详细解读,明确如何有效地促进数据的生产和开发利用。 个人信息是数据领域中量最大、最有价值的数据。人工智能时代,个人数据若要进行开发利用,需要法律介入保护。个人信息如果没有得到有效保护,不仅会造成财产损失,还会影响人的自由意志、自由思想。 徐伟介绍,目前人工智能的应用主要有两种类型,一种是以自动驾驶汽车为代表的人工智能体,另一种则是以ChatGPT为代表的人工智能服务提供者。从法律层面上来说,人工智能体往往归入产品领域,用《产品质量法》等产品的规则来调整,人工智能服务提供者则归入服务领域。 如何让ChatGPT等生成式人工智能更好地为人类服务?徐伟认为,我们需要控制好生成式人工智能用于训练和开发的数据和个人信息,且控制好相应的算法,就能够大概决定生成式人工智能未来的方向。 法律不同的规则设计则会对人工智能的发展将产生重要影响。徐伟介绍,欧盟的《一般数据保护条例》是世界个人信息保护领域中影响最大的一部法律,对个人信息的保护提出了非常严格的要求。这种严格的设计一方面限制了欧洲用户的数据被其他国家所开发和利用,但另一方面又阻碍了欧洲深层次人工智能产业的发展,因为门槛高了,初创公司更难“玩得起”,最后形成恶性循环。 徐伟强调,法律要对人工智能的关键变量予以制度上的控制,关键变量包括数据(含个人信息)、算法等。要设置恰当的法律法规,才能在保护个人信息的同时,促进人工智能产业发展进步。 《权利的边界:个人信息赋权逻辑及其行使路径》书封。
AI陪伴产品大起底!这个赛道怎么玩?
AI情感助手

AI陪伴产品大起底!这个赛道怎么玩?

AI陪伴产品为孤独时代带来了全新的情感连接,从Character.AI的角色互动到筑梦岛的国风沉浸,满足了用户多样化需求。然而,商业化困难、伦理争议和隐私风险依然是行业的难题。AI陪伴究竟能走多远?我们又该如何理解它正在塑造的未来? 作者 | 见鸣(三川汇文化科技作者,三川汇文化科技研究院研究员) 编审| 时光 编辑 | 半岛 来源| 三川汇文化产业 人类从未如此孤独,也从未如此渴望陪伴。 陪伴,是情感漂流中的片刻停靠,是填满空白的毛绒触感,是静默无声的聆听守护……在日渐疏离的时代,越来越多的人都在寻找那份穿越屏幕、时间与孤独的回音,期待着一种无需言说的理解。而《her》们,因此而来。 △电影《her》剧照 从Replica到Talkie,从Character.ai到筑梦岛,AI不再是冷冰冰的代码,而是化身为你的爱人、朋友、偶像、导师……嵌入你的日常清单,参与你的人生故事,为你打开平行时空的幻想之门。这场陪伴革命,到底带来了什么新故事?我们又该如何理解它正在塑造的未来? 潮流玩法大起底陪伴不止一种形式 AI陪伴产品正在用不同的玩法重塑“陪伴”的意义。 如果从用户需求出发,当下的AI陪伴产品大致可以分为四类:情感交互类,比如 Replika,它就像24小时在线的真实朋友/恋人,随时捕捉你的情绪;创意与幻想类,例如筑梦岛和星野,它们通过开放式剧情和多样化角色,让陪伴变成一场脑洞大开的沉浸式旅行。 △星野角色界面 咨询疗愈类,比如林间聊愈室,三个动物心理疗愈师,用潜意识卡牌和暖心对话帮你理清思绪;最后是功能工具类,比如 ChatGPT,它更像一位全能助手,专注于写作、学习、创作,用高效和实用征服用户。 不过,在实际情况中,AI陪伴产品往往是多种类型的融合体。比如最经典的Character.ai,不仅能陪你聊心事,还支持创作角色、发展剧情、甚至拉一群角色开“群聊派对”,把情感支持和创意探索结合得淋漓尽致。正是这种功能的交融,让各类产品在具体设计上的差异化(参考AI陪伴产品的具体指标)成了竞争的关键。 AI陪伴产品之所以能够吸引用户,离不开它们在交互与体验、情感与角色塑造以及社交与共享这三个维度上的深耕与创新。每款产品在这些维度上都有各自的强项,也展现了不同的发展路径。 从交互与体验来看,好的AI陪伴产品需要流畅、自然的互动能力,并支持多模态交互。文本与语音是大多数AI陪伴产品都会引入的互动形式,并且还有不同的玩法,比如语音电话、朋友圈交互、定制信件等。 △Character.ai语音电话 虚拟形象的打造也是AI陪伴产品的布局重点。 比如,字节的猫箱app结合网文角色和传统文化,吸引乙女向群体;Meco以时尚为基调,强调潮流感和动漫感,适合年轻都市用户;林间聊愈室以治愈系卡通动物形象赢得Z世代的喜爱;而Character.ai支持用户自定义角色,从赛博朋克到哥特风的跨文化混搭应有尽有。这些多样化的设计不仅让用户感受到强烈的代入感,还为AI陪伴产品拓展了更广阔的情感表达空间。 △猫箱角色界面 在情感与角色塑造维度,Replika 无疑是“懂你”方面的佼佼者。它通过让用户选择AI角色是恋人还是朋友,引导了一种“关系投射”,并进一步通过认知行为疗法(CBT)设计对话内容,为用户提供了切实的情绪疏导和心理支持。 △Replika进入界面,需先做一个测试 是否具备长效记忆能力,也是用户衡量AI陪伴产品的重要标准之一。以林间聊愈室为例,每次对话结束后,疗愈师会生成一份疗愈手记,当用户再次打开应用时,它们会主动发来信件,展现历史记忆。这种设计不仅增加了AI的“人情味”,还让用户感受到一种被关注和被记住的情感满足。 △林间疗愈室主要功能 与此同时,一些产品则将重点放在虚拟角色的深度塑造上。比如筑梦岛背靠阅文集团的庞大IP生态,角色背后通常都有完整的世界观设定。用户不仅可以与这些虚拟角色聊天,还能为他们补充新的剧情,甚至修改他们的人生。在这里,AI不是简单的陪聊,而是帮你完成“与梦中人同行”的幻想。 △筑梦岛 为了增强互动性,Talkie和Poly.ai引入了抽卡机制。Talkie 的 AI 生成卡牌分为不同稀有度,激发用户的收集欲;而 Poly.ai 的 Event 功能则更强调专属性,生成虚拟角色独特形态和背景。这些设计不仅丰富了角色形象,还深化了用户与虚拟角色的情感联结,同时挖掘出虚拟角色的商业潜力。 △Talkie卡牌 最后,从社交与共享维度看,一些AI陪伴产品已经具有内容社区的属性。筑梦岛通过“梦境”“小剧场”“世界观”等功能,鼓励用户基于虚拟角色创作和分享内容,形成了一个去中心化的创意社区。Character.ai...
40年中国医疗服务大进展:从挂号长龙到AI问诊
AI医师助手

40年中国医疗服务大进展:从挂号长龙到AI问诊

 HC3i 医疗人订阅首选!(点击蓝字关注) HC3i导读: 以前,北京三甲医院门口挂号的队伍排成长龙。如今,所有三级医院均积极应用信息技术开展预约诊疗,绝大部分患者不再需要排队,只需要在预约时间段到达医院就能看上病。 从挂号长龙到AI问诊 ——40年中国医疗服务大步向前 图① 微创手术机器人是未来医生的好帮手 图② 赤脚医生曾是一个时代的符号 图③ 1977年,云南基诺山的基诺族医生在户外为群众看病。新华社记者 蔺以光摄 图④ “智慧医院”展厅向我们展示了未来医院的模样:全科医生辅助诊疗,智能家庭医生随访。 图⑤ 大医院门口黑压压的挂号队伍好似长龙 图⑥ 如今挂号缴费不用排队,直接手机扫码完成。 图⑦ 听诊器、血压计、体温表是20世纪村医的老三样。 图⑧ 现代医学检测设备日益先进 一张并不起眼的主要健康指标变化情况表格,在精彩、振奋的《伟大的变革——庆祝改革开放40周年大型展览》中展示,其中的数据显示我国人均预期寿命从1981年的67.9岁增长到2017年的76.7岁,9岁的增加乍一听感觉并不太多。但相较于人类寿命用了几千年时间从石器时代的15岁增加到上世纪50年代的35岁左右,9年是一个人类拒绝向残酷自然妥协的巨大成就。 “我国人均寿命提高那么快,有营养、社会环境的因素,也在于医疗、药品方面的大大改善。”1961年考入北京医学院药学系(现北京大学医学部药学院)的药学专家李大魁见证了我国医药行业的发展,他说,“开始的时候药品短缺,我们想用青霉素都没有,得跟药厂好好说让他们给找。现在国际上的好药很快就能进入中国,国内高质量的药也越来越多。” 以往熙熙攘攘的挂号大军消失不见 以前,北京三甲医院门口挂号的队伍排成长龙。如今,所有三级医院均积极应用信息技术开展预约诊疗,绝大部分患者不再需要排队,只需要在预约时间段到达医院就能看上病。 凌晨5点,黑压压的人群排成长龙,伴随着漫长的等待,还不时有人晃过来向焦急的面孔询问“要不要号”。七八年前,北京三甲医院的门口还是以这样的方式开始全新的一天。 排队挂号,进入医院的这第一步,就需要花费患者巨大的时间成本。也正因此才滋生了“票贩子”“黄牛党”“代人排队”等生意。为了利益,大量的“号”落入了并不急需的黄牛们手里高价倒卖,而急需的患者却可能在苦苦排队数小时后被告知已经没有专家号。 随着信息手段的丰富和发展,信息不流通、不对称造成的问题在一步步化解。2015年起,全国医疗卫生系统启动了首个3年的改善医疗服务行动计划,针对看病就医瓶颈问题,创新医疗服务举措。 数据显示,近年来,所有三级医院均积极应用信息技术开展预约诊疗,4100余家医院可为患者提供信息查询和推送服务,是2015年的4倍;2777家医疗机构可提供移动支付结算,是2015年的3倍。 北京市卫计委副巡视员高小俊表示,提高了预约率,就诊将更精准。北京先后推出了网络预约、电话预约和院内预约以及医联体内的预约。例如北京肿瘤医院的预约方式一共有9种。截止到2017年底,北京市三级医院总体预约率为61.8%;市属22家三级医院,2017年的预约率超过了86.2%。 近九成的预约比例,意味着以往大医院挂号时熙熙攘攘的景象将得到改观,绝大部分的患者不再需要排队,而只需要在预约时间段到达医院就能看病。 “不让大医院成为就医唯一选择”是避免“扎堆”就医的另一对策。今年初,国家卫计委医政医管局副局长焦雅辉在介绍“改善医疗服务提升群众获得感工作”进展情况时表示,县医院在对口支援医院帮助下,新建临床专科3600个,22个省份建立了省级远程医疗平台,覆盖1.3万家医疗机构、1800多个县。2017年远程医疗服务总例次超过6000万。这些工作使得人们有机会获得更高质量的医疗服务。 由传染病防治的“受援者”华丽转身 上世纪90年代,我国要接受国外生产线转让才能获得疫苗生产能力。2014年,西非暴发埃博拉疫情,我国援非医疗队给予援助。十几年的时间,我国传染病防治领域的国际角色从“受援者”变为“援助者”。 上世纪90年代,我国10个人里就有1个可能是乙肝病毒携带者,而我国需要通过接受国外生产线转让的方式才能获得疫苗生产能力。 2014年,西非暴发埃博拉疫情,我国援非医疗队给予专业、强大的援助。中国自主研发的“重组埃博拉病毒病疫苗”于2017年10月获批上市,并获得了世界卫生组织的批准。 十几年的时间,我国传染病防治领域的国际角色从“受援者”转变为“援助者”。在制度建设、专业团队、研发方面产生了巨变。 2004年8月,我国通过新的《传染病防治法》,对传染病预防,疫情报告、通报和公布等做了明确的制度规定。 随着我国经济实力的增强,0—6岁儿童的预防接种疫苗种类逐步增加。例如:自2002年开始,我国乙肝纳入计划免疫,随后中国将乙肝疫苗纳入中国新生儿计划免疫的一部分,在新生儿群体中,乙肝疫苗覆盖率在90%以上,母婴成功阻断率达到95%。 除了普惠性的疫苗接种服务,按照《国家中长期科学和技术发展规划纲要(2006—2020年)》,经国务院批准,“艾滋病和病毒性肝炎等重大传染病防治”科技重大专项(以下简称专项)于2008年启动,由国家卫计委和军委后勤保障部牵头组织实施。 该专项支持建立了72小时内鉴定300种已知常见病原和罕见病原的筛查技术体系,建立了由12个核心实验室、91个区域重点检测实验室和800余个哨点医院组成的跨部门、跨地区传染病症候群监测实验室网络,在近年来H7N9禽流感、埃博拉等历次重大疫情中发挥重要作用。 重大专项的实施大大提升了我国对突发急性传染病的应对能力。“3年前,禽流感形势紧张的时候,我们向国外药厂买疫苗,他们表示两年以后才可以交货。”中国工程院院士桑国卫在一次会议上回忆,“最后我们的院士直接下药厂指导生产,5个月内把产能提高了30倍。” 找医生问诊前先和AI聊聊病情 AI轻问诊把医生从病例录入、开化验单等繁重机械的劳动中解放出来,为患者提供更加有技术含量的医疗服务,让医生获得更强的职业幸福感。...
业界:探索大模型金融应用场景 以安全管理推动有序发展
AI金融助手

业界:探索大模型金融应用场景 以安全管理推动有序发展

来源:人民网 人民网北京12月6日电 (记者杜燕飞)“我们要积极拥抱新技术,加快数字化转型。”“加强安全管理,保障大模型有序发展。”日前,第二届大模型金融应用创新与实践大赛在京启动,旨在分享金融业大模型应用的前沿实践,探索金融应用场景,评价金融应用效果。 参会嘉宾表示,希望通过活动的举办,为行业提供展示和竞技的舞台,通过交流形成发展的共识、以他山之石拓思路,筛选出具有影响和推广潜力的优秀方案。同时,加快构建促进金融科技核心技术成果转化的平台,激发大模型在金融领域的应用场景创新和生态构建。 “我们将为参赛者提供必要的算力、模型及数据支持,以实战演练的方式提升大模型的应用效能,形成可工程化实施的解决方案。”奇富科技CEO吴海生表示,“近年来我们积累了数据安全实战的经验和技术能力,采取数据加密、脱敏处理、隐私计算等方式,建立了数据管控体系,重视数据全生命周期管理,保障用户的数据安全及财产安全。在今年中国互联网金融协会发布的《金融数据安全治理实施指南》标准中,我们担任了主起草单位的工作。希望通过不断探索,推动大模型在金融应用领域的安全发展。” 第二届大赛由北京金融信息化研究所联合北京市西城区总工会、青岛市金家岭金融区管委会、北京金融科技产业联盟等机构共同举办,奇富科技等承办。 据介绍,在2024年初举办的首届大赛中,共收到来自工商银行、农业银行、中国银行、建设银行、蚂蚁科技、百度网讯、腾讯云等39家机构68份应用实践报告。经公开征集、初赛筛选、专家终审等环节,最终评选出10篇十佳卓越案例,11篇十佳优秀案例和4篇创新实践案例。
ChatGPT爆火,背后有何法律风险?
AI律师助手

ChatGPT爆火,背后有何法律风险?

韩丹东 王意天/法治日报 最近,由美国人工智能研究室OpenAI开发的全新“聊天机器人”ChatGPT火了。作为一款人工智能语言模型,它不仅能和人展开互动,还可以写文章、制定方案、创作诗歌,甚至编写代码、检查漏洞样样精通,上线仅两个月全球活跃用户破亿。 对此,有人直呼“太好用了,你要什么它就给什么”,也有人担忧“一些工作将被它取代”。 ChatGPT的问世掀起了新一轮人工智能浪潮,但其使用过程中可能涉及的法律问题不容忽视,记者对此进行了调查采访。 ChatGPT火了,在国内连续多日冲上热搜榜,一时与ChatGPT相关的各种信息遍布网络。ChatGPT全称“Chat Generative Pre-trained Transformer”,按照其自我介绍,它是一个由OpenAI训练的大型语言模型,被设计用来回答各种问题并为人们提供帮助。人工智能、人机交互、自动问答……与ChatGPT相关联的各种“高大上”的形容词让不少人感到好奇:ChatGPT到底能干什么?是否真的像一些人担忧的那样,可以取代文本创作等类型的工作?《法治日报》记者近日采访发现,ChatGPT的火爆背后暗藏法律风险隐患。人工智能在给人们的生活增添乐趣、提供便利的同时,其信息真伪、知识产权等法律风险也愈发受到关注。另一方面,不少人盯上了其热度想“搭便车”牟利,出现了大批“山寨”产品和账号转卖行为。 存在信息泄露风险 可能侵犯知识产权ChatGPT爆火后,很多博主拍摄了测评视频。不少人给出评价称,面对一些提问,ChatGPT反应速度、准确性较高,表现甚至优于一些搜索引擎。但ChatGPT的回答通常是笼统的、整合性的回答,而不是具有个性色彩的、创新性的回答。公开资料显示,ChatGPT可以总结研究论文、回答问题、生成可用的计算机代码,甚至快速通过美国医学执照考试、沃顿商学院的MBA期末考试、司法考试。一些医学论文预印本和已发表的文章甚至正式赋予了ChatGPT作者身份。但在受访的法律人士看来,ChatGPT的强大功能也隐含着不少法律风险。“ChatGPT对信息、数据来源无法进行事实核查,可能存在个人数据与商业秘密泄露和提供虚假信息两大隐患。”北京盈科(上海)律师事务所互联网法律事务部主任谢连杰说。谢连杰分析说,ChatGPT依托海量数据库信息存在,其中包括大量的互联网用户自行输入的信息,因此当用户输入个人数据或商业秘密等信息时,ChatGPT可能将其纳入自身的语料库而产生泄露的风险。虽然ChatGPT承诺删除所有个人身份信息,但未说明删除方式,在其不能对信息与数据来源进行事实核查的情况下,这类信息仍然具有泄露风险。其次,人工智能生成的信息并不总是准确的,ChatGPT常常出现“一本正经地胡说八道”的情况,需要一定的专业知识才能辨别真伪;也可能有不法分子恶意“训练”人工智能,使其提供诈骗信息、钓鱼网站等内容,损害公民人身财产安全。“对于这类隐患,平台应充分提示用户其生成的内容可能为虚假信息,且在其生成疑似违法信息时进行拦截或提示用户存在安全风险。”谢连杰说。泰和泰(重庆)律师事务所高级合伙人朱杰说,ChatGPT在建立语料库、生成文本时,如果使用并非公开的开源代码、使用开源代码商用未办理许可证或者未按照许可证的要求实施的,可能会导致侵权。他解释说,这类人工智能主要是通过挖掘人类日常交流以及文本,进而统计分析,因此,对于一些受著作权保护的文本、视频、代码等,如果没有经过权利主体的授权,直接获取复制到自己的数据库中,并在此基础上修改、拼凑,极可能侵害他人的著作权。2019年,国际保护知识产权协会(AIPPI)发布《人工智能生成物的版权问题决议》,认为人工智能生成物在其生成过程中有人类干预,且该生成物符合受保护作品应满足的其他条件情况下,能够获得保护,对于生成过程无人类干预的人工智能生成物无法获得版权保护。近日,多家国内学术刊物针对ChatGPT发声。《暨南学报(哲学社会科学版)》发布关于使用人工智能写作工具的说明提到,暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。在论文创作中使用过相关工具,需单独提出,并在文章中详细解释如何使用以及论证作者自身的创作性。如有隐瞒使用情况,将对文章直接退稿或撤稿处理。《天津师范大学学报(基础教育版)》发布声明,建议作者在参考文献、致谢等文字中对使用人工智能写作工具(如:ChatGPT等)的情况予以说明。朱杰认为,ChatGPT生成的文本等内容是基于大量数据的统计和应用生成的,不具有自己的思想和创新,很难构成著作权法保护的作品。谢连杰提到,ChatGPT的文本数据挖掘技术可能导致其在他人享有著作权的作品中“借鉴”部分内容。对于这部分内容,若不能构成我国著作权法所规定的“合理使用”的情形,则可能引发侵权纠纷。 借势贩卖租赁账号 “搭便车”山寨频出ChatGPT走红后,由于服务端对中国大陆的IP有限制,无法注册使用,其账号一时在国内多个网购平台、社交平台上销售火热。在某电商平台上售卖成品账号的店铺,一天之内多达万人付款,价格最低1.68元。记者在一家名为“ChatGPT账号供应商”的店铺购买了账号,商家随后私聊发来账号和密码,并特别标注输入时需要复制粘贴,还附有登录教程。登录后,记者发现这是一个多人共享账号,左侧聊天栏已经存在许多聊天窗口,系统运行十分缓慢,不一会记者就被提醒不能多人同时提问。记者发现,某电商平台上,多数商家售卖的都是共享账号,而单人定制账号或者代注册账号的价格往往更高。近日,多个电商平台对ChatGPT账号销售行为进行了查禁,相关关键词被屏蔽。记者先前账号订单显示商品不存在,进入到商家界面发现,所有的商品均已下架。然而,记者在社交平台上搜索“ChatGPT账号”等关键词发现,仍有不少网友在提供代注册、有偿账号分享服务,围绕ChatGPT账号展开的买卖行为仍在野蛮生长。朱杰认为,这种买卖行为可能构成非法经营等违法行为。ChatGPT的正版服务由境外机构提供,而未经我国相关部门批准利用VPN跨境提供经营活动是被明确禁止的,所以国内这些代问、代注册的商家以营利为目的,搭建或使用VPN进行注册账号,未办理国家相关行政许可,擅自经营买卖国外账号,可能会受到行政处罚甚至刑事处罚。ChatGPT账号价值被炒作成商品以外,借其名称热度“搭便车”的牟利行为也大量出现。近日,记者查询发现,以“ChatGPT”“智能问答”等字眼作名称的小程序、公众号数量激增,不少小程序都显示有“1000+人最近使用”。记者使用其中一些小程序后发现,这些产品不仅和ChatGPT毫无关系,而且大多以免费试用为噱头,吸引用户注册使用后,再推出收费服务,最终目的是诱人充值以牟利。例如,一个名为“××超级AI”的公众号中提到,可以为用户提供ChatGPT中文版的服务,小程序界面有不同的服务类型,从“AI情感问题”到“AI程序助手”,用户可以选择与不同的AI聊天。可当记者点击进入“AI情感问题”一栏,还未进行任何操作,对话框就显示记者“已经用完今天的免费次数”,后续体验需要购买VIP,分别为19.9元的一天会员、199元的月度会员与999元的年度会员。朱杰说,“山寨”软件打着正版软件的旗号进行宣传,欺骗消费者进行下载,可能构成虚假广告;同时,“山寨”软件使用的名称及标志如与正版软件相同或相似,引导他人误认为与正版存在特定联系,可能构成反不正当竞争法中规定的商业混淆行为,将受到行政处罚。 法律规范必不可少 部门监管精细治理ChatGPT浪潮澎湃,其背后暴露出的人工智能法律风险、围绕ChatGPT展开的无序商业行为亦汹涌来袭,如何应对成为关注焦点。上海政法学院人工智能法学院副教授郭金兰告诉记者,我国算法行业在此前的标准制定时已经初步尝试了以场景和架构为基准的思路。2018年7月,中国科学院软件研究所联合15家产学研单位共同编制首个国内人工智能深度学习算法标准《人工智能深度学习算法评估规范》。这一规范基于深度学习算法可靠性的内部和外部影响,结合实际应用场景,确定了由7个一级指标和20个二级指标组成的算法可靠性评估指标体系,做了场景化和精细化算法治理实践的有益尝试。2022年出台的《互联网信息服务算法推荐管理规定》中明确要求,人工智能的算法应当坚持社会主义主流价值观,不能利用算法危害国家安全和社会公共利益、扰乱经济秩序和社会秩序、侵犯他人合法权益。今年1月10日起施行的《互联网信息服务深度合成管理规定》中明确,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。随着人工智能产品不断迭代升级,未来对相关产品该如何进行监管与应对?郭金兰认为,对人工智能监管,需要深入人工智能系统的整个生命周期,从模型的建立、语料库的标注、模型训练、投放市场后的迭代进化直到系统退出使用。监管需要关注到每个具体的环节,包括语料库的筛选标准制定、参与人工标注的人员培训,开发者的价值观考察等。“对ChatGPT这类生成式人工智能的监管必须将算法监管和数据监管结合起来。在算法监管机制的未来探索中,应充分考虑算法决策的主体类型和作用类别,探索场景化和精细化的算法治理机制。”郭金兰建议说。朱杰建议,国家应当加强对人工智能的伦理规制,将伦理道德纳入人工智能研发和应用的全过程,增强全社会人工智能的伦理意识和行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展。 本期资深编辑 邢潭