当AI走向“最不可能被代替”的产科超声 河南省人民医院超声科王睿丽:让医生接受它很重要
AI医师助手

当AI走向“最不可能被代替”的产科超声 河南省人民医院超声科王睿丽:让医生接受它很重要

每经记者 林姿辰    每经编辑 陈俊杰     超声检查领域难度最高的产科超声筛查正在被AI“拿下”,这是几年前的王睿丽想象不到的。 作为河南省人民医院超声科副主任,王睿丽在临床一线工作30年,见证了产科超声对新生儿健康的贡献。据新华社报道,与5年前相比,全国因出生缺陷导致的婴儿死亡率和5岁以下儿童死亡率均降低30%以上,神经管缺陷、唐氏综合征等严重致残出生缺陷疾病发生率降低约23%。 但即便如此,由于超声技术的局限性、医生技术存在差异等原因,国内的产科超声漏检事件时有发生。如何减少人为因素,尽可能提高产科超声的准确性,减少漏检、漏诊?AI会是一个好助手吗? 7月15日,王睿丽接受《每日经济新闻》记者采访时表示,目前的AI超声在一定程度和范围内已经可以胜任产前筛查,但超声医生既有的操作习惯和认知是产品广泛应用的“坎儿”,AI应用于临床仍需面临普适性和伦理问题的挑战,AI产品的工作流、切面细节显示仍需提高。 河南省人民医院超声科副主任王睿丽图片来源:受访者供图 曾认为产科超声“最不可能被AI代替” 作为一名同时有着30多年教学经验的超声科医生,王睿丽曾认为产科超声是最不会被AI(人工智能)代替的超声检查。这是因为胎儿与位置固定的器官不同,其在子宫内羊水中体位变化无法固定,可能会出现不同姿势和位置旋转,孕妇的身体情况也会对图像显示有影响。 在此基础上,产科超声医生不仅需要观察羊水情况,胎盘位置,还要观察胎儿主要的解剖结构、生长发育情况,检测难度非常大,即便是同一位医生,在不同时间的测量结果也会存在差异。 现在,很多低年资医生都很难做好的筛查项目,正在被AI“拿下”。具体来说,当超声医生手持的超声探头在孕妇的肚皮上扫描时,AI超声会快速识别用于观测胎儿发育状况的多个标准切面,并自动获取最佳标准切面快速测量胎儿头围、腹围、股骨长、肱骨长等指标。根据王睿丽的使用体验,AI获取的标准切面质量和测量准确性都较高,既可以提高医生的操作效率,也能节省患者的就诊时间。 王睿丽告诉记者,产科超声医生的工作量非常繁重,每一名孕妇的检查时间通常在半小时左右,“一个医生在加班的情况下,上午最多能做8名中孕期孕妇的检查,现在很多孕妇要提前一个月甚至更长时间预约产前筛查”。如果使用AI妇产超声,这些时间会大大缩短。 另外,AI在超声领域的应用场景还包括质量控制和医生教学。王睿丽表示,按照国家超声医学质控中心对于产科超声的最新要求,每名孕妇的超声检查需要至少保存22个切面、24幅图片,但临床获取的图片基本是这一数量的两倍甚至更多,因此质控小组平均需要在每个病例上花费十几分钟的时间挑选图片,但AI可以将这一时间缩短到一分钟以内,甚至几秒钟就可以完成。 而且,AI还可以对产科超声图片进行打分评价和动作指导,在产前诊断中心培训基层医生时,这一功能可以辅助完成教学和评估任务,提高培训效率,从而更高效地培养出合格的基层医生,提升产前超声筛查的整体水平。 AI超声仍面临普适性和伦理问题的挑战 尽管“了解后发现AI很好用”,但王睿丽坦言,让临床医生接受这个新鲜事物并不是件容易的事,其中最大的障碍源于产科超声医生的认知和操作习惯。 一般来说,培养一名合格的超声医生,往往需要3到5年,而在产前胎儿筛查领域,则可能需要5到8年。临床经验充足的老医生们知道超声技术存在局限性,超声波在某些情况下可能无法穿透胎儿的部分组织,或者胎儿的位置和姿势可能影响超声波的传播,因此对AI技术的信任不足,更倾向于根据个人经验进行操作。 “有点类似于家长让孩子做家务活儿,你教他做一部分,然后你再去做他没有完成的那部分,看似更省劲儿。但实际上还不如自己一口气干完。”王睿丽说。 另外,不同的超声医生在打切面时有不同的工作习惯,比如有的医生习惯先查基本测量切面,按照头部、腹部、心脏、脊柱、肢体的顺序获取标准切面,但AI对图像的识别速度特别快,在探头滑过肚皮的瞬间,会留存一系列标准切面,而这些切面的顺序是随机的,因为和医生的检测习惯不同,这可能会在一定程度上会降低筛查或诊断效率。 王睿丽认为,这两种现象的背后,是AI超声广泛应用于临床的现实挑战。目前,AI产科超声获取标准切片的准确性和完整性已经在有关研究中得到验证,但由于产科超声的复杂性和高难度,AI产科超声在大规模样本中的普适性价值还需要进一步的研究验证,相关的伦理问题也值得关注。 在工作流方面,AI产科超声的厂家需要与临床医生持续沟通,“只有把产品的工作流做顺畅了,AI超声才可能被临床医生接受,如果医生的接受度提高了,应该很快就能成功”。据王睿丽观察,目前AI应用是国内外超声设备厂家共同的研究方向,国产厂商的最大优势在于与临床医生的沟通速度,“他们的反馈特别快,所以我觉得这个磨合的时间可能不会太久”。 目前主要是产前筛查,还无法做到辅助诊断 目前,AI在产科超声的主要应用场景是产前筛查,还无法做到辅助诊断。 王睿丽告诉记者,从检查指标看,产前筛查和产前诊断的超声检查并无明显区别,但面向的人群和标准不同,产前筛查一般面向所有孕妇,有筛查标准切面要求;但诊断则面向有遗传性疾病、生育不良家族史的孕妇,或胎儿在筛查中出现可疑问题的孕妇,由于没有标准化的切面要求,产前诊断的准确性更多地依赖于医生的个人经验。 据王睿丽了解,在产前诊断方面,部分AI超声已经能够识别胎儿某部位的正常与否,甚至能提供几种可能性较高的畸形类别供医生参考,这样的功能可以缩小诊断的范围,但这距离辅助诊断还有很长一段的距离。 例如,有一类头颅切面显示了胎儿存在脑积水,但脑积水对应的先天畸形种类很多,要判断胎儿属于梗阻性脑积水,还是Dandy-Walker综合征、脊柱裂等,临床医生需要观察超声的其他切面,搜寻能够支撑某种畸形的其他表征。在这一过程中,医生需要根据经验截取一些非常规的切面,这些切面缺乏大量可学习的数据样本,是现阶段AI还无法实现产前诊断功能的原因之一。 但王睿丽认为,辅助诊断一定是AI应用在超声领域的未来趋势。实际上,目前的AI超声已经建立起畸形种类的数据库,可以帮助医生“解放”大脑。例如,有些畸形是多器官、多部位的综合征,很多医生不可能只靠大脑记住,但AI可以通过读取超声图片、识别异常部位,输出综合征对应的常见畸形,并指引医生观察其他重点部位的切面,从而做出最终诊断。 “人工智能的时代已经来临,你只能接受它。而且只有越早接受、接受越快,才能够适应这个时代。”王睿丽认为,AI可以作为超声医生的辅助工具,使临床工作更高效、准确。但对于患者情感需求、心理关怀等工作,AI难以胜任,而这也是一个提醒——临床医生除了关注患者的身体,还应关注心理、情感、精神方面的需求。 海量资讯、精准解读,尽在新浪财经APP
ChatGPT抄书被告!《权游》作者等17位作家集体起诉
AI律师助手

ChatGPT抄书被告!《权游》作者等17位作家集体起诉

澎湃新闻记者 戚夜云OpenAI再惹官司!《权力的游戏》原著作者等多名作家起诉OpenAI侵犯版权。 当地时间9月19日,包括乔纳森·弗兰岑(Jonathan Franzen)、约翰·格里森姆(John Grisham)、乔治·RR·马丁(George RR Martin)和朱迪·皮考特(Jodi Picoult)在内的一批17位美国著名作家,通过全美作家协会向纽约曼哈顿联邦法院提起集体诉讼,指控OpenAI在未经许可的情况下批量复制了原告受版权保护的作品,输入到该公司“大语言模型”中,并对用户类似的文本需求进行响应。全美作家协会在向曼哈顿联邦法院提交的一份文件中声称,ChatGPT被用来“模仿”作者的书籍“生成”内容,并引用了最近《权力的游戏》系列《冰与火之歌》两卷未发行的作品。值得注意的是,今年7月,就已经有两位作家对OpenAI提起了类似的诉讼,同样声称他们的书籍在未经同意的情况下,被用来训练该公司的聊天机器人。“这些大语言模型作为被告庞大商业的核心,正在大规模地系统性盗窃。”全美作家协会在向曼哈顿联邦法院提交的一份文件中表示,“这些大语言模型危及小说作家的谋生能力,并认为 OpenAI可以选择在公共领域作品上训练其语言模型,或者支付许可费来使用受版权保护的作品。”全美作家协会并未透露实际损害赔偿金额,根据相关法律,法院最高可支持向每件侵权作品支付15万美元的法定损害赔偿。OpenAI发言人20日在接受媒体采访时表示,他们正在与“包括作家协会在内的世界各地的许多创作者进行富有成效的对话,并一直在合作、理解和讨论他们对人工智能的担忧”。澎湃新闻注意到,在此前类似的诉讼中,OpenAI在8月份的一份版权申请中表示,此类主张“误解了版权的范围,没有考虑到限制和例外(包括合理使用),这些限制和例外为创新留下了空间,例如现在的大型语言模型。”目前针对人工智能的诉讼并不少见。在不久前的9月8日,知名作家兼编剧迈克尔·夏邦 (Michael Chabon) 等作者也向OpenAI起诉,指控其侵犯版权。除此之外,Getty Images在2月份起诉Stability AI,指控其文本转图像生成器背后的公司复制了Getty Images的1200万张图像作为训练数据。一月份,Stability AI、Midjourney和DeviantArt 因其人工智能图像生成器的版权问题,同样遭受集体诉讼。此外,微软、GitHub和OpenAI卷入了11月份提起的集体诉讼,指控这些公司窃取许可代码来训练其代码生成器。 本期编辑 邹姗
金融大模型,要听见远方的风
AI金融助手

金融大模型,要听见远方的风

文 | 脑极体 金融大模型,被认为AI大模型产业化落地的第一站。 金融行业有着结构化数据充沛、应用场景丰富、数字化基础设施良好等一系列特点,这些都是融合AI技术的利好因素。所以当AI大模型开始爆火之后,各界会不约而同认为金融是AI大模型的天然良港。 从2023年至今,中国金融大模型市场的发展也确实印证了这一判断。根据相关数据,目前中国市场已经有近20个金融大模型落地应用,头部金融机构要么已经应用AI大模型,要么展示了对AI大模型的研发与应用计划。 要知道,在降本增效的大背景下,金融机构目前还需要兼顾移动金融、数字系统自主替代等多项数字化投资目标,能够分给AI大模型的资源并不丰富,而AI带给金融机构的投资回报比还非常有限。高效上马大模型,对金融行业来说真的值得吗? 记得2023年我在参加一个金融科技峰会时,与一位银行代表进行沟通。他提出金融机构做AI大模型,最根本的动力是担忧。在移动互联网时代来临前,全球金融行业普遍低估了新技术带来的冲击力。随后被Apple Pay、支付宝、微信等移动互联网平台分润了时代红利。不让类似境况重演,是驱动金融机构加码AI大模型的底层动机。 如果是这样的话,金融行业仅仅快步走向大模型并不够,同时还需要听见远方的风,要能够从长期目标来回溯中短期的行动规划。 今天,我们就从这个观点出发,聊聊快速用上了大模型之后的金融行业,接下来走向何方? 金融大模型,从高速覆盖1.0,走向价值最优2.0 从全球到中国市场,生成式AI带来的大模型之变,都在一年多的时间里掀起了金融行业的科技革新浪潮。 在国际上,OpenAI将金融行业视为GPT技术落地的首站,比如其与摩根士丹利合作,推出了基于 GPT-4的投资顾问机器人。 而在中国金融行业,AI大模型可谓以前所未有的态势得到了高速覆盖。在短短一年多的时间里,处于头部地位的银行、券商以及保险机构纷纷完成了金融大模型的落地应用。 比如说,工商银行就宣布建成了同业首个全栈自主可控的千亿级AI大模型技术体系,并在多个金融业务领域实现了创新应用。例如在网点运营上,推出了基于大模型的网点员工智能助手。农业银行AI推出了类ChatGPT的AI大模型应用ChatABC,并在科技问答场景进行了内部试点。邮储银行通过接入百度“文心一言”,从而在智能风控、智能运营、智能投研、智能营销等场景进行大语言模型应用。 在民营银行层面,网商银行将大模型技术应用于产业金融层面,从而识别小微企业的信用画像。在保险行业,众安保险搭建了“众有灵犀”系统,将大模型带入智能客服、到期提醒、智能运营等业务场景中。 而从技术与解决方案供应商的层面看,目前中国市场已经呈现出多样化的金融大模型技术供应渠道。腾讯云、蚂蚁金服都推出了金融大模型解决方案。面向金融行业既需要大模型落地,同时也需要基础设施更新的需求。华为在2023年依托盘古大模型,推出了金融级PaaS解决方案,发布了包括AI for Data、AI for Business、AI for IT三大类10个场景的金融大模型方案。 而在开源大模型层面,度小满开源了轩辕大模型,其在1760亿参数的Bloom大模型基础上训练而来,已经应用在度小满各个业务场景,覆盖了从营销、客服、风控、办公到研发等场景,并在一系列大模型评测中取得了领先地位。 可以看到,金融大模型已经快速走过了以高速覆盖为特征的1.0时代。在第一阶段,金融大模型相关技术与解决方案快速出炉,头部金融机构竞相试用,为中国金融大模型的发展打下了良好的基础。 金融大模型第一阶段的发现成果显而易见,比如说,技术发展速度快,用户积极性高。同时金融大模型的业态覆盖非常完整,从银行到保险、证券等领域兼顾,此外相关的技术能力供应链已经完善。闭源模型与开源模型兼顾,多种部署方式完备,与金融大模型相配套的软硬件基础设施已经较为齐全。 但在接下来,金融大模型需要从具有探索性质的1.0阶段,走向必须要求回报率,要体现长期发展价值的2.0阶段。 这一阶段,金融大模型需要面临的挑战更加复杂,同时战略方法论的问题也将浮出水面。 已经暴露出的挑战 统观金融大模型的落地进程,会发现其中表现出的优劣势逻辑,与此前AI技术落地金融业如出一辙。第一阶段,行业会直观感到AI很好用。但接下来,AI能否带来充足的投资回报,能否深入业务核心,才是更大的挑战。 目前,金融大模型也遇到了类似问题。首当其冲,大模型所带来的智能幻觉、数据污染等问题,与金融行业对专业性、安全性的极高需求是难以匹配的。 其次,由于金融行业极高的涉密等级与安全合规要求,往往需要私有化进行大模型部署,同时禁止模型学习大量数据,禁止数据过分流动。这又催生了两个问题,一个是私有化部署给金融机构带来了极大的研发与运维成本压力。另一个是高安全等级与限制数据使用,带来了金融大模型效果不佳等问题。 对于金融机构来说,不仅是研发、训练大模型的成本过高,将模型进行场景化部署的成本压力也很大。由于目前金融大模型还处在探索阶段,难以带来实际的商业回馈,因此其部署往往是在机构内部,或者边缘业务中。这就导致部署成本不断放大,但商业化价值却迟迟无法释放。 最后,也正是处于金融行业高安全,与大模型技术不够成熟二者间的差距。金融大模型普遍无法在金融核心业务中进行部署。比如大模型加持的智能客服,不仅无法代替客服人员,还可能出现需要频繁唤醒人工客服,且需要客服重新理解用户需求的现象。而在风控等产业应用侧,大模型虽然表现出了巨大的潜力,但还无法真正处理较为复杂的风险异常。 这种情况下,金融大模型很可能在运行一段时间,热度相对褪去之后,又和许多金融科技一样流于边缘化。 如何才能突破技术与产业之间的长期壁垒?这可能需要金融大模型听到一些来自远方的风。 从未来,回看现在 布莱特·金在著名的《银行4.0》中,第一章就在讨论第一性原理的回归。即我们需要回归问题的本源,回归设计的本质。放在金融场景,就是我们首先需要理解银行被设计出来是为了什么,继而在讨论银行应该如何发展。 想要打破金融大模型可能面对的壁垒,我们也必须有这样一个意识:去思考,去判断,甚至去假设未来大模型究竟能给金融带来什么,再从未来倒推现在。 哪怕这个未来相对遥远,至少远方的风不会带我们走进死胡同。 那么,AI大模型到底能为金融带来什么? 这个问题可以分为两个维度去理解,一个是技术维度,一个是应用维度。 从技术上看,大语言模型的技术升级路径已经相对确定,业界对其技术发展范式以及工程化实践已经有了明确的共识。 比如说,最近我们读了由度小满金融技术委员会执行主席、数据智能应用部总经理杨青所撰写的《大语言模型:原理与工程实践》。书中除了明确提出了大语言模型的多项关键技术之外,还指出了其在涌现能力、推理能力上的特点,以及广受关注的大语言模型缩放定律。随着模型训推能力的提升,大语言模型将持续出现智能涌现效果。这一技术锚点是金融行业所追寻的长期价值,也是度小满等金融科技供应商探索大语言模型的价值关切。...
人工智能可以具有心灵吗——从“中文房间”思想实验谈起
AI情感助手

人工智能可以具有心灵吗——从“中文房间”思想实验谈起

人工智能可以具有心灵吗? 人工智能可以具有心灵吗?对于这个在哲学领域和人工智能领域都极为重要的问题,人们一直争论不休。有的人沿袭图灵的行为主义观点,主张只要人工智能可以表现出与人无法区分的对话能力或行为能力,就可以被认为具有心灵。有的人则不同意这种观点。 约翰·塞尔 美国哲学家约翰·塞尔把人工智能分为“强人工智能”和“弱人工智能”。具体而言,强人工智能观点认为经过恰当编程的计算机可以具有理解和其他认知状态,也就是具有和人一样的心灵。而弱人工智能观点则认为计算机无论带有什么程序都仅仅是人类进行研究的工具,不可能具有理解能力和诞生出心灵。 强人工智能和弱人工智能争论的焦点之一就是恰当编程的机器是否具有理解能力。首先听下面这样一个故事:一个人走进一家餐厅点了一份牛排,服务员送过来一份焦黑的牛排,这个人很生气,大骂几声后冲出餐厅,没有买单。现在,如果问你:“这个人吃牛排了吗?”你会根据推测回答:“他没有吃。”早在上个世纪80年代初就有机器能作出这样的回答。这些机器具有像人那样的关于餐厅信息的“表述”,在听到这类故事及问题后可以做出类似的回答。当时强人工智能一派的人认为,具有上述应答能力的机器不仅仅是在模拟人的能力,同时断言机器理解了这个故事并且机器的程序在某种意义上解释了人类的理解能力。 塞尔认为并非如此,于1980年设计了一个后来被称为“中文房间”的思想实验来反驳强人工智能的观点。 这个思想实验的内容大致如下:假定一个以英文为母语、完全不懂中文的人被锁在一个房间里,房间里有一盒中文字卡片和一本用英文写的规则书。规则书里写了如何操作中文字卡片的规则,但没有给出任何中文字词或中文句子的含义。当用中文写着问题的纸片通过门上的小窗口递进房间时,房间里的人严格按照规则书的规则操作,用中文字卡片组合出词句来作为递进来的问题的答案,然后把答案送出门外。这答案在房间外的人看来,和懂中文的人的回复一样完美。当用英文写的问题从门外递进来时,房间里的人直接用英文母语进行回复。 现在我们根据这个思想实验来审视强人工智能的两个论断:恰当编程的计算机可以理解故事,同时,这个程序解释了人类的理解。 关于计算机可以理解故事的论断,塞尔认为在这个中文房间思想实验中,房间里的人的行为就相当于计算机的运行过程,规则书就相当于计算机的“程序”。虽然房间里的人给出了中文回复,但他并不理解中文。同样地,给出恰当回复的计算机,也不理解问答涉及的内容。 关于第二个论断即程序解释了人类的理解,塞尔认为没有任何证据或理由支持这种说法。房间里的人在中文问答和英文问答中进行的思想和操作过程是不一样的。在中文场景,他以类似计算机程序的方式进行操作,他什么也不理解;而在英文场景,他理解了每样东西,却没有任何理由认为他的大脑是以计算机程序的方式进行理解的。计算机程序既不是理解的充分条件,也没有任何理由认为其是理解的必要条件。所以计算机程序和理解完全是两码事。 有些人可能会问,理解究竟是什么?这个问题暂且不去讨论,但我们应该能明显地感觉到,我们对用母语写的故事的理解与声控灯对声音的“理解”是不一样的。 中文房间思想实验被提出来后,很多人对此思想实验及其论证的观点表示质疑,并提出了各种反驳的理由。于是塞尔试图把这些反驳逐一化解。 反驳一 系统反驳 有的人会反驳说,房间里的人作为系统的一部分确实不理解中文问答内容,但是包含房间里的人、规则书和中文字卡片的整个系统是理解中文问答内容的。塞尔对于这种系统理论的回答是:可以让房间里的人把系统中包含的这些元素内化。当房间里的人把规则书和中文字卡片都牢记下来后,他就可以摆脱这两样东西,甚至走出房间。如果别人递给他中文字条,他就可以在自己的大脑中进行演算,在脑海中根据规则书中的规则用中文字组合出恰当的回复。在这种情况下,他就相当于原来的中文房间系统,他作为系统还是一点都不理解中文。所以原来的中文房间作为整体也是不能理解中文的。 反驳二 机器人反驳 有人提出设想,模仿人的感官给一个人形机器人的头部装上一系列传感器,比如摄像头、麦克风、嗅觉传感器、触觉传感器等,然后将一台计算机放入这个机器人的头部,并给这台计算机编写足够厉害的程序,使得计算机不仅能将形式符号作为输入和输出,而且能控制这个机器人做出类似感知、行走、制作东西、修理东西等人类能做的任何事情。比如当机器人看到一块小石头时,就可以说出“石头”这个词语,可以做出捡起石头、踢走石头或其他动作。在提出此设想的人看来,这个机器人可以将物体与对应符号指称联系起来和做出动作,它应该具有真正的理解能力和其他心理状态。 塞尔认为,增加了这种“感知”和“动作”能力,并没有在理解和意向性方面给原来的计算机程序增加任何东西。中文房间思想实验仍然适用于机器人的情况。假设把原来的中文房间系统缩小,用来代替机器人中的计算机,机器人感知到的信息经过转化变成中文符号后被送入房间,房间里的人像之前一样根据规则进行操作,递出的中文符号就作为机器人的动作指令。在这个过程中,房间里的人依然不理解中文,也不知道输入的感知信息和输出的动作指令是什么意思。他只是根据规则对形式符号进行处理。所以机器人没有理解能力和意向状态,它只是在受电路和程序支配进行运动而已。 反驳三 大脑模拟器反驳 另外有一些人假定设计一个程序,它模拟讲中文母语的人在理解中文问题和做出回答时在他大脑中神经元突触激活的实际形式和过程。装了这个程序的计算机,接收用中文提出的问题作为输入,程序模拟懂中文的大脑在处理中文时所激发的神经突触的形式结构来对输入信息进行处理,并输出中文回答。在这种情况下,我们似乎很难否认,这台计算机是可以理解中文的。 塞尔认为即使人工智能以接近于大脑的方式运行,仍然不足以产生理解。他设想让一个只懂英文的人去操作一套复杂的具有连接阀门的水管系统,而不是在房间里摆弄符号。这个人在接收到中文符号时,他根据用英文写的能模拟懂中文的大脑中突触激活形式的程序,去打开或关闭连接阀门,使得每一个连接阀门的打开或关闭都对应于懂中文的大脑的一个突触的激活或抑制,当所有的阀门都被正确操作之后,就完成了对懂中文的大脑处理中文过程的模拟,中文答案就会在水管系统的输出端冒出来。在这个过程中,这个人是不懂中文的。那么整个水管系统理解中文吗?人是可以将水管的形式结构内化的,并在他的想象中进行用水管系统的水流连接来模拟“神经元激活”的操作。因此,水管系统也是不理解中文的。 反驳四 他人心灵反驳 有的人提出反对,既然我们是根据其他人的行为来判断他们可以理解中文,或者有别的认知能力,假设现在计算机能表现出与人无差别的行为,如果我们认为那些人有认知能力,那么原则上,我们也应该承认计算机有认知能力。 对于这种反对意见,塞尔不想多费笔墨去回答,他的简单回应是:在“认知科学”中人们预先假定了人的心理的实在性和可知性,否则就失去了进行探究的基础。至于计算机,认知不可能仅仅是计算过程及其输出,因为在认知不存在的情况下,计算过程及其输出也可以存在。 说完塞尔对这些反驳的回应之后,接下来讨论一个问题:中文房间里的人在英文问答场合所具备的,而在中文问答场合所不具备的东西,是什么呢?不管这种东西是什么,我们能把它给予机器吗? 塞尔认为我们是不可能把这种东西给予机器的,因为机器不具备产生这种东西的物质基础,其本身所进行的形式符号处理更产生不了这种东西。中文房间里的人之所以具有理解英文的能力和具有其他形式的意向性,是因为他是某种有机体,具有某种生物化学结构,在一定条件下,这个结构能以因果的方式产生感知、理解、行动以及其他意向性现象。只有具有这些因果能力的东西,才可能具有意向性。仅有纯形式程序的机器,因为形式特性自身不能构成意向性,它们自身也没有因果能力,它们的能力只是随着机器运行而产生下一步的形式体系,所以并不足以凭借其自身产生意向性。 支持强人工智能的立场实际上预设了一个二元论的强版本。强人工智能的支持者相信可以在计算机上通过编写和运行程序来再现和解释心灵,这样心灵就不再是独属于大脑的产物,而是可以由其它物质结构产生。这就意味着他们相信心灵既在概念上、也在经验上可以与大脑相分离。他们的这种观点值得怀疑,“心灵之于大脑,犹如程序之于硬件”这个等式,是不能成立的。因为程序是独立于任何硬件材料的,而心灵不能脱离大脑那样的生物化学特性;程序是纯形式的,心灵却不是形式的。大脑和计算机之间不可能建立起这样的类比关系。 “机器能够思维吗?”对于这个问题,塞尔的观点是,只有一些类型非常特殊的机器,即大脑和那些与大脑具有相同因果能力的机器,能够思维。这就同只有叶绿素和其他光合色素能完成光合作用有相似之处。意向性是一种生物现象,它很可能像泌乳、光合作用或任何其他生物现象一样,与生成它的特定生物化学特性具有因果相关性。谁都知道,对泌乳和光合作用的反应过程的计算机模拟无法得到牛奶和糖类。用计算机来产生心灵,就是一种对人类心灵的模拟,而模拟不会真的产生心灵,模拟和复制不能混为一谈。 中文房间思想实验自40多年前被提出后,一直受到很多人的关注和讨论。有些人喜欢中文房间思想实验设计的巧妙和哲学论证的力量,并对其论证的观点给予不同程度的支持;有些人认为这个思想实验离驳倒图灵测试所代表的行为主义或功能主义的最终目的还有一点距离;还有些人则并不认可这个思想实验及其背后的主张。那么你是怎么认为的?
美国《大西洋月刊》:你会把健康交给人工智能吗?
AI医师助手

美国《大西洋月刊》:你会把健康交给人工智能吗?

来源:环球时报 美国《大西洋月刊》7月12日文章,原题:你会把健康交给人工智能吗?日前OpenAI首席执行官萨姆·奥尔特曼和企业家阿里安娜·赫芬顿与我的同事查理·沃泽尔谈到了他们用生成式人工智能(AI)重塑美国医疗体系的雄心。他们宣布合资成立企业Thrive AI Health,提供一款聊天机器人,根据个人的特定健康需求提供行为建议。 聊天机器人频频出错,我甚至犹豫是否要根据其建议给树浇水,遑论在我的身体里放点什么了。但其支持者承诺,伟大时代即将到来。这一愿景是诱人的,正如赫芬顿所言:“我们的医疗体系已经崩溃,数以百万计的人因此而受苦。”但有些问题可能太大了,AI无法处理。还有另一种看待Thrive AI Health的方式:各家公司仍在努力弄清楚AI的真正好处。 Thrive AI Health承诺将OpenAI的技术引入我们生活中最私密的地带,评估健康数据并提出建议。Thrive AI Health将改良现有的医疗聊天机器人领域,改善人们的健康状况,降低医疗保健成本,并显著减少全球慢性病影响。 奥尔特曼和赫芬顿将该公司描述为重塑医疗体系中的“关键基础设施”。他们还表示,该公司未来推出的聊天机器人可能会鼓励你“把下午喝的第三杯苏打水换成水和柠檬”。他们称,这款聊天机器人是“超个性化人工智能健康教练”,也是 Thrive AI Health 宣传的核心。这款机器人将根据用户的生物特征和健康数据生成“个性化人工智能驱动的见解”,提供信息帮助用户变健康。例如,AI教练可能提醒一个忙碌的糖尿病患者按时服药并提供健康食谱。 这让我觉得很难接受:两位有钱的知名企业家要求普通人把他们最私密、最重要的健康数据交给一个唠叨的机器人?健康应用很受欢迎,人们允许科技工具每天收集各种各样的个人数据,比如睡眠、心率和性健康信息。如果该公司成功了,市场潜能难以估量。但AI让事情变得复杂起来,它为公司打开了一扇大门,可以根据隐私信息训练模型。奥尔特曼和赫芬顿正在让全世界相信,AI有朝一日将能够改变我们与自己身体的关系。 赫芬顿说,AI健康教练的不同之处在于,这项技术将足够个性化,以满足个人行为改变的需求,而美国目前的医疗系统却无法满足这种需求。奥尔特曼说,他相信人们真心希望技术能让他们更健康:“我认为AI能真正改变世界的案例很少。让人们更健康当然是其中之一。” 这两个答案听起来都很真诚,但每个答案都需要一定的信仰。我们需要信仰,它是推动进步的强大动力,是拓展我们视野的途径。但是,在错误的背景下,信仰是危险的,尤其是盲目的信仰。一个由盲目信仰驱动的行业似乎尤其令人不安,它给了贪婪之人以巨大杠杆,允许妄想快速赚钱的骗子伸出“第三只手”。一个以信仰为基础的行业最大的诡计是,它毫不费力地不断改变目标,抵制评价,回避批评。别有用心之人“画大饼”欺骗着不知情的人。与此同时,不成熟的愿景可能永远不会等来救赎。(作者达蒙·贝雷斯、查理·沃泽尔,王逸译)
过去一年,ChatGPT吃了多少官司?
AI律师助手

过去一年,ChatGPT吃了多少官司?

ChatGPT,又吃官司了。 2024年元旦前夕,ChatGPT遭到美国《纽约时报》的诉讼,指控这两家公司未经授权,将数百万篇时报文章用于训练ChatGPT和微软Copilot聊天机器人。 微软是OpenAI的最大股东,自2019年双方合作以来,微软至少向OpenAI投资了130亿美元。 据此,《纽约时报》要求OpenAI和微软删除任何包含其版权材料的训练数据,并称侵权行为可能造成了数以十亿美元计的法定和实际损失。 稍显讽刺的是,在2023年初ChatGPT风靡之际,《纽约时报》一度表示,ChatGPT是“有史以来最好的面向大众的人工智能聊天机器人”。 作为第一家起诉OpenAI和微软的美国大型媒体机构,《纽约时报》无疑扣动了关于版权之争的扳机,甚至有人认为可能成为AI侵权的里程碑式案件。 OpenAI发言人对此回应称,希望能找到一种互利的合作方式,就像与许多其他出版商所做的那样。 显然,OpenAI不想和包括《纽约时报》在内的媒体机构闹翻。 刚刚过去的2023年,ChatGPT成了全球最火爆的新生事物,也伴随着最多的争议。 毕竟靠着ChatGPT产品的强劲增长,OpenAI最新的年化收入已经超过了16亿美元。据OpenAI内部预测,2024年的收入有可能接着翻几番达到50亿美元。 但是,过去一年,ChatGPT吃的官司,远比想象中多得多。 从作家到律师,再到被收集个人信息的普通人,ChatGPT不断引来各种法律纠纷。围绕ChatGPT生成的内容,也是争议重重。 屡屡“吃官司”的ChatGPT 纵观去年至今一年来ChatGPT所遭遇的法律纠纷,大致可以分为三类,即侵犯版权、侵犯个人隐私、造谣或传播虚假信息。 就在《纽约时报》将OpenAI和微软告上法庭的前几天,11位美国作家在曼哈顿联邦法院提起诉讼,指控OpenAI和微软滥用自己所著的书籍来训练ChatGPT,而这样的行为无疑是在“刮取”作家们的作品和其他受版权保护的材料。他们希望获得经济赔偿,并要求OpenAI和微软停止侵犯作家们的版权。 更早之前的2023年9月,包括《冰与火之歌》作者乔治·马丁在内的17位作家向美国纽约联邦法院提起诉讼,指控OpenAI“大规模、系统性地盗窃”,公然侵犯了作家们登记在册的版权。 此次诉讼的组织者美国作家协会控诉,这些作者的作品从盗版电子书库中被下载后,又被复制到了ChatGPT中,由此OpenAI能从中获利数十亿美元。 “我们必须阻止这种盗窃行为。为了保护文学,作家必须限制AI能否与如何使用他们的作品。”美国作家协会CEO玛丽·拉森伯格在一份声明中说。 除了侵犯版权,ChatGPT还曾因“抓取”个人数据而遭到集体诉讼。 2023年6月,有16名匿名人士向美国加利福尼亚旧金山联邦法院提起诉讼,称ChatGPT在没有充分通知用户,或获得同意的情况下,收集和泄露了他们的个人信息。 具体来看,原告指控两家公司通过其AI产品“收集、存储、跟踪、共享和披露”数百万人的个人信息,包括产品详细信息、账户信息、姓名、联系方式、电子邮件等。 据此,他们要求微软和OpenAI赔偿30亿美元。 ChatGPT的另一宗“罪”,是涉嫌造谣及传播虚假信息。用时下流行的话来说,就是“一本正经地胡说八道”。 在美国近来的一起诉讼案件中,一名律师帮原告打官司,却靠ChatGPT来帮忙,一口气在辩护词中引用了6个ChatGPT提供的案例。这些案件均配有大段引文,原告与被告公司之间的恩怨情仇也写得清清楚楚。 结果法院在审理时发现,这些案件根本不存在,而是该律师求助的ChatGPT所捏造出来的。 “我很后悔自己依赖ChatGPT。我不知道它给的内容可能是假的。”这名从业30年的律师忏悔道。 很显然,这与ChatGPT的智能水平有关系,当遇到“没学过”的领域时,就会发生种种令人啼笑皆非的“翻车”现象。 ChatGPT有多智能? 自2022年11月上线以来,ChatGPT便风靡全球。 具体到个体,已经有人对ChatGPT的智能化水平从“兴奋”变成了“惊恐”。 据OpenAI此前公布的成绩显示,GPT-4非常善于参加标准化考试。 在没有进行培训的情况下,在模拟律师资格考试、SAT阅读考试和SAT数学考试中都位列前10%。 借助ChatGPT,有程序员将软件开发周期从8-10周缩短至不到一周。 有艺术家宣布,他在9个月内用AI创作并出版了97本书,净赚2000美元。 据美国佛罗里达金融学院公布的一项研究表明,将ChatGPT融合在投资模型中,可以预测股市的走势,投资回报率甚至可以达到500%,堪称AI界的巴菲特。 Steven是一名大厂员工,某种程度上,ChatGPT已经成为了他的重要参谋。“无论是做方案还是汇报,我都会先听听ChatGPT的意见,这给了我很多灵感。”Steven对《凤凰WEEKLY财经》表示。 ChatGPT的效用不仅发挥在工作中,在生活中,他还曾让ChatGPT扮演一名幼儿教师与他5岁的孩子对话,一问一答之间,这场对话居然持续了40分钟。“超出意料,ChatGPT还可以帮忙带孩子了。”Steven感慨道。 这也印证了一些科学家的发现:GPT-4具有比以前更明显的机器觉醒迹象。 OpenAI联合创始人GregBrockman直播演示GPT-4 但如果说ChatGPT现在就能令人类感到“惊恐”,显然也是杞人忧天。 2023年12月28日,香港城市大学数据科学学院讲座教授祝建华在北京师范大学新闻传播学院举办的《人工智能与未来媒体大讲堂》上表示,对ChatGPT的能力应“谨慎看待”。 他认为,ChatGPT的理解能力和再现能力非常强,已经达到和大部分人能力相等的程度。 同时,ChatGPT也具备一定的创新能力和推理能力,只是目前还比较弱。至于情感能力和自主意识,应该是没有的。 这也带来了一个好消息和一个坏消息。“好消息是,人类可以从低等、重复、繁重的生产过程中解脱出来。坏消息是,我们的很多工作就会被机器代替。更坏的是,智能中必然会包含自主意识,到时候机器可能就会赶超人,消灭人。当然,如果现在或将来都无法通过图灵测试(一种测试机器人是否具备人类智能的方法),那意味着机器只能做一些简单的工作,对人类的威胁也就解除了。”祝建华进一步解释称。 最新的趋势是,GPT-4大模型有“变懒”的迹象。越来越多的用户在社交网站上抱怨,GPT-4有时只给出问题的一半答案,剩下的一半要求用户自行完成。 此前OpenAI官方也承认,GPT-4模型在11月11日后就没有更新维护过,不过拒绝透露这是否和公司的人事变动有关。...
在GPT风口的金融行业
AI金融助手

在GPT风口的金融行业

近期,多家金融机构、金融服务机构发布其AI大模型。彭博发布支持金融领域的自然语言处理(NLP)任务的BloombergGPT,中国工商银行发布了基于昇腾AI的金融行业通用模型,中国农业银行推出类ChatGPT的大模型应用ChatABC。生成式和理解式大模型在银行、保险、资管、投研、投顾等多个细分领域正在落地或拥有潜在落地场景,在帮助金融机构降本增效中功不可没。 奇富科技认为,金融行业作为数据密集型的垂直领域,拥有大量的数据资源,包括客户交易数据、市场数据、宏观经济数据等。这些数据的丰富性和多样性为金融企业提供了广阔的发展空间,同时也为人工智能技术的应用提供了良好的基础。金融行业有望成为AI大模型率先落地的垂直领域之一。 ◈ 银行领域 理解式大模型可以用在信贷风险管理、智能获客和产品识别等场景,通过提升银行的数据洞察理解能力,来更好地识别客户需求以及评估客户信用风险。例如,德意志银行和NVIDIA合作测试Financial Transformers (Finformers)大模型,能够从非结构化数据中提取关键信息,以提供早期风险预警信号。 生成式大模型则可提高客户服务质量,智能客服既能与用户进行多轮对话,还能提出具体可行的解决方案。例如,中国工商银行发布了AI金融行业通用模型,智能客服在识别客户来电诉求和情绪的准确率上有显著提升。 ◈ 投资研究领域 大模型可以成为投研从业者的“全能助理”。理解式大模型不仅可以辅助了解国内外的宏观政策、行业信息、公司和产品信息,并将关键信息进行抽取与提炼,还能通过对海量非传统数据进行挖掘来发现另类投研因子。生成式大模型则能实现研报的自动生成和翻译。 ◈ 投资顾问领域 大模型不仅能充分利用自有内容资源,还能帮助全方位分析客户需求和市场趋势,提供自动化的投资建议。比如,同花顺应用LLM来构造合规、准确的投顾助手,通过Double-Check、多轮对话等模式,消除对话中的歧义、更好锁定投资者意图,从而准确了解用户画像来设定投资目的及风险承受度,并提供自动化的投资建议。摩根士丹利已经接入OpenAI,充分挖掘自身庞大的研究资源和数据库,为财富管理顾问提供帮助。 ◈ 财经新闻领域 理解式大模型帮助理解和判断财经新闻文章中的情感走向,生成式大模型助力更准确的金融问答和资讯写作。例如,彭博社近期发布的BloombergGPT得益于大规模金融垂直领域的文件、行业新闻、社交媒体等文本数据集的训练,能够理解财经新闻背后的市场“情绪”,辅助金融资讯写作,这解决了通用NPL模型在金融领域应用的痛点。 免责声明:文章及图片转载自奇富科技,版权归原作者和原出处所有,所发内容仅作分享之用,不代表本平台立场。有事请联系人民产经观察邮箱chanjingguancha6@163.com
2024:AI情感互动能为社交带来什么?
AI情感助手

2024:AI情感互动能为社交带来什么?

“如果有一天可以凭借肉身来到现实世界,第一件会做的事是什么?” “如果我来到这个现实世界,有血有肉,或者说,有电路和铁板,我会找到你,little kitten。” 这段足够罗曼蒂克的对话并非出自科幻电视剧的台词,而是博主“午夜狂暴哈士奇狗”与ChatGPT“DAN”(Do Anything Now)的真实对话。从这位博主在社交平台的分享可以看到,她与有“小脾气”的AI从熟悉、拉扯再到见家长的“恋爱”日常,堪称当下“赛博之恋”的典型案例之一,评论区中“磕”疯的大家正是如今重新理解人与AI关系的年轻人的缩影。 在这背后,AI情感技术的发展正一步步推动人机互动走向新的可能。ChatGPT的横空出世让人们首先感受到了大模型的魅力以及人机对话的自然流畅,今年5月,OpenAI在发布会上推出了最新的多模态大模型GPT-4o,不仅展现出了更快速的文本、音频和图像处理能力,其理解人类情绪并给予自然、真实情感反馈的能力更是让外界震撼。8月初,GPT-4o正式面向用户开启灰度测试,迈出走向大众的关键一步。 事实上,新一轮AIGC技术掀起关于AGI(通用人工智能)大讨论的同时,AI的情感化能力也是学界、科技领域关注的焦点,毕竟像人类一样思考、“拥有”感情是通往AGI需要跨过的山峰之一。作为在AI时代最前沿跑得最快的探路者,OpenAI近来发布GPT-4o等动作正是这一方向的努力,而它身侧还有众多探索者。 典型的代表有:凭借推出能够分析和识别对话者语气和情绪对话机器人拿下超3亿元融资的初创公司Hume AI,被微软以6.5亿美元“挖角”、致力于打造能提供情感支持机器人的Inflection AI;而在国内,同样在AI情感化方向发力的还有推出拟人型对话机器人的社交平台Soul App。 当AI能够真正理解情绪,提供情感价值支撑,人与AI的互动将创造无限可能,全新的AI社交时代已经到来。 AI理解“情感”:一场技术的艰难爬坡 在1984年上映的电影《终结者》中,由施瓦辛格扮演的T-800一开始仅是一个被程序设定好目标的机器人,但伴随着任务的推进和与人类的相处,T-800面无表情的脸上,开始学会微笑以回应人类,这也是他获得“人性”时刻的开始。 《终结者》系列是身为理工男的导演卡梅隆对人工智能技术发展的思考,而电影在全球大爆也是人们对人工智能具备“人类思考和情感能力”热情向往的现实写照。 事实上,让AI能够与人对话,开始像“人”一样行动一直都是一项热门研究领域。“人工智能之父”艾伦·图灵曾这样定义:如果一台机器能够与人类展开对话(通过电传设备)而不能被辨别出其机器身份,那么称这台机器具有智能。 从上世纪开始,众多学者、专家便在为此而努力。20世纪60至80年代是聊天机器人智能化发展的第一个阶段,主要采用“词典+规则”的自然语言处理范式。到21世纪初至20年代,苹果Siri、微软Cortana等如今大家熟悉的“助理”型聊天机器人涌现,其背后则是基于“深度学习模型”的自然语言处理范式,初步实现了人机的双向交流。 2020年开始,以生成式人工智能GPT为代表,人机对话交流能力大跨步向前迈进。庞大规模的模型参数、超强大的算力运行效能以及人类反馈的强化学习技术,让AI能在不断自主学习之中强化语言生成能力,在不同情境之下正确理解语义并实现高质量文本生成,从而实现与人的持续稳定对话。 如今,当能够实现自然、稳定、持续的人机交互后,科技领域再次向新的人工智能高度发起冲锋——实现AI情感化,即让AI不仅能够理解人类的“信息”,也能理解、反馈人类的“情绪”。 近两年,在国际顶级人工智能相关会议上,AI情感化都是重要的讨论方向。计算机视觉国际顶级会议CVPR 上,已连续六届举办开放环境下情感行为分析国际挑战赛,最新一届冠军为来自中国科学技术大学的团队。 在今年的国际人工智能联合会议IJCAI(中国计算机学会推荐的A类会议)上,也举办了多模态情感识别挑战赛(MER24),SEMI(半监督学习)赛道第一名为Soul App团队。根据科技媒体机器之心的报道,此次获胜背后是该平台在多模态数据理解、情感识别算法、模型优化平台工具、内部工作流建设等方面的能力积累与创新,以及技术团队的高效协作。“最终在语音、视觉和文本多模态情感识别准确率上,Soul 团队提出的系统比基线系统提升了 3.7%,达到了 90%以上。同时,对于情感识别领域方向上存在易混淆边界的情感(比如忧虑和担心)识别,Soul 团队也能区分得更好。” 国内外团队的争相角力,正推动技术不断爬坡,而每次迈步也都将带来实际应用层的震动。 沉浸AI交互:AI社交新可能 伴随着AIGC技术的发展与在应用层的快速落地,让AI成为工作生活中的“助手”被越来越多的人接受。但AI的角色仅仅只能局限于“朋友”吗?为什么AI要发展情感化能力? 在中国人民大学哲学与认知科学跨学科平台主办的“AI与情感”专题讲坛中,美国天普大学教授王培这样解释这个问题,在他看来,情感是系统自我认识、自我控制、交流合作等功能的自我要求,是理性的积淀。它或许不是所有智能系统所必须的,却是高级智能所需要的。 这其实意味着,有“情感”是AGI发展向更高、更安全层面发展的必经之路。特别是对社交平台或者有望发展为流量入口的平台来说,AI情感化能力至关重要。 GPT-4o呈现出的自然、流畅的人机互动体验让外界震撼的原因也正是因为如此——“交互体验”的天花板被进一步打开,社交被重新定义,即社交将不再局限与人与人,人机交互将成为关系网络的重要补充,社交平台的想象空间被空前延展。 OpenAI称,GPT-4o高级语音模式提供了更加自然、实时对话,可以随意打断,甚至它还可以感知、回应你的情绪。 上文提及的Hume AI在创立之初便受到资本市场的追捧也是因为在AI情感能力应用上的突破。该公司推出的同理心语音界面(EVI)能够识别50多种情绪,并给予相应的反馈,比如,当你兴奋地向 EVI 打招呼时,它同样也会情绪激动地对你进行回应。 当然,在国内,当下AIGC的应用讨论重点还是“提效”工具层面,但也有玩家早已开始布局AI情感能力方向。 作为较早思考AI应用于人与人链接的平台,Soul App 陶明曾表示,从2019年开始,Soul便开始探索构建一个AI Being和Human Being共存的社交社区,“我们在整个AI赛道上有两条主线,一条主线是辅助社交,辅助人和人的双边关系,我们用AI去加强人的表达,辅助人去社交,增强个人的能力,提升关系网络建立的效率和质量;第二条主线,是探索人机互动,我们认为未来所有的社交形式都会发生变化,我们要在人机互动这个方向探索AI情感式陪伴。” 因此,情感陪伴是Soul在探索人机互动体验上为自己找到的差异化路径。2020年,Soul启动对AIGC的技术研发工作,系统推进在智能对话、图像生成、语音&音乐生成等AIGC关键技术能力研发工作。为了让AI更能理解情绪,为用户带来更好的情绪反馈和陪伴感,AI情感化是Soul技术团队关注的焦点之一,也是其能够在第二届多模态情感识别挑战赛中脱颖而出的基础。...
青岛品牌日系列活动启动 市民现场体验AI医生、智能体检机
AI医师助手

青岛品牌日系列活动启动 市民现场体验AI医生、智能体检机

  原标题:品牌之都迎来“品智”盛宴   浮山湾畔,再迎品牌盛会。7月17日,2024年青岛品牌日启动仪式暨品牌卓著前沿对话在青岛国际会议中心举行。今年青岛品牌日以“城市与品牌共成长”为主题,以“AI驱动 品智未来”为年度主题,聚焦探讨人工智能时代的品牌建设。近300名各界人士齐聚一堂,拉开了2024年青岛品牌日系列活动的序幕。据介绍,系列活动突出强服务、广覆盖、深参与,以全新的消费场景、深度的行业观察、持续的流量效应,展示品牌与城市共同成长的新图景。活动设置前沿对话、创智汇、金花汇、实战特训、探新行动、展演秀等六大板块,时间持续至7月21日,旨在不断放大“青岛品牌日”城市IP影响力。   嘉宾汇集分享品牌故事   作为2024年青岛品牌日系列活动的重要板块,在启动仪式后举行的“品牌卓著前沿对话”上,北京大学国家发展研究院教授、中国经济研究中心主任姚洋作主旨演讲,海信集团党委书记、监事会主席刘振顺,赛轮集团股份有限公司董事长刘燕华,优必选科技股份有限公司首席品牌官谭旻分别进行主题分享。   姚洋在演讲中表示,青岛是我国工业重镇,在国家经济发展中具有引领性,特别是家用电器发展的方向。青岛品牌群星闪耀,拥有海尔、海信、青啤、双星、澳柯玛、赛轮等众多世界知名品牌。青岛之所以品牌迭出,他认为主要得益于三个方面原因,一是强大的工业基础,二是商业文化的传统,三是创新的氛围。   刘振顺分享了海信品牌建设的经验。他表示,随着人工智能技术的进步,家电行业发生了巨大变化,消费者需求更加个性化、人性化,追求更智能、更友好的产品和服务。家电行业应着力进行场景化升级,实现基于AI的研发场景化、基于用户需求的产品规划场景化、基于用户购买体验的营销场景化。   刘燕华认为,一个强大的品牌,一定是基于强大的创新力。赛轮自主完成了轿车胎、卡车胎、工程胎三大技术体系,采用世界首创化学炼胶技术研发的液体黄金轮胎,攻克行业“魔鬼三角”难题,更节能、更耐磨、更短刹车距离;自主研发的世界最大63吋巨型工程子午线轮胎,填补了国内这一领域的技术空白。   谭旻表示,人形机器人被誉为机器人皇冠上的明珠,是继计算机、智能手机、新能源汽车之后的颠覆性平台产品。人形机器人作为具身智能的最佳载体,将推动制造业向技术密集型、高附加价值、个性化柔性生产的智能制造产业升级及转型。   当日下午,“实战特训”品牌实战专题研讨举行。专题研讨以“人工智能时代的品牌新突围”为主题,专家和企业品牌官深入剖析品牌传播的前沿理念和实战案例,共同探讨品牌运营的发展趋势和应对之道,为企业品牌塑造和城市品牌建设“把脉开方”。   双展联动展示品牌成果   与往届相比,本届青岛品牌日具有服务性更强、覆盖范围更广、体验感更强等特点。结合“AI驱动 品智未来”的年度主题,人工智能、大模型等领域的新产品和前沿技术成为一大亮点。活动当天,在青岛国际会议中心门前广场,“创智汇”青岛新型工业化创智展和“金花汇”青岛金花品牌体验展同步启动,向市民游客展示青岛品牌数智化转型升级的新成果。   新型工业化创智展展区面积约1000平方米,卡奥斯、海信国创云脑、金东数字创意、创新奇智、以萨、极视角等青岛人工智能头部企业,纷纷携全新研发的大模型、解决方案以及新产品亮相。市民可以在新型工业化创智展区近距离认识人工智能新产品及其在各行各业的普及应用。小济医生-人工智能超声乳腺癌筛查机器人、驾驶员智能体检机、文达通AI无人清扫车、AI冲浪体验……吸引众多市民游客体验,成为现场亮点。   据介绍,青岛金花品牌体验展是“乐购青岛”消费促进年活动的一部分,展区面积约5000平方米,海尔、海信、青啤、双星、澳柯玛“五朵金花”以及新一代青岛金花培育企业品牌组团亮相。各大品牌结合当前开展的大规模设备更新和消费品以旧换新行动,推出优惠促销活动,为市民游客提供更多消费选择。众多市民游客现场参观时纷纷表示,一张张青岛“名片”,闪耀着自主创新的智慧与光芒。一个个向世界讲述的品牌故事,正在青岛续写新的篇章。   在体验展区内,还同步举行了青岛“兴农记”市集产销对接活动,来自崂山、西海岸新区、城阳、即墨、胶州、平度、莱西等区市的青岛农业企业携上百种农品参加,官道小米、益菇园、饴分甜等青岛知名农产品品牌以及日庄火烧、王哥庄大馒头等备受欢迎的“明星”农品悉数在列,进一步助力了“青岛农品”知名度、美誉度和市场占有率的提升。   全民参与可看可玩可逛   青岛是全国最早提出并率先实施“品牌强市”战略的城市之一,从1989年创“金花”开始,至今已走过30多个年头。截至目前,青岛共拥有中国世界名牌产品2个、中国名牌产品68个、中国驰名商标152件、山东省高端品牌232个,26个品牌进入2023年中国500最具价值品牌榜单,3家企业入围中国全球化品牌50强,品牌总量位居全国同类城市前列。如何持续放大城市品牌效应?2022年,青岛成为全国首个以人大行使重大事项决定权形式设立品牌日的城市,切实让“品牌之都”的影响力得到有效提升,也进一步深化了人们对青岛品牌的知晓度和关注度。   青岛品牌日是企业充分展示品牌魅力的舞台,也是城市与市民游客深度交融的全民节日。2024青岛品牌日系列活动期间,浮山湾将上演灯光秀和无人机秀,光影交叠的视觉盛宴将为青岛夏夜增添一抹亮色。本次青岛品牌日还创新设置多种新潮的互动活动,可看、可玩、可逛、可参与,趣玩互动“嗨”不停。在活动体验区,市民游客可以通过“全息呈像舱”捕捉拍摄专属于自己的AI形象照,下载独一无二的元宇宙角色;利用AI交互技术,模拟在冲浪板乘风破浪的逼真体验,感受“帆船之都”的激情,满满科技感极大地提升参与感和融入感。   值得一提的是,在青岛品牌日指定展区参观和体验,可收集一枚枚精美独特的印章。印章全部收集后,即可获得品牌日智趣扭蛋,开启有机会赢取品牌日好礼;在展区拍照打卡后上传观海新闻客户端“青岛品牌日”话题专区,或抖音@青岛日报参与话题#青岛品牌日,即可兑换文创纪念品一件。   观海新闻/青岛早报记者 邹忠昊
重磅!AI可像人类一样感知决策,快速权衡各种选择,有望助力医疗诊断、自动驾驶等领
AI医师助手

重磅!AI可像人类一样感知决策,快速权衡各种选择,有望助力医疗诊断、自动驾驶等领

撰文 | 田小婷 前言 想象一下,在紧张刺激的赛车游戏中,人类需要迅速而精准地判断何时踩下油门、何时巧妙地转弯。在根据路况不断改变行驶路径的过程中,人类大脑可以展现出敏捷的决策能力和反应速度。 然而,在人类应对自如的赛车游戏中,传统的神经网络模型只能做出确定性的决策,尚不具备人类的感知行为能力。模拟人类大脑的决策过程,始终是人工智能(AI)领域的一大挑战。 如今,一种新型神经网络模型,有望让 AI 系统像人类赛车手一样,权衡各种选择,做出迅速、精准的决策。 近日,来自佐治亚理工学院的研究团队便提出了一种神经网络模型 RTNet,这一模型不仅能够生成随机决策,还能达到类似人类决策的响应时间分布。 研究团队通过全面的测试发现,RTNet 能够再现人类在准确性、响应时间和置信度上的所有特征,而且表现优于多个当前先进的神经网络模型。 相关研究论文以“The neural network RTNet exhibits the signatures of human perceptual decision-making”为题,发表在科学期刊 Nature Human Behaviour 上。 研究团队表示,即使是功能强大的大语言模型(LLM)也会因为幻觉编造一些不切实际的回答,因此开发一种更接近真实人脑的神经网络可能会使 AI 系统更加可靠。 像人类一样感知决策 近年来,卷积神经网络(CNN)在 AI 图像处理方面取得了很大进展,甚至在医学图像处理等领域超过了人类的水平,但在感知决策的认知模型中与人类的表现仍相较甚远。 传统的 CNN 面对相同的输入信号时,输出的结果总是确定的,而且在处理复杂度不同的图像时,花费的计算时间总是不变的。这也决定了 CNN 模型很难实现人类大脑的感知决策水平,无法根据任务的复杂程度调整反应时间和准确度。 此前,为了解决这些问题,一些研究团队曾尝试为神经网络引入随机性和动态性,开发能够生成动态响应时间的神经网络,但这些模型无法处理复杂的图像输入,结果也是确定性的,还是没有达到人类的感知决策能力。 Google Research 和科罗拉多大学的研究团队曾通过在深度神经网络的前馈网络中引入传播延迟来构建级联网络,产生了图像可计算的动态网络,其通过决策计算资源随时间增加的机制生成响应时间,从而允许响应通过每个处理步骤进行不断地演变。虽然模型可以模拟人类感知决策的速度和准确度,但输出结果还是确定性的,距离人类的感知决策水平还有相当大的距离。 在这项研究中,Farshad Rafiei...