ChatGPT当“律师”!全球最大律师事务所与微软合作,推出法律GPT
AI律师助手

ChatGPT当“律师”!全球最大律师事务所与微软合作,推出法律GPT

8月2日,全球最大律师事务所之一的大成(Dentons)在官网宣布,与微软合作推出法律专业版ChatGPT,辅助律师处理客户案件。 大成通过GPT-4打造了一个名为“fleetAI”的生成式AI机器人,可以提供法律文献查询、自动生成法律内容、识别法律论据等功能,以提升法律业务效率和节省时间。 fleetAI将在8月份上线,为英国大成律师事务所的员工提供服务,测试时间6周。大成会根据员工、客户的反馈制定AI使用指南,然后将fleetAI推广到全球公司。 英国大成创新负责人Joe Cohen表示,数据安全、信息准确是应用生成式AI的重中之重。与微软的技术合作可以确保员工上传到fleetAI的所有数据不会用于训练AI模型,不会被大成以外的任何人使用,并在30天后自动删除。 早在今年3月,美国伊利诺伊理工大学-芝加哥肯特法学院曾公布消息,GPT-4通过了美国统一律师资格考试。该考试一共7项,GPT-4在民事诉讼、合同法、刑法、物权法、证据法5个学科考试中得分高于人类考生平均分,整体排名高于90%考生。 此外,法律行业拥有法律文件、判决书、合同等海量文本数据,这为ChatGPT等生成式AI实现场景化落地提供了肥沃的土壤。因此,大成律师事务所推出fleetAI便是水到渠成的事。 据悉,fleetAI除了提供法律文献查询、自动生成内容和识别法律论据之外,还提供允许用户上传多个法律文件,通过查询、分析、识别等方式来提取该文件的核心数据。 例如,将法律领域必看的《合同法》上传到fleetAI中,可以让其快速提取核心要点和查询相关条例,极大的节省了时间。 英国、爱尔兰和中东的大成首席执行官Paul Jarvis表示,fleetAI可以帮助律师快速分析客户的案件要点、难点,加速法律流程处理效率。作为全球为数不多将生成式AI纳入到日常工作的律师事务所,我们在开发fleetAI阶段时就已经确定了实际业务用例,这将彻底颠覆了法律行业的工作模式。 fleetAI的未来版本已经在开发中。这将包括与大成现有的法律的机器人进行集成,例如,自动从Companies House中提取数据,分析客户的法庭索赔以预测审判结果。大成还在积极尝试其他生成式AI组合,以确保律所律师可以使用高效、多元化的技术组合方法。 事实上,法律行业在应用ChatGPT等生成式AI非常积极,除了大成全球另外一家法律巨头「律商联讯」也推出了相应的产品。 今年5月5日,「律商联讯」便基于自身2,500TB 巨量数据和GPT-4等大语言模型,推出了类ChatGPT产品Lexis+ AI™具备交互式法律搜索、法律内容总结和起草合同/简报三大功能,成为最早一批应用生成式AI的法律机构。 关于Dentons Dentons于2013年由SNR Denton、FMC和Salans合并成立。2015年11月Dentons与中国大成律师事务所合并,从而成为全球规模最大的律师事所务。 Dentons在80多个国家的200多个城市设有分支机构,拥有21000多名专业律师,提供法律、公司并购、融资、税务、知识产权等服务。
孝爱通发布ChaGPT老人陪伴机,采用科大讯飞“认知星火大模型”
AI情感助手

孝爱通发布ChaGPT老人陪伴机,采用科大讯飞“认知星火大模型”

公众号推送机制总在变,为了不失联,请记得点击上方蓝字“芥末堆”→点击右上角“…”→选择“设为星标”,即时获取行业资讯。 图源:爱孝通官网 ♪ 作者|芥末堆 FYQ ♪ 编辑|芥末堆 芥末堆文  近日,孝爱通发布首款ChaGPT老人陪伴机。这款陪伴机采用了人工智能技术,不仅能够提供一键“听”、一键“说”的语音问答,还能够根据老年人的需求,提供智能定位、轨迹查询、健康监测、安全管理、一键支付等各种服务功能。 据介绍,孝爱通老人陪伴机采用了科大讯飞“认知星火大模型”的语音识别技术和自然语言处理技术,能够通过对老年人语音数据的分析和处理,实现对老年人语言的理解和生成,实现更加智能和贴心老年人陪伴服务。 官网资料显示,孝爱通是深圳展翼伟业科技有限公司旗下子公司,后者是智能硬件和信息化系统方案服务商,成立于2009年。孝爱通主要为老年人提供全方位的智慧养老服务,包括健康管理、安全管理、老人陪伴、家庭关爱等方面,主要代表产品包括陪伴机、智能手表、呼叫器等。 本文作者:FYQ 芥末堆 编辑 和有趣的灵魂交流 联系邮箱:shanshan.feng@jmdedu.com 欢迎交流,请注明姓名+公司+职位,便于备注 加小堆微信,备注银发经济,邀您进群 6月1日(周四)20:00 一起来看《2023大学生的就业和职业教育》 点击下方预约直播 直播要点: 1、大学生的就业存在哪些难题和痛点? 2、面对就业问题,职业教育如何发力? 3、给大学生找工作的一些实用建议 芥末帮 这是一个基于芥末堆上线9年时间 , 聚合全渠道100万用户读者之间的连接专栏。 球分享 球点赞 球在看
“AI医院”来了吗?医疗创新“快”中要有“稳”
AI医师助手

“AI医院”来了吗?医疗创新“快”中要有“稳”

新华社北京12月3日电 题:“AI医院”来了吗?医疗创新“快”中要有“稳” 新华社记者董瑞丰、李恒、袁全 到医院看病,迎面而来的可能是智能机器人;检查结果出来,人工智能迅速给出诊断意见……随着AI技术飞速提升,诊疗应用越来越广。 人工智能当家的“AI医院”是不是真的来了?记者采访了解到,目前在一些新闻中亮相的“AI医院”,实际是AI辅助诊疗技术的应用。医疗创新在提速,但安全监管的“闸门”仍在人类医生手上。 看病更便捷?“医疗+AI”是趋势 近日,一家研发机构称,即将上线一款“AI医院”人工智能大模型:AI医生通过“阅读”医学文献、“诊疗”虚拟病人,不断自我进化,未来有望介入真实的医疗应用场景,辅助人类医生完成工作。 公开资料显示,这一大模型目前并未投入医院实际应用。不过,AI技术在一些医疗机构已经得到广泛应用。 在浙江,乌镇智能医院自去年开放以来,不到10名医生与一批智能导诊机器人,已经接待了数千名患者。通过AI技术,这家医院还可以快速分析人体健康大数据,形成个性化的智能健康评估结果。 在上海,一支医生团队发起、参与研发的人工智能医学大模型,能顺利“通过”国家执业医师资格考试。输入患者的主诉、现病史、体格检查等,AI就可给出诊断和下一步处理的辅助建议。 大模型可以“吃进”数千本医学教材,AI可以更精准地比对CT影像,集成视觉、触觉等传感器的智能监测床可以及时发出预警,快捷的病例搜索功能可以有效辅助医生作出判断……越来越多医院引入人工智能技术,“医疗+AI”成为趋势。 专家表示,“医疗+AI”前景广阔,无论患者还是医生,都将在这场科技革命中受益。 AI直接看病?还得医生“拍板” 一位医生向记者讲述了一个真实案例——患儿两次住院,前后历时近一年,专家确诊其患有十分罕见的一种自身免疫性疾病。而人工智能几分钟就给出了同样的诊断。 不过,即便AI能大大提升看片、审方、诊断等医疗工作的效率,最后“拍板”的仍是身穿白大褂的医生。 今年11月,国家卫生健康委等部门联合发布《卫生健康行业人工智能应用场景参考指引》,涵盖了医疗服务管理、基层公卫服务、健康产业发展和医学教学科研4大类84种具体场景,力求全方位发挥AI的优势。 其中,从辅助诊断、辅助决策,到辅助治疗、辅助规划手术,“辅助”是AI医疗的一个关键词。 上述由医生团队发起、参与研发的人工智能医学大模型,在上海一家医院已经投入应用,给医生提供辅助。医院负责人介绍,这个大模型的特色是来源于医生、服务医生,将成为与医生共同在医学领域深度探索的有力工具。 “AI医院”会来吗?监管将更完善 尽管人工智能看病水平越来越高,但AI医疗还面临不少挑战,真正意义的“AI医院”更需迈过多重门槛。医疗安全风险如何防范?医疗数据如何确保安全?需要制定一系列监管标准以避免技术滥用。 此前,国家药监局发布了《人工智能医用软件产品分类界定指导原则》,明确提出人工智能医用软件产品管理属性和管理类别的判定依据。专家表示,这有助于保障AI医疗产品的安全性和有效性。 国家卫生健康委卫生发展研究中心副主任游茂表示,目前我国AI医疗器械的大多数研究产出都集中在医学影像类,技术发展有同质化倾向,“决策规则”领域研究几乎空白。此外,高质量数据仍然较为缺乏,真实世界数据应用实现机制还需进一步建立。 游茂认为,医学AI需要构建一个全生命周期动态评估体系,覆盖质控等标准体系、临床准入体系、临床应用评估体系和真实世界数据。这些将为AI医疗器械的科学监管提供框架和决策依据。 中国医学科学院医学信息研究所所长刘辉表示,在推动技术创新与升级的过程中,需构建和完善科学合理的法规政策与技术体系,加强对算法准确性、公平性、透明度、可解释性、隐私保护等关键维度的评估与监管力度,确保AI技术的安全性和有效性,为医患双方提供更优质的应用体验和医疗服务。
使用GPT进行『金融情绪』分析的正确打开方式
AI金融助手

使用GPT进行『金融情绪』分析的正确打开方式

来源:量化投资与机器学习 作者:Boyu Zhang、 Hongyang (Bruce) Yang、Tianyu Zhou、Ali Babar、Xiao-Yang Liu 来自:Enhancing Financial Sentiment Analysis via Retrieval Augmented Large Language Models 在之前的推文中我们分享了GPT模型与传统文本分析模型之间表现的对比,本文我们来看下如何系统全面的使用GPT进行金融情绪分析。 金融情绪分析是提取、量化和研究金融文本、新闻文章和社交媒体内容中的情感状态和主观信息的重要工具。它的重要性在于它有可能预测市场走势,并为投资者的行为提供有价值的见解。鉴于市场反应经常受到新闻情绪的影响,这些情绪可能是积极的、消极的,也可能是中性的,金融情绪分析在帮助交易员和金融机构做出明智决策方面发挥着关键作用。它通过对市场情流的理解,帮助管理风险和识别潜在的投资机会。 近年来,许多研究转向使用自然语言处理模型来提高金融情绪分析的准确性和效率。传统的NLP模型受模型参数和训练语料库规模的限制,往往缺乏全面理解复杂金融新闻的能力,从而限制了金融情绪分析的有效性。这些限制有时会导致金融情绪分析任务的结果欠佳。相比之下,大型语言模型(LLM)的出现引领了NLP领域的新时代。这些模型在庞大而多样的语料库上接受过预先训练,在各种NLP任务中的表现逐渐优于许多其他模型,因为它们能够从广泛的训练中进行概括,甚至从以前看不见的财务数据中获得有意义的见解。 然而,直接将LLM应用于金融情绪分析存在两个显著的挑战: 首先,LLM预训练中使用的目标函数与预测金融情绪的目标之间的差异可能导致LLM无法像预期的那样一致地输出用于金融情绪分析的标签。 其次,金融情绪分析的典型主体,如新闻快讯和推文,其特点是简洁,往往缺乏足够的背景信息。信息的稀缺性不仅干扰了人类专家的判断,也对LLM的判断提出了重大挑战。 为了应对上述挑战,在我们的研究中,我们提出了一个检索增强的大型语言模型金融情绪分析框架。该框架由两个关键组件组成: 指令微调LLM,它使用一组有限的指令遵循示例来改进LLM,这些示例专门用于金融情绪分析,使LLM的预测与用户意图保持一致,并显着提高其预测准确性。 检索增强组件,它为新闻简报或推文中的简短陈述引入了额外的上下文。它使用搜索引擎和经过验证的财务来源从外部来源收集相关背景信息。然后将这个丰富的上下文传递给指令调优的LLM进行预测,从而产生更准确和细致的结果。 通过测试以上方法在准确性和F1分数方面的性能提高了15%至48%,明显优于传统的情感分析模型和著名的通用LLM。 如下图所示,由指令调优LLM和RAG模块两个模块组成。在第一个模块中,我们应用指令调优来微调开源预训练的LLM,如LLaMA和ChatGLM,使其在提供金融新闻或推文时的行为与预测金融情绪标签保持一致。这个过程包括构建一个特定于金融情绪分析任务的指令遵循数据集,并使用它来微调预训练的LLM。 RAG模块在框架中起着至关重要的作用,它从与输入查询相关的外部源检索相关的背景信息。 这些外部来源包括彭博和路透等经过验证的新闻平台,高盛和花旗等机构的研究出版物,以及Twitter和Reddit等社交媒体平台。我们采用多源查询和基于相似性的检索方法从这些信息中定位最相关的信息来源。 随后,将检索到的上下文与原始查询结合起来构造最终查询。然后调用指令调优的LLM来基于这个增强查询生成情感预测。这样,将缺失的背景知识提供给LLM,使其能够做出更准确的预测。 指令调优被证明是一种非常有效的方法,可以使LLM的行为与用户指令保持一致。在金融情绪分析领域应用指令调整通常有三个步骤。 1、首先,我们构建了一个指令跟随数据集,由成对的指令和它们相应的情绪标签组成。该数据集是指导LLM有效理解用户指令的基础。格式化金融情绪指令跟踪数据集:通过手动标记创建金融情绪指令跟踪数据集需要专业金融专业人员的专业知识,这可能是昂贵的。另一种方法是以较低的成本将现有的有监督的金融情绪分析数据集转换为指令遵循数据集。这些数据集通常被格式化为文本分类任务,其中输入是金融新闻或标题,输出是表示积极、消极和中性情绪的整型标签。接下来,我们创建了10条描述金融情绪分析任务的人工编写指令,并将随机选择的一条指令与输入和输出结合起来,以“人类:[指令]+[输入],助手:[输出]”的格式,从原始数据集中制定每个样本。该过程如下图所示。 2、接下来,涉及对构建的数据集上的LLM进行微调。通过这个微调过程,模型学会在提供预测情绪标签的指令时准确地产生预期的反应。 3、最后一步是将LLM生成的输出映射回预定义的情感类。这一步进一步将预测与预定义的情感类对齐,并允许模型的性能是可测量的。由于指令微调LLM是一个自回归生成模型,即使我们使用一个遵循指令的数据集,用于引导其输出理想的情绪标签,它还是有可能的生成自由风格的文本。因此,我们需要映射模型的输出返回到指定的三种情绪。为了正确的评估。我们的做法是这样的: 如果模型的输出包含“正”、“负”或“中性”,我们把它映射到对应的标签;否则,我们把它看作是一种“中性”情绪。 RAG是一种将外部知识注入法学模型以提高响应生成准确性的有效方法。RAG模块的实现涉及几个步骤。 1、首先,我们建立外部知识来源,这些外部知识来源极有可能包含相关的金融背景信息。 当基于查询检索相关的金融上下文时,我们的目标是访问真实的、相关的、有洞察力的和全面的数据,而不是随机的互联网搜索。为了实现这一目标,我们首先确定以下信息来源: 新闻来源:媒体如彭博社、雅虎财经、路透社、CNBC和Market Screener提供的信息本质上是一致的,对金融解释至关重要。这些来源往往对其作者和记者有严格的内部指导方针,以确保可靠和经过验证的内容。此外,由于它们的业务性质,这些媒体经常对各种金融新闻提供最早的报道。 研究出版平台:集中式和众包式的研究出版平台提供了丰富的金融见解。知名机构如高盛和花旗分别为其机构客户提供独家研究服务Marquee和Velocity。鉴于它们的直接适用性,这些研究提供了大量高度一致的、系统的和经过验证的见解。 出版商平台:如Seeking Alpha,是独立贡献者提供各种见解的资源库。它们涵盖了广泛的金融信息,包括大量的价格走势分析、收益电话和会议记录,以及与各种规模的公司有关的投资研究。所有这些源都提供了检索api,使我们能够访问和检索信息。...
10个小片段,告诉你升级后的GPT-4多厉害,律师、程序员慎点
AI律师助手

10个小片段,告诉你升级后的GPT-4多厉害,律师、程序员慎点

已故的科幻作家,写出《2001太空漫游》的亚瑟·克拉克曾说过,任何足够先进的技术,都极其类似于魔术。今天凌晨1点,随着GPT-4发布,人工智能又一次在人类面前变起了眼花缭乱的魔术。 对于GPT-4的发布,猎豹移动董事长兼CEO、猎户星空董事长傅盛第一时间分享了体验视频,他表示:“GPT-4发布 世界要变了!每个人都要关心。” 上午,#GPT4做一个网站只要十秒#一度登上热搜。有网友看完片段就感慨,首先干掉了程序员…也有网友精辟总结,之前的GPT-3.5像个大学生,GPT-4活脱脱一个研究生。 下面,就用10个小片段,见证奇迹的发生。 1. 看图说话,10秒生成一个网站 发布会上,OpenAI总裁兼联合创始人Greg Brockman在纸上画了个粗糙的网站框架——真的只是用纯手画的方式,然后把草稿扔给GPT-4,告诉它我要做这么个网站,帮忙生成代码。 10秒之后,代码生成。 GPT-4看图说话本领不止于此,它还具备一定的逻辑推理能力。 跷跷板一端放着球,一端吊着一双拳击手套,问手套掉下去会发生什么? GPT-4:它会掉到木板上,并且球会被弹飞。 这张图片有什么不寻常之处? GPT-4:这张照片的不同寻常之处在于,一名男子正在行驶中的出租车车顶上的熨衣板上熨烫衣服。 我可以用这些原料做些什么? GPT-4:华夫饼、松饼…… 2. 考试能手,数学相当于高二好学生水平 基于GPT-3.5的ChatGPT,因为不会算术被小朋友笑话了好久。这次GPT-4在美国SAT数学试题测试里拿了700分,满分是800分,排名前11%左右——SAT的数学相当于国内高一、二水平,在阅读写作中拿下了710分的高分,排名前7%左右。 OpenAI认为,在各种专业和学术基准上,GPT-4已经和人类相当! 比如,当初GPT-3.5参加模拟律师考试,拿到的成绩是倒数10%,GPT-4拿到了前10%的好成绩。 为什么又是律师? 早在今年1月30日,美国哥伦比亚法院就使用ChatGPT作为辅助工具,让它帮忙检索法庭文件,判断“自闭症未成年人是否可以免除为其治疗支付费用?”——大量律师实际上做的是阅读卷宗、搜集证据、研究法律条款等案头工作,这部分AI已经有了压倒性的优势。 3. 语言高手,中文准确性进一步提升 不仅是英语,该模型在多种语言方面均表现出优越性。OpenAI称,在测试的26种语言中,GPT-4在24种语言方面的表现均优于GPT-3.5等其他大语言模型的英语语言性能。其中GPT-4的中文能够达到80.1%的准确性,而GPT-3.5的英文准确性仅为70.1%,GPT-4英文准确性提高到了85.5%。 4. 看得更多,能给代码修bug 升级之后,GPT-4可接受的文字输入长度也增加约2.5万单词,进一步拓展了它的日常应用场景。发布会上,Gregman现场表演了一波用GPT-4修正代码bug。只要小手一抖,把1万字的程序文档扔给GPT-4。 又会写代码,又会抓bug,程序员也在瑟瑟发抖。 也因为能“看得更多”,基本上把大部分链接给到它都能让它“划重点”,对比只能分析一小段的GPT-3.5已经是明显进步。 5. 看得更深,人类玩梗它也懂 请听题:“大舅去二舅家找三舅说四舅被五舅骗去六舅家偷七舅放在八舅柜子里的九舅借十舅的发给十一舅的一千元。问:谁是小偷,谁是受害者?” 对于这种弯弯绕的题目,ChatGPT并不擅长,但GPT-4具备了高级的推理能力。 这似乎也意味着,AI可以慢慢读懂人类的冷幽默了。 比如,提问这张图哪里好笑? GPT-4会先讲出每一格的内容,然后总结出笑点:用巨大的、过时的VGA接口给小巧的现代智能手机充电。 呵呵。 6. 戏精上身,苏格拉底和莎士比亚信手拈来 这次OpenAI直接开放了GPT-4的API接口,还开放了一个小功能,允许修改“系统提示”。什么意思呢?之前ChatGPT经常会强调,自己只是个语言模型,了解的知识截止于2021年9月。现在,用户可以赋予它性格,让它扮演不同的角色。 比如,你告诉GPT-4它是一位总是以苏格拉底风格回应的导师,它就会一路循循善诱,灵活使用“没错”“好想法”“接近了”“非常棒”等态度积极的词,让你找到问题的答案。 它也可以扮演莎士比亚笔下的海盗,画风秒变早年的“译制片”:做海盗还是不做海盗,这是个问题,但是,唉,亲爱的,这是我目前的性格……在波涛汹涌的人生大海上,我永远不会放弃。 7....
新版Chat GPT发布,可以感知人类情绪,还能假装友好、陪你聊人生
AI情感助手

新版Chat GPT发布,可以感知人类情绪,还能假装友好、陪你聊人生

据澎湃新闻报道,当地时间5月13日,OpenAI推出新旗舰模型GPT-4o,可以实时对音频、视觉和文本进行推理。 据介绍,新版模型能够带着情感与用户对话,还能假装兴奋、友好,甚至讽刺,其响应时间最短也来到了232毫秒,这与人类在对话中的响应时间相似。 Chat GPT-4o发布会现场(图源:环球网科技) 报道称,GPT-4o的“o”代表“omni”,该词意为“全能”,源自拉丁语“omnis”。在英语中“omni”常被用作词根,用来表示“全部”或“所有”的概念。 发布会当天,OpenAI公司首席技术官米拉·穆拉蒂介绍称,GPT-4o是迈向更自然人机交互的一步,它可以接受文本、音频和图像三者组合作为输入,并生成文本、音频和图像的任意组合输出,“与现有模型相比,GPT-4o在图像和音频理解方面尤其出色。” 据了解,在GPT-4o之前,用户使用语音模式与ChatGPT对话时,GPT-3.5的平均延迟为2.8秒,GPT-4为5.4秒,音频在输入时还会由于处理方式丢失大量信息,让GPT-4无法直接观察音调、说话的人和背景噪音,也无法输出笑声、歌唱声和表达情感。 与之相比,GPT-4o可以在232毫秒内对音频输入做出反应,与人类在对话中的反应时间相近。在录播视频中,两位高管做出了演示:机器人能够从急促的喘气声中理解“紧张”的含义,并且指导他进行深呼吸,还可以根据用户要求变换语调。“它对人类的情绪、语气理解得十分自然精准,如同与一个真正的人类朋友或助理在聊天。” 在另一个演示场景下,工作人员手写了一个方程,并打开摄像头拍给ChatGPT,让它扮演“在线导师”的角色帮助自己解题,而且只能给提示,不能直接说答案,此后,ChatGPT一步一步说出了解题步骤。 Chat GPT(图源:北青报) 值得一提的是,手机版的GPT-4o不仅可以通过语音能力理解你当前的状态,还能通过视觉识别你所处的环境和你正在做的事情,并对它作出反应。“帮你解数学题,没问题,解完还能陪你聊聊人生。” 据商业内幕报道,它还能够带着情感说话,可以假装兴奋、友好,甚至讽刺。 OpenAI首席执行官山姆·奥特曼表示,新的语音和视频模式是他用过的最好的电脑界面,感觉就像电影里的AI。达到人类水平的反应时间和表达能力是一个很大的变化。“对我来说,与电脑交谈从来都不是一件很自然的事,现在它做到了。随着我们增加(可选的)个性化、访问你的信息、代表你采取行动的能力等等,我真的可以看到一个令人兴奋的未来,我们能够使用计算机做比以往任何时候都多的事情。” (图源:环球时报) 随着能够感知情感的人工智能出现,也引发了人们对于AI伴侣的讨论。 清华大学人工智能国际治理研究院副院长梁正曾表示:“如果AI伴侣的出现不断模糊虚拟与真实的界限,使用户对其产生深度依赖,甚至把AI伴侣当作真实存在的人,那么AI伴侣的存在或许会对使用者产生一定伤害。” 极目新闻综合澎湃新闻、北京日报、财联社、环球网科技、科技日报 (来源:极目新闻) 更多精彩资讯请在应用市场下载“极目新闻”客户端,未经授权请勿转载,欢迎提供新闻线索,一经采纳即付报酬。24小时报料热线027-86777777。
仅靠一张照片就能“看病”?AI医生来了
AI医师助手

仅靠一张照片就能“看病”?AI医生来了

可能是性格的内敛,又或者是害羞的天性。 总之,当台面话题不可避免地转向某一领域的时候,纵使是在情场上再怎么呼风唤雨的男人,都会一时语塞、羞于开口。 因为每个男人都心知肚明—— 没有人会永远坚挺 但永远有人正在坚挺 看似*张力拉满的成熟男人。 殊不知,只有回到家中厕所,才能卸下所有的心理防备,对着自己黯然神伤… 对于这种问题。 机哥的建议,是尽快去看医生。 可这种人类历史上极为罕见的病例,再加上面对陌生人时的紧张压力,又往往让人难以启齿… 所以,怎样才能既不和陌生人接触,又能知晓自身健康情况呢。 要说会玩还得是老外。 继声控识别呼吸道炎症、咳嗽判断支气管病灶的机器人之后,仅靠一张照片就能判断小兄弟健康程度的“AI医生”。 它来了—— 「Calmara」 所谓高端的食材往往只需要简单的烹饪。 想要判断兄弟的健康程度? 咱们呐,只需要打开「Calmara」官网,然后点击主页正中央的拍照按键,选择导入兄弟照片的方式。 就OK了。 至于说怎样拍才能展现最雄伟的姿态… 这个嘛,就不是机哥今天文章涉及的范畴咯。 机友们自行研究去吧。 总之。 上传照片之后,稍作等待就能收到兄弟的检测结果,等待时长,盲猜跟你们平常发挥的时间差不太多。 如果你们恰好跟机哥一样身体健康的话。 就会看到上边这张“回执”。 可如果一不小心被识别出某些不可描述的病灶… 接下来你需要面对的,可就是一堆掏心窝的问题咯~ 从年龄大小,再到当下症状,以及某些羞耻回忆。 建议大家如实填写。 填写完“调查问卷”之后,「Calmara」还会要求咱们,再拍一张总大小不超过5MB的大头照片,供AI复查。(你说什么头) 因为是复查嘛。 所以这张照片就不能像之前那般随意、放松。 经机哥实测发现,「Calmara」对这张大头照的环境光亮、摆放位置、对焦距离… 都有灰常严苛的要求。 缺一不可。 除此之外。 还需要你把佩戴在兄弟身上的珠宝、配件啥的,全都取下来拍照。 好家伙,专业度直接拉满。 不过,就算是考虑得如此周到。 「Calmara」的准确度其实也没有很高,官方表示,只有94.4%的概率准确。 那么余下的那5.6%的误差又是啥呢。 机哥觉得,可能全都是沙雕网友上传的各种奇葩照片… 对,你猜得没错。 「Calmara」不只能识别坤坤。 只要你的拍摄角度足够刁钻,就算是再平常不过的照片,也是能骗过「Calmara」的人工智X,识别成特殊部位。...
金证金融大模型K-GPT及工具集正式发布
AI金融助手

金证金融大模型K-GPT及工具集正式发布

上证报中国证券网讯 12月7日,金证股份在上海举办“金融领域特定场景大模型研讨会”。金证股份联合旗下子公司金证优智发布自主研发的金融领域特定场景大语言模型体系——金证金融大模型及工具集,标志金证股份推动AI在金融垂直领域落地应用实现新突破,将更好服务金融行业客户,赋能行业数字化转型。 金证股份董事长李结义在致辞中指出,近年来,以大语言模型为代表的人工智能技术突飞猛进,正推动全球人工智能领域新一轮的技术升级和产业重构,也为各行业带来前所未有的机遇与挑战,国内多家科技机构加大推进大模型建设,热情只增不减。作为其中代表的金融领域,在这一转型升级的风口中,更亟待以科技力量开启新的篇章,运用AI技术助力金融行业迈向智能化时代。 李结义表示,作为一家在行业深耕30年的金融科技公司,金证股份早在2018年便开始着手AI在金融应用领域的研究,并通过多个事业部、子公司和创新平台,对AI技术在金融领域实现落地应用。金证股份在此次数字技术浪潮下,也深入开展对大模型技术的研究。 今年,集结业内顶尖专家的金证股份AI团队自主完成金融领域特定场景大语言模型体系的研发,并推动AI在金融垂直领域的落地应用,面向营销、客服、投行、投研、风控等业务场景提供了创新的智能金融产品及解决方案。李结义表示,希望通过这次金融大模型及工具集的发布,以及金证股份在AI领域积累的经验,能够真正为金融行业创造价值,助力金融行业客户跃上一个新的台阶。 在2020年至2022年期间,金证股份在人工智能领域进行多方面努力,在智能风控和智能文档领域取得了突破。今年,金证股份联合金证优智自主研发的金融大模型K-GPT由金融认知智能技术、搜索技术和金融智能文档处理技术共同打造。其中,金融认知智能技术成功实现了从专业小型模型到专业大模型的转变,搜索技术实现了从金融搜索到金融语义搜索的跨越。 在与会嘉宾的共同见证下,金证股份举行金证金融大模型及工具集发布仪式,展示金证在金融AI领域自主研发的阶段性成果。会上,与会嘉宾还就“金融领域特定场景大模型的应用和发展趋势”进行深入交流和讨论,共谋金融AI新生态。 未来,金证股份将保持创新、开放和合作的精神,携手行业合作伙伴在人工智能领域不断优化、创新,共同推动人工智能在金融行业更深入、更广泛的应用,推进金融行业数字化进程。(朱先妮) 股市回暖,抄底炒股先开户!智能定投、条件单、个股雷达……送给你>> 海量资讯、精准解读,尽在新浪财经APP
法律GPT技术进一步提升律师工作效率,AlphaGPT赋能合同审查
AI律师助手

法律GPT技术进一步提升律师工作效率,AlphaGPT赋能合同审查

随着人工智能在中国各行各业中的应用迅速发展,人工智能技术在新闻、客服、教育、法律和科研行业等领域,都已经有了实际的应用,有望成为推动各产业转型升级的重要力量。 iCourt 作为一家法律科技公司,一直秉持着“科技守正”的公司愿景,以“让法治之光洒满世界的每一个角落”为使命,致力于用智能化工具赋能法律人工作全流程,提升法律人的工作体验。面对日益激烈的市场环境和高质高效的合同审查要求,iCourt 于近日推出了“合同审查GPT”,“合同审查GPT”可以满足律师快速审查大量法律合同的需求,上市以来已得到律师及律所的一致好评。 合同审查GPT之所以可以强有力的支持律师的实际工作,源于iCourt专业的研发团队。中国软件行业协会日前宣布,iCourt,主要负责AlphaGPT背后的审查规则设计以及合同审查GPT指令提示词设计工作的李小武同志(曾任职前清华大学法学院副教授、Alpha 合同审查GPT专家组负责人),被正式聘为中国软件行业协会(CSIA)法律专业委员会专业委员。中国软件行业协会(CSIA)作为中国软件和信息服务行业的重要代表组织,其各项活动和服务在行业内具有广泛影响,能够引导行业的发展方向和趋势,促进行业健康有序发展。此殊荣更加印证了AlphaGPT合同审查的专业实力和行业引领能力。 iCourt 全新的GPT合同审查主要包含两大部分:风险审查和主体审查。 首先,在风险审查场景中,律师点击“合同审查GPT“,即可进⼊合同审查模块,用户需要自行上传待审查合同,并选择审核的合同审查类型。据悉,目前已支持十余种精确审查类型与通用模式,前者可大大提高合同审查效果,而后者可满足合同多样性审查需求。而合同审查中不可避免考虑的审查立场,也同样有体现。选择合同类型后,需要选择审查视⻆,如租赁合同需要对应选择“出租⽅”或“承租 ⽅”,GPT会结合⽤⼾选择的审查视⻆输出带有明确视⻆性的审查意⻅。如律师有在审查过程中重点关注的,可以输⼊在⾃设审查需求内,如:重点审查合同内约定条款是否存在失效、是否约定争议解决条款等内容,AlphaGPT将重点进⾏审查。 其次,在主体审查场景中,GPT会自动识别对方主体的信息,快速展示对方主体存在的涉诉案件、失信被执行人、行政处罚、经营异常等风险信息,为律师提供更多有价值 的专业数据,辅助律师对主体的履约能⼒进⾏把控。如果自动识别的主体不准确,用户可以手动选择变更主体。同时,合同审查GPT输出的审查结果中的“批注”与“修订”部分支持用户自行编辑修改,针对AI给出的某个审查条款不满意,可以点击审查点对应的提交反馈功能,iCourt将及时响应并有针对性地解决律师在使⽤中遇到的问题,使合同审查更加精准⾼效 。 AlphaGPT的合同审查GPT,不仅提供了全面的合同审查功能,还提供了审查报错反馈功能。综上,AlphaGPT的合同审查GPT是一款强大的智能合同审查工具,无论你是律师、企业法务或是其他法律专业人士,都能从中获得巨大的帮助,提高合同审查的效率和准确性。这也向我们揭示了AI技术作为工作工具的未来发展方向,法律人要积极关注法律AI工具的发展趋势,进一步提升自己操作AI工具的技术能力,把握技术浪潮的核心竞争力。
进化到能识别人类情绪价值?今天免费的GPT-4o来了
AI情感助手

进化到能识别人类情绪价值?今天免费的GPT-4o来了

“有时候我观察人们,我会试着把他们当做自己,会想象他们如何深爱着他人,或者经历过怎样的心碎。”——科幻电影《her》 中的电影情节似乎有望成为现实。 01 炸裂的OpenAI发布会 10年前,一部叫做《Her》的电影获得了2014年第86届奥斯卡最佳原创剧本奖,它讲述了一个孤独的作家爱上了手机里人工智能语音助手的故事。电影中,这个叫Samantha的AI拥有着一把沙哑性感的嗓音,她风趣幽默、善解人意,随时随地陪伴着男主,并逐渐成为他生活中不可缺少的一部分。 而10年后的今天,在OpenAl举办的春季发布会上,伴随着GPT-40新模型的到来Samantha已然正式成为了现实。此次升级版的ChatGPT不仅能像Samantha一样陪你自然地聊天谈心,甚至还能透过手机摄像头观察并理解你的情绪。 北京时间周二凌晨一点,OpenAI在发布会上推出最新的多模态大模型GPT-4o(o代表Omni,意为全能的)。这款“全能的”大模型具备能够处理文本、音频和图像的能力。与前几代模型相比,它增加了语音功能,且运行速度更快。 此次OpenAl的发布会非常简短,全程仅26分钟,但ChatGPT的进化却足以让人叹为观止 虽然GPT-5没有如期到来,但此次OpenAl最新的旗舰大模型GPT-40已经让人机交互这件事发生了“质变”。根据官方介绍,40 中的“o”是“omni(全能)”的缩写,它代表着这一版本的GPT已经把文本、视觉、音频等能力全部打通,可以接受任意组合的输入和输出其最短232毫秒、平均320毫秒的音频输入响应时间,现在已经达到了人类在对话中的反应速度。 据了解,GPT-4o是迈向更自然人机交互的一步,它可以接受文本、音频和图像三者组合作为输入,并生成文本、音频和图像的任意组合输出,“与现有模型相比,GPT-4o在图像和音频理解方面尤其出色。” 在GPT-4o之前,用户使用语音模式与ChatGPT对话时,GPT-3.5的平均延迟为2.8秒,GPT-4为5.4秒,音频在输入时还会由于处理方式丢失大量信息,让GPT-4无法直接观察音调、说话的人和背景噪音,也无法输出笑声、歌唱声和表达情感。 与之相比,GPT-4o可以在232毫秒内对音频输入做出反应,与人类在对话中的反应时间相近。在录播视频中,两位高管做出了演示:机器人能够从急促的喘气声中理解“紧张”的含义,并且指导他进行深呼吸,还可以根据用户要求变换语调。 在音频方面,GPT-4o 的语音识别(ASR)也比 OpenAI 的语音识别模型 Whisper 性能更佳(越低越好)。 更重要的是,GPT-4o 的视觉理解能力在相关基准上取得了压倒性的胜利。 02 具备情感理解能力的GPT-4o 相对于当下大模型在参数、性能上的“内卷”,GPT-4o能成为全球科技圈关注的焦点,主要还是在“情感理解”能力上。 GPT-4o在理解人类交流方面迈出了重要的一步,用户可以用一种接近自然的方式与其交谈。它伴随着现实世界中几乎所有的倾向,比如打断、理解语气,甚至意识到自己犯了一个错误。 在第一次现场演示中,主持人要求GPT-4o对他的呼吸技巧做出反馈。他对着手机深深地吸了一口气,而ChatGPT则诙谐地回应道:“你不是吸尘器。”它建议使用一种速度较慢的技术,展示其理解和回应人类细微差别的能力。 除了具有幽默感,ChatGPT也会改变回应的语气,在传达“思想”的同时用不同的语调来完成。就像人类对话一样,你可以打断它的对话并纠正它,让它做出反应或停止说话。你甚至可以要求它以某种语气、风格或机器人的声音来说话。 此外,它甚至还可以提供翻译服务。在现场演示中,舞台上的两名演讲者,一名说英语,名说意大利语,通过Chat GPT-4o的翻译进行对话。它可以快速将意大利语翻译成英语,然后无缝地将英语回复翻译回意大利语。 OpenAI称,GPT-4o还可以检测人的情绪。在演示中,Zoph将手机举到自己面前正对着脸,要求ChatGPT告诉他自己长什么样子。最初,GPT参考了他之前分享的一张照片,将他识别为“木质表面”。经过第二次尝试,GPT给出了更好的答案。 GPT注意到了Zoph脸上的微笑,对他说:“看起来你感觉非常快乐,喜笑颜开。”有评论称,这个演示显示,ChatGPT可以读取人类的情绪,但读取还有一点困难。 不仅是对人类语气和状态的感知,以及代表人类“情商”的幽默表达,ChatGPT还展示出了对话可被随时打断并即时跟进的能力。总之,在与OpenAI研发负责人Mark Chen的对话中,它已经近乎于一个真实人类,对话没有尴尬的停顿点,也没有理解障碍的地方。 除了实时对话,Mark Chen也引导ChatGPT表现了在讲故事情境下渲染音色的能力。他要求ChatGPT讲述一个主题为“恋爱中的机器人”的睡前故事,并连续两次要求其用更加“drama”(戏剧化)的方式朗读,用户可以明显感受到有递进感的音色,这背后是明显的情感表达能力。 OpenAI的高管表示,GPT-4o可以与代码库交互,并展示了它根据一些数据分析图表,根据看到的内容对一张全球气温图得出一些结论。OpenAI称,基于GPT-4o的ChatGPT文本和图像输入功能将于本周一上线,语音和视频选项将在未来几周内推出。 GPT-4o 可以看作是人机交互自然化的重要进步,它的应用潜力及其操作界限仍处于初步阶段,还有待进一步探索和实验。 OpenAI 还展示了 GPT-4o 在日常场景中的一些应用,从娱乐到教育,从社交到专业辅助,表明它能够在多个方面辅助人类。比如,提高视障人士的生活质量、实时翻译、帮助学习新语言、在线会议或面试中的辅助交流、与宠物互动、玩游戏等。 03 多模态的智力表现 情感之外,GPT-4o是一款多模态产品。 OpenAI...