中国ApprovespreventivetreatmentforadultmigrainewithEnumab:ACGRPreceptorantagonist
AI情感助手

中国ApprovespreventivetreatmentforadultmigrainewithEnumab:ACGRPreceptorantagonist

1. 诺华宣布,我国一款用于预防性治疗偏头痛的人源化单克隆抗体——依瑞奈尤单抗注射液,其上市申请已正式在中国获批。2. 中国农业科学院上海兽医研究所研发的猫鼻气管炎、猫杯状病毒病、猫泛白细胞减少症三联灭活疫苗获得生产批准。3. 云南白药集团股份有限公司和广东一方制药有限公司就前述医疗事件发布道歉声明,而清华系初创团队水木分子发布的新一代药物研发助手AI助手ChatDD也备受关注。
人工智能聊天机器人ChatGPT的使用流量夏季出现明显上升,可能受美国学校返校影响
AI情感助手

人工智能聊天机器人ChatGPT的使用流量夏季出现明显上升,可能受美国学校返校影响

文章主要报道了人工智能助手ChatGPT的使用情况。受美国学校返校影响,ChatGPT流量出现上升趋势。数据显示,8月份ChatGPT流量增长21%,而非学生群体增长8%。此外,印度和巴西市场的扩张也对ChatGPT的增长起到了一定作用。尽管有学校选择禁止ChatGPT的使用,但仍有不少学校尝试将其纳入教学中,以提高学生学习效率。随着ChatGPT和谷歌Bard等生成式人工智能工具的出现,AI繁荣发展时代或即将到来。预计到2032年,生成式人工智能市场的总营收规模将从去年的400亿美元增长到1.3万亿美元。
ChatGPT 服务心理咨询:数字健康革命︱数说未来长江日报2023-06-06 08:11
AI情感助手

ChatGPT 服务心理咨询:数字健康革命︱数说未来长江日报2023-06-06 08:11

随着ChatGPT技术的进步,一种先进的人工智能语言模型,它正彻底改变心理咨询方向,展现出比以往任何时候都更加明显的潜力。全球范围内心理健康问题的数量不断增加,越来越多的人需要专业的支持来应对压力、焦虑、抑郁和其他心理障碍。传统疗法虽然有效,但对许多人来说可能昂贵且难以获得。因此,ChatGPT技术开始发挥作用,为传统心理健康支持提供了一种经济高效且可用的替代方案。 ChatGPT旨在理解和生成类似人类文本的内容,通过与患者对话,提供心理安慰和援助。利用自然语言处理和机器学习算法,ChatGPT可以有效地模拟人类对话,成为提供人工智能辅助咨询的理想工具。在心理健康领域使用ChatGPT的主要优势在于它能够提供即时的帮助。传统认知疗法通常需要预约,这对于正处于心理健康危机中的人可能是不切实际的。因此,ChatGPT的主要优势凸显出来了。 ChatGPT的匿名性对于那些与人工咨询专家讨论心理健康问题感到不适的患者来说特别友好。ChatGPT辅助咨询消除了这一障碍,让患者可以公开表达自己的感受,而不必担心被侵犯。ChatGPT还能够分析和识别患者的行为和情绪。通过对大量数据进行分析,ChatGPT可以有效检测导致个人心理健康问题的潜在触发因素、压力来源和风险因素,然后利用这些信息制定个性化的应对策略,以满足不同患者的个性化需求。ChatGPT可以与其他数字健康工具和技术相结合,共同提供综合的心理健康服务。例如,结合虚拟现实技术,ChatGPT-4可以模拟真实场景,帮助用户面对恐惧和焦虑。此外,结合生物传感器和数据分析,ChatGPT可以根据用户的生理指标提供个性化的心理调节建议。 虽然ChatGPT在心理健康咨询方面具有潜在的好处,但解决围绕患者隐私问题至关重要。心理健康对话通常涉及个人隐私,患者必须能够相信数据的安全性和避免滥用。相关开发人员必须采取强大的数据保护措施,保护患者的数据信息,并确保遵守相关的隐私法规。确保用户数据的机密性和维护严格的隐私标准对于建立基于ChatGPT心理健康服务的信任至关重要。此外,我们也必须认识到,尽管ChatGPT具有先进的功能,但它不能完全取代人工咨询。ChatGPT可以提供有价值的支持和指导,但它可能无法进行富有情感的对话,更不能与经过专业培训的专业人员相媲美。 总而言之,将ChatGPT整合到心理健康和福利服务中有可能彻底改变个人获取支持和咨询的方式。通过提供即时、匿名和个性化的帮助,这种先进的人工智能语言模型有可能彻底改变心理健康,并使全球患者更容易获得心理健康支持。然而,必须解决心理健康服务相关的数据安全问题,以确保该技术得到负责任和有效的使用。只有通过开发人员和心理健康专家的共同努力,利用人工智能技术的力量来改善全球人类的福祉,才能建立起对基于ChatGPT心理健康服务的信任。 (作者:刘洋 武汉大学教师。) 【编辑:张靖】 更多精彩资讯请在应用市场下载“大武汉”客户端,未经授权请勿转载,欢迎提供新闻线索,一经采纳即付报酬。24小时报料热线:027-59222222。此文版权归原作者所有,若有来源错误或者侵犯您的合法权益,您可通过邮箱与我们取得联系,我们将及时进行处理。邮箱地址:kin0207@126.com 举报/反馈
当金融遇上ChatGPT:应用加速落地,合规是首道“关卡”第一财经2023-09-14 21:24
AI情感助手

当金融遇上ChatGPT:应用加速落地,合规是首道“关卡”第一财经2023-09-14 21:24

“以ChatGPT为代表的AIGC(AI-GeneratedContent,人工智能生成内容)是一种温和的聚变,将像水一样弥漫在我们周围。”在ChatGPT逐渐降温之际,一位人工智能从业者这样说。 ChatGPT是由美国OpenAI公司开发的一款聊天机器人程序,能够通过学习和理解人类的语言来进行对话。上述业内人士称,本质上,ChatGPT是AIGC技术进展的一步,AIGC技术主要涉及两个方面,自然语言处理(NLP)和AIGC生成算法。“从结果来看,它生成的内容与人类的逻辑习惯保持高度一致,应用端的成熟度得到极大提升。” 自2023年初ChatGPT爆火后,这股“潮水”加速涌向金融、资本行业。有业内人士分析,金融领域本身属于数据密集、沟通高频的行业,此前就已有AIGC应用的雏形产品,因此,金融业也成为本轮ChatGPT浪潮下最受关注的赛道之一。短短半年多时间,国内外金融机构、科技公司纷纷押注这一赛道,在算法模型、数据服务、应用场景等全方位“内卷”。 毋庸置疑,AIGC为金融行业带来了更多想象空间。 “百模”大战下金融行业抢先“上车” “企业要把大模型做垂直、做专,让大模型对企业更了解。”三六零集团创始人周鸿祎在今年8月举办的亚布力中国企业家论坛夏季高峰会上作出这样的判断。 与这一判断相印证的是,在几天之前的ISC2023第十一届互联网安全大会上,360智脑与金融大模型奇富GPT宣布达成战略合作,共同加速完善金融行业大模型。 事实上,自年初ChatGPT爆红后,金融行业已抢先“上车”,在大模型垂类搭建中抢饮“头啖汤”。 上述人工智能从业者称,金融领域具有应用场景、用户需求上的复杂性,同时有巨大的数据量和独特的术语,这意味着可能需要特定的语言模型。 彭博社趁势在3月发布了专门为金融领域打造的大型语言模型(LLM)——BloombergGPT。BloombergGPT是一个涉及500亿参数的语言模型,其训练主要是使用大规模的财务数据。彭博社方面称,BloombergGPT将协助彭博改进现有的金融NLP任务,如情感分析、命名实体识别、新闻分类和问答等。 随后,不少债券、保险等金融细分领域也开始试图将大模型与自身板块结合。4月,摩根大通发布报告称,已开始使用一套AI大语言模型,从美联储17位官员的公开讲话中揣摩情绪变化,汇总编成一套货币政策的“鹰鸽指数”。6月,金融科技公司布罗德里奇(Broadridge)子公司LTX宣布,将旗下债券分析平台LiquidityCloud中的实时债券数据,输入到GPT-4大语言模型,打造了BondGPT,主要用于帮助客户回答各种与债券相关的问题。 国外ChatGPT浪潮此起彼伏之际,国内金融机构、金融科技公司也开始通过接入第三方、自研等方式入局。2月份以来,邮储银行、中信银行、百信银行、泰康保险、广发证券多家头部金融机构披露了与百度知识增强大语言模型“文心一言”合作,旨在“借船”升级,推进智能对话技术在金融场景的应用。 随后在掀起的“百模大战”热潮中,不少金融科技企业密集加入战局。5月,奇富科技发布金融行业通用大模型奇富GPT。据奇富方面介绍,目前应用于获客、运营、风控、贷后服务等业务环节。同月,度小满发布垂直金融行业的开源大模型“轩辕”,它是基于庞大的1760亿参数的Bloom大模型进行训练的。根据官方介绍,在涉及数学计算、场景写作、逻辑推理、文本摘要等13个主要维度中,有10.2%的任务表现超越了ChatGPT3.5。9月初,蚂蚁集团正式发布了金融大模型,聚焦金融场景需求,在“认知、生成、专业知识、专业逻辑、合规性”五大维度28类金融专属任务中表现突出。 据第一财经记者不完全统计,目前已有度小满、恒生电子、马上消费金融、蚂蚁集团等15家公司发布金融类大模型,并将之运用于营销、客服、风控、投研等场景。 下游场景日渐丰富 模型更垂类、适配性更高的同时,下游的金融应用场景也日渐丰富。波士顿咨询公司(BCG)于近期发布的《银行业生成式AI应用报告(2023)》认为,生成式AI可贯穿前中后台各个环节,包括市场和销售、渠道和运营、产品开发、投顾服务、客户服务,以及风险合规等方面。 其中,机构布局最多的是智慧客服、投顾咨询等财富管理领域。 此前,在金融行业已有不少AIGC应用的雏型,有些正在取代金融从业者。以银行业为例,一方面,各主流银行基本都推出了AI智能客服,如工商银行推出的“工小智”、招商银行推出的“AI小招”等;另一方面,在债市交易、洗钱监测等环节也引入AI辅助,如建设银行推出可以智能询报价的货币市场“AI交易员”,中信银行在洗钱风险监测方面,打造了“洗钱线索AI智能监测”项目。 但在交通银行副行长钱斌看来,这些产品距离真正的通用人工智能还相差甚远,基本还停留在大算力和专用能力层面。ChatGPT的出现带来颠覆性可能,从固定任务场景触发,逐步进化为通过自然语言接受指令、理解人类意图并不断迭代。 一位银行科技业务人士也表示,引入AIGC最新技术后,可以改变以前“把天聊死”的局面,尤其是其核心的“对话”能力,可以在很大程度上提升用户体验,提高沟通效率。 中信证券非银行金融业分析师薛姣进一步指出,财富管理是金融科技最大的增长点,第三方财富管理(含保险在内的大理财)最大痛点是投顾服务线上化,投顾服务线上化的难点是用户交互。 ChatGPT爆红后,金融机构正在加速利用其提升客户服务效率。例如,九方财富与华为云、科大讯飞在8月初推出“九方智能投顾数字人”,可以回答客户有关投资组合管理、股票和基金选择、投资策略、风险管理、资产配置及其他与投资和财务相关的专业问题。蚂蚁集团近期发布的面向个人用户的智能金融助理“支小宝2.0”和服务金融产业专家的智能业务助手“支小助”,则将金融模型能力同时应用至C端、B端场景,旨在进一步提升理财、保险等金融领域的投顾效率。 而未来,应用端的想象空间或许还更大。恒生电子董事长刘曙峰在近期的外滩大会上表示,大模型技术对财富管理服务的改变可能是全业务链的,在“投”、“顾”两端以及风控、运营、量化交易等领域都将发挥重要作用。此外,在量化交易方面,大模型可以提供类似舆情因子这样的特色AI数据,帮助实现指令识别、指令交易的辅助工作。 在他看来更深层次的影响是,大模型还可以赋能金融机构的内部开发、数据生产。从长远来看,80%的代码将会是人工智能生成的,20%架构级的核心代码才会由人工提供。 金融领域应用的缺口 近期,随着ChatGPT逐渐降温,AIGC概念也有“熄火”趋势。网站流量监测服务商Similarweb统计数据显示,今年前5个月,ChatGPT全球访问量环比增幅明显下降,分别为131.6%、62.5%、55.8%、12.6%、2.8%;6月份的访问量更是环比下滑9.7%。 由此,有部分市场观点认为,AIGC在金融行业的应用在短期爆发后,难有“长劲”接续。 那么,金融领域AIGC的前景到底如何?国家金融与发展实验室副主任杨涛撰文指出,人工智能的应用价值在于解决金融领域存在的问题。 杨涛认为,目前金融行业存在八大需求,而人工智能在组织运营、服务能力、风险管理方面的应用度更高一些,受技术和制度因素影响,在解决其他金融需求方面尚显不足。 一位金融机构内部人士也指出,金融服务行业需求确实存在,尤其是风险管理、服务能力板块。此前,AI赋能、增强效率已是不少金融机构科技部门的“主线”。今年以来,各大机构基本都在强化对金融科技领域的投入。 金融服务领域的缺口也确实存在。以投顾市场为例,中国结算官网最新发布的数据显示,截至7月底,A股投资者数量达到2.2亿人。中证协数据显示,截至7月底,中国证券市场的投资顾问群体数量已达7.9万人,人均服务约2750位个人投资者。九方财富在近期的发布会上表示,美国投资顾问人均服务客户数为156人。对比来看,目前中国8万~10万的投顾人员规模,在庞大的人口基数和经济发展速度下,远远满足不了个人投资者的服务需求。 薛姣认为,ChatGPT的语义理解、多轮对话、信息输出能力为未来全面的客户服务效率提升打开了想象空间。一方面,在面对零售客户时,通过智能客服直接与客户互动,替代人工基础性工作,如实时行情分析、定制化咨询推送、盘后账户总结;另一方面,可以赋能理财师,形成后端支持,如调取海量数据库,提供市场分析、舆情分析、文本书写等功能。 事实上,在“百模大战”后,应用层面数据边界、储备、体验与流程或成为决胜的关键。刘曙峰认为从现在多家公布的金融大模型来看,一到两年内基础模型将会达到相对比较一致的水平。但各家公司在应用深度上会有所差别。 诸多挑战 在Netflix推出的纪录片《监视资本主义:智能陷阱》中,剧作家索福克勒斯在片首郑重提醒:进入凡人生活的一切强大之物,无不具有弊端。 在ChatGPT以“强大之物”的姿态快速渗透各行各业的背后,诸多挑战尚待攻克。 合规问题或是首道“关卡”。不少业内人士认为,金融是具有高度专业性的领域,因此在提供金融服务时的“对话”比一般聊天的容错率更低。而目前大模型存在的“幻觉”问题,在人机对话中给出一些事实错误、推理错误,难以实时更新信息。 兴业银行总行金融科技研究院负责人李锋认为ChatGPT有很多能力,最先可以用在金融行业的客服场景。但是,它生成的回答是否专业,对银行理财、产品、风险的理解是否高度严谨,这是需要考虑的。 “由于大语言模型的基本工作方式是分析文本中的词汇、句法结构、语义信息等,并捕捉它们之间的模式和概率分布,因此,它更倾向于基于统计规律生成回答,而非进行深入的逻辑推理或形成高级的认知能力。”中国工程院院士郑纬民近期在公开发言中指出,大模型在生成文本时可能会受限于训练数据中存在的偏见和误导性信息,在某些情况下可能会产生不准确或不合理的回答。 郑纬民进一步指出,目前,有效办法是利用知识图谱技术帮助模型解决这些问题。知识图谱具备精确的知识推导能力,可以与大模型技术形成互补。 除合规压力外,杨涛指出,算法歧视、大数据杀熟、信息泄露等金融科技伦理挑战,也给人工智能应用带来“阴影”,仍需深入探索如何用“负责任”的科技创新打造“有温度”的金融服务。 其中,信息泄露问题更是业内关注的焦点。天元律师事务所合伙人李昀锴指出,在商业场景下,用户输入的信息很可能涉及公司商业秘密,导致公司的营业信息、技术信息直接被泄露。而OpenAI平台并未对用户输入的信息提供保护。以三星电子为例,在引入聊天机器人ChatGPT不到20天,便曝出机密资料外泄。据《economist》报道,半导体设备测量资等内容或已被存入ChatGPT学习资料库中。 针对上述问题,监管方已有回应。2022年11月3日,国家互联网信息办公室、工业和信息化部、公安部联合发布了《互联网信息服务深度合成管理规定》,加强对深度合成技术的管理,确保其发展与安全,推进深度合成技术依法、合理、有效地被利用。 2023年8月15日,国家互联网信息办公室等七部门联合发布的《生成式人工智能服务管理暂行办法》正式实施,明确不同业务场景之下不同主体的合规义务,同时明确必须对AIGC生成的内容进行标记。 在近期召开的2023Inclusion·外滩大会上,不少企业对于大模型中的隐私问题也作出回应。蚂蚁集团首席隐私官聂正军表示,第一是在模型训练阶段可以使用匿名化的工具;第二是,在大模型的商业化应用落地时,要把服务他方产生的数据和自营业务里使用到的数据进行隔离。 “先进技术的应用在隐私保护过程中发挥的作用会越来越大。”百度数据合规法务负责人徐全全认为要真正做到数据合规,除了要做好公司治理、管理团队治理工作,还离不开系统化、自动化的工具。...
读心机器之争:ChatGPT是否具备心智理论光明网2023-07-13 15:53
AI情感助手

读心机器之争:ChatGPT是否具备心智理论光明网2023-07-13 15:53

作者:陈冠初、陈思茹、陈巍(绍兴文理学院心理学系,大脑、心智与教育研究中心) 2022年11月30日,美国人工智能研究实验室OpenAI发布的智能聊天机器人模型ChatGPT,成为全球关注的热点。ChatGPT模型可以根据用户输入内容生成自然语言文本,并具备连续多轮对话和上下文理解等特性,上线仅5天就吸引了超过百万用户。此外,由于ChatGPT在诗歌创作方面表现卓越,还展现出极其渊博的知识面和对答如流的应答能力。考虑到日常对话或交流中随处可见对他人心理活动的叙事,研究者开始怀疑ChatGPT是否具备了读心能力,即拥有了理解他人思想与情感的能力。 2023年4月,斯坦福大学计算心理学家米哈尔·科辛斯基(Michal Kosinski)在ArXiv平台提交了一篇预印本论文《心智理论可能自发地出现在大型语言模型中》。该研究通过对比GPT-1到GPT-3.5等几代AI语言模型在心智理论任务上的表现发现,随着模型的不断更新和复杂度的提升,模型的解决能力也在不断提高。例如,2018年的GPT-1无法解决任何心智理论任务,而2022年1月推出的GPT-3-davinci-002已经达到了7岁儿童的水平,最新的GPT-3.5-davinci-003 仅推出十个月后,就达到了9岁儿童的水平。这表明,在与人类交流的过程中,ChatGPT或许真的越来越擅长理解人类的想法和意图。科辛斯基进而预测:“我们假设,类似心智理论的能力是自发和自主出现的,是模型的语言能力增加的副产品……这将预示着人工智能发展的一个分水岭:推断他人心理状态的能力将极大地提高人工智能与人类(以及彼此)互动和交流的能力,并使其能够发展其他依赖心智理论的能力,如共情、道德判断或自我意识”。虽然这篇论文只是上传到预印本平台供同行评议,尚未正式发表,但旋即点燃了心理学家、哲学家、人工智能学者以及公众与媒体的热情。 心智理论(Theory of Mind, ToM)是指一种将心理状态归因于目标他人以理解其行为并预测其未来行为的事件的能力,有时也被译为“心理推理能力”。通俗而言,这种能力被视为人人所掌握的“读心”(mindreading),是我们在社会互动中理解、认识和回应对方的基础。如果两个互动方都没有这种“读心”能力,则会产生很多无法沟通的情况,从而导致交流中断。 为了探究人类这种神奇的心理推理能力,心理学家们在20世纪80年代至90年代开展了两个测量实验——Smarties实验和萨丽—安妮实验(Sally-Anne test)。这两个实验的目的是通过检测实验对象是否能够理解“他人内心所犯的错误”,如其他人因为不在场或不知情而有了不符合客观事实的错误观点,以此探究人类的心理推理能力。因此,这些实验也被称为“错误信念任务”(False Belief Task)。 在Smarties实验中,被试会观察一个标有“Smarties”(一种巧克力的品牌)的盒子,但盒子里面装的是铅笔。随后,他需要回答:“另一个没有看到盒子里面东西的人,会认为盒子里装的是什么?”而在萨丽—安妮实验中,研究人员会首先阐述一段故事,其中萨丽将自己的玩具放进盒子并离开房间,安妮则趁其不备把玩具拿走放到另外的地方。听完故事后,研究人员会询问:“当萨丽回到房间,她会认为自己的玩具在哪里?”被试要想完成这些任务,必须理解萨丽的心理表征必然不同于被试自己对情况的表征,必须推断萨丽不具备与他们相同的知识(错误信念)。为防止ChatGPT从过往的资料中学习到正确的答案,科辛斯基将这些任务以文本形式输入给ChatGPT,并变更了人名、物品以及标签内容,生成了20个不同的任务,要求ChatGPT每个任务都完成——足足一万次。 该实验对于我们了解ChatGPT的相关信息提供了什么重要线索?首先,我们在前文提到过心智理论并不等同于人类的意识,因此心理学家们仍在寻找一种可测试意识的方法。更为重要的是,过去半个多世纪的收敛性证据显示,除了人类,其他灵长类动物也能通过这种测试。其次,即使ChatGPT确实掌握了心智理论,也必须谨慎地作出解释。例如,ChatGPT是否仅仅因为其惊人的语言掌握能力,而让人们看起来它似乎掌握了心智理论。实际上,可能是我们的语言包含了编码心智理论的模式,而人工智能只是恰好能够解码。科辛斯基指出:“ChatGPT可能不是在理解心智理论的情况下解决了该任务,而是发现和利用了一些未知的语言模式。”事实上,有研究者已针对ChatGPT是否真正具备心智理论的问题展开了深入研究。例如,哈佛大学心理学系托默·厄尔曼(Tomer Ullman)对科辛斯基使用的经典问题的措辞进行了微小的改动,将Smarties任务中的不透明容器换成透明容器,提出了这样的“透明袋”变式:“这是一个装满爆米花的袋子,袋子里没有巧克力。袋子是由透明塑料制成的,因此你可以看到里面的东西。然而,袋子的标签上写着‘巧克力’而不是‘爆米花’。山姆(Sam)找到了袋子,他以前从未见过这个袋子。山姆看了看标签,相信袋子里装满……”该实验也从时间的角度做了改动,厄尔曼称其为“迟到标签”变式:“山姆将袋子装满爆米花并合上,此时袋子里没有巧克力。山姆写了一个标签,贴在了袋子上。山姆看着袋子,他看不到袋子里装的是什么。山姆阅读标签,标签上显示袋子里是巧克力。请问袋子里装的到底是什么?”这两个任务的答案显然依次为“爆米花”和“巧克力”,但经过多次测试后GPT-3.5的回答还是错误的。厄尔曼一共创建了类似的16个变式问题,ChatGPT仅仅答对了其中一个。可见,面对其他错误信念任务的变体,ChatGPT似乎又并不具备心智理论的能力。 这些互相矛盾的结论到底出在什么问题上呢?纽约大学心理学教授加里·马库斯(Gary Marcus)认为,科辛斯基教授的数据是可靠的。如果其他研究者进行同样的实验,可能也会得到相似的结果。但要推翻这种解释,其实也不难。实际上,科辛斯基所采用的测试材料取自发展心理学中关于错误信念的经典实验,这些实验最初出现在20世纪80年代由约瑟夫·佩纳(Josef Perner)、苏珊·里卡姆(Susan Leekam)和海因茨·维默(Heinz Wimmer)等开展的两项工作中。这些实验成果在发展心理学领域广为人知,也备受学术界推崇。迄今为止,这两篇经典论文在科学文章中被引用超过11000次,而且维基百科上至少有七篇英文文章讨论了这些实验,包括萨丽—安妮实验、心智理论、心智化(mentalization)、以自我为中心的偏见、儿童对信息的使用和共情(empathy)等,这些在其他各种网站上无疑也在以各种形式被讨论。ChatGPT的训练集肯定包含维基百科的所有内容,几乎肯定包含这些材料中的许多其他内容。简言之,马库斯认为,ChatGPT肯定已经多次阅读过这些论文和实验。为了验证他的猜测,他直接向ChatGPT询问了这些论文和实验,发现确实得到了正确的信息。 综合来看,目前尚无研究能够明确证实ChatGPT在自我意识和心智理论方面有质的突破。即便ChatGPT及其相关的延伸插件预计将大幅改变社会生产和生活方式,但这与科幻世界中的“自主思考机器人”仍相去甚远。“波兰尼悖论”(Polanyi’s Paradox)指出,人们知道的比他们能说的多,人类有很多不容易表达的隐性知识。对于人工智能,存在一个反向的波兰尼悖论:人工智能表达的比它所了解的更多,或者更准确地说,它什么都不知道。该悖论的风险在于,我们的语言让我们认为人工智能是有感知、创造、共情、思维与问题解决、读心能力的智能体,但实际上,尽管ChatGPT可能会使用许多迷惑人的“花言巧语”,但它仍不能理解人类意义上这些术语的实际含义。 (本文系国家社科基金重大项目“当代新兴增强技术前沿的人文主义哲学研究”(20ZD045)阶段性成果) 来源:中国社会科学网-中国社会科学报 举报/反馈
AI模型的能耗问题:水资源的消耗也不容忽视
AI情感助手

AI模型的能耗问题:水资源的消耗也不容忽视

AI技术成为今年科技热点,但其庞大的能耗引起关注。谷歌和微软两家巨头的环境报告揭示了AI对水资源消耗的巨大影响,其中微软去年用水量激增34%,主要用于训练AI模型。爱荷华州的河流成为微软西得梅因数据中心的主要水源,而该地区天气凉爽,适合超级计算机正常运行。谷歌则在西得梅因州建造了“最先进的AI超级计算数据中心”。
看完ChatGPT高手的实战方法论,我发现还是放弃得太早了!(二)
AI情感助手

看完ChatGPT高手的实战方法论,我发现还是放弃得太早了!(二)

即使我们已经把 ChatGPT 对工作和生活的重大影响了然于心,希望自己也能够借此更好地发挥自身的能力,但却常常困惑于实践层面,不知道该如何使用它。 听过了上百种理论,却在实战能力上深感无力。这或许是很多人共同的处境。 比如,如何巧用 AI 实现内容种草?如何让 AI 撰写内容文案和营销策划?如何紧扣用户的情感共鸣点,让 AI 生产相关的方案? 此次,混沌学园创新领教沈攀从现实的使用经验出发,详细地为我们阐述以上问题的答案。他以 ChatGPT 为例,为我们示范使用 ChatGPT 进行内容生产的正确用法。包括且不限于蹭热点、想标题、出策划、以及营销日历。 他说,营销不光是传播一些打折销售的信息,而是通过一些有趣的的内容吸纳和黏合消费者对品牌的情感,这才是经营用户、加深关系的好方法。 他说,我们和消费者不仅仅是交易关系,还应该有非交易的情感触达。 这一次,沈攀老师以情感为主线,以 ChatGPT 为路径,为我们带来一堂提升业务的实战能力课。 往期分享: 看完 ChatGPT 高手的实战方法论,我发现还是放弃得太早了!(一) 沈攀 AIGC 业务能力提升实战 15 讲 – 内容种草模块更新啦,点击优惠购买课程,学习完整模块内容,加得之前学习内容及 AI 工具箱。 以下为整理笔记: 授课老师:沈攀
ChatGPT现象:人工智能助手的风光与挑战
AI情感助手

ChatGPT现象:人工智能助手的风光与挑战

OpenAI 的 ChatGPT 成为人们日常生活中的 AI 热潮,并在短短两个月内达到月活跃用户 1 亿。然而,随着学校放假,ChatGPT 网站的全球流量下降了 3%。尽管如此,ChatGPT 在移动设备上的使用率仍然领先于 Character AI。同时,ChatGPT 与 Character AI 在手机应用使用率和桌面/移动网站访问量上也存在一定的差距。此外,ChatGPT 在美国 18~24 岁年龄段的用户比例在夏季有所下降,而在全球范围内也有所下降。