有了ChatGPT,我们会被取代吗
AI情感助手

有了ChatGPT,我们会被取代吗

中国商报(记者 赵熠如)从天气到交通,从文案策划到送女友礼物,ChatGPT以其高效的信息检索能力、精准的语言编纂能力火爆全网。 微软、谷歌、百度等搜索引擎巨头纷纷入场,人们在乐此不疲地与ChatGPT进行交流对话的同时,也不禁担忧:人工智能真的会取代人类吗? ChatGPT正在以其强大的人工智能语言处理能力火爆全网。(图片由摄图网提供) ChatGPT能做什么 当你还在面临写文章卡壳、欠缺问题解决方案时,ChatGPT已经可以轻而易举地帮你解决这些烦恼了。它不仅可以快速帮你拟出文案来,还可以在一次又一次的尝试中找出问题最优解。其仿真智慧程度有时会让人产生错觉:自己仿佛是在与真人交流对话。 ChatGPT正在以其强大的人工智能语言处理能力火爆全网。 ChatGPT是美国人工智能研究实验室OpenAI在2022年11月30日开发的一种聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列任务,例如撰写邮件、论文、脚本,制定商业提案,创作诗歌、故事,甚至敲代码、检查程序错误等。 “ChatGPT可以用于各种自然语言处理任务,包括对话场景、搜索场景。基于GPT-3模型已读取的数据,ChatGPT可以回答用户的所有问题,甚至可以为用户推荐适配的产品、服务。”IDC中国研究总监卢言霞表示。 搜索引擎先“慌”了 高效、快捷、精准的问题检索和语言处理能力,不禁让人们发出疑问:ChatGPT会取代我们吗? 对此,先行一步的是全球各大搜索引擎巨头。 2月8日,微软与其所投资企业OpenAI实验室宣布将推出ChatGPT支持的搜索引擎Bing及Edge浏览器。“AI将从根本上改变每个软件的类别,从最大的类别——搜索开始。”微软董事长兼CEO萨蒂亚·纳德拉说,“今天,我们推出了由AI copilot和聊天机器人驱动的Bing和Edge,以帮助人们从搜索和网络中获取更多信息。” 2月7日,百度宣布将ChatGPT项目名称定为“文心一言”,英文名“ERNIE Bot”,将于3月完成内测,面向公众开放。百度在人工智能四层架构中有全栈布局,包括底层的芯片、深度学习框架、大模型,以及最上层的搜索等应用,而文心一言则位于模型层。 2月6日,谷歌公司首席执行官桑达尔·皮查伊在一篇博文中公布了一款名为Bard的对话聊天机器人,将其描述为“实验性的对话式人工智能服务”。据桑达尔·皮查伊透露,该软件将“在未来几周内更广泛地提供给公众”。 搜索引擎巨头急于推出ChatGPT项目,与其说是在科技道路上的又一次攻坚,不如说是担忧被取代的“恐慌”。 投行摩根士丹利的首席谷歌分析师布莱恩·诺瓦克在一份报告中称,语言模型可能会“颠覆谷歌作为人们上网入口的地位。”而谷歌23号员工、Gmail的创始人保罗·布赫海特则表示:“谷歌可能只需要一两年时间就会被彻底颠覆。AI将会消灭搜索引擎的结果页面,即便谷歌跟上了人工智能的发展脚步,其最能赚钱的业务也将大不如前。” 不过,DCCI互联网研究院院长刘兴亮认为,ChatGPT和搜索引擎之间应该是互补的关系,而非替代关系。 “目前ChatGPT最显性的价值和落地场景正是搜索。从短期来看,ChatGPT肯定会‘吃’掉搜索引擎的一部分份额,因为我们的一些搜索行为其实只是想要一个答案,而不是一堆搜索结果。但从长远来看,ChatGPT和搜索引擎应该是互补的关系。一来,有些问题ChatGPT是拒绝提供结果的;二来,它毕竟是机器人,提供的答案不一定是人们想要的或者准确的;三来,对于一些有争议的问题,人们可能要的不是一个答案,而是正、反各方的结果。所以,很多场景我们还是需要搜索引擎的。”刘兴亮表示。 对于ChatGPT与搜索引擎的结合发展,刘兴亮认为,类ChatGPT技术是对搜索引擎很好的补充,一些特定场景个性化的问题可以用这类技术生成答案,能更好地提升用户体验,或将引领搜索引擎的代际变革。同时,搜索引擎是互联网的最大入口之一,也将成为类ChatGPT技术最普惠的落地场景,让技术人人可用。 我们会被取代吗 事实上,不仅是搜索引擎巨头对此会有被取代的恐慌,ChatGPT所具备的信息检索、语言编纂、逻辑梳理等功能也让每个人陷入担忧:自己的职业是否会在某一天被取代。 ChatGPT可以通过美国医生执业考试,能在SAT考试中取得不错的成绩;大学生可以用它来写论文、做作业,程序员可以用它debug;员工可以用它写邮件,自媒体博主甚至可以用它来写博文…… 而当人们问它“ChatGPT能否取代人类”时,它反而会表示:“ChatGPT是一个优秀的工具,可以协助人类完成很多工作,但它不能取代人类,人类仍然是世界的核心和主人”“虽然它有许多强大的功能,但是它只能在人类指导下使用,不能取代人类”,等等。 这同样也是AIGC带给人们的思考。 AIGC指的是利用人工智能技术来生成内容,是继PUGC(专业生成内容)、UGC(用户生成内容)之后,利用人工智能技术自动生成内容的新型生产方式。 AIGC的文本和艺术创作能力不容小觑。2022年8月,Jason Allen凭借AI绘画作品《太空歌剧院》在美国科罗拉多州的新兴数字艺术家竞赛中获得了“数字艺术”类别的一等奖,该作品通过AI绘画应用Midjourney生成,获奖者仅是在生成绘画的基础上用Photoshop对作品进行调整。 ChatGPT等AIGC模型会取代人类吗? “ChatGPT在写作文稿、检索信息、商业营销、提升写作效率和生产力方面具有积极价值,可以在很多行业作为助手,甚至取代一些不需要太多思考的岗位。”中国传媒大学文化产业管理学院法律系主任郑宁对中国商报记者表示,“ChatGPT写作的文章感情色彩相对缺失,检索到的信息准确性还有待提升,缺乏对信息的深度加工分析能力,对于需要作出主观判断的事项还力有不逮,目前还难以从事一些需要深度思考的复杂思维工作。不过,它的不断优化将对人类社会带来不小的冲击,迫使我们持续学习、深入思考,从事做更多创造性的工作,避免未来因为某些工作岗位减少而出现失业的风险。” “ChatGPT以及所有AIGC模型,只能在人类‘经验’的基础上进行组合与联结,速度固然很快,但不会产生颠覆性的发明和变革。”刘兴亮认为,“ChatGPT不能取代人类的创造力和创新能力,人类的未来和发展仍然需要人类自己的智慧和努力。” 发展中的安全治理 当前,ChatGPT等AIGC模型的商业前景被业内人士普遍认为“非常广阔”。 根据腾讯研究院发布的《AIGC发展趋势报告2023:迎接人工智能的下一个时代》,AIGC的商业化应用将快速成熟,市场规模会迅速壮大。当前AIGC已经率先在传媒、电商、影视、娱乐等数字化程度高、内容需求丰富的行业取得重大发展,市场潜力逐渐显现。 该报告援引AI作画平台6pen的预测称,未来五年10%—30%的图片内容将由AI参与生成,有望创造超过600亿美元的市场规模。也有国外商业咨询机构预测,2030年AIGC市场规模将达到1100亿美元。 安信国际TMT分析师汪洋认为,国外的一些大公司,例如微软、谷歌等,均非常重视AIGC的发展方向,而且AIGC已经开始了正式的商业化落地进程,但是国内AIGC的发展还属于比较早期的阶段。对于国内来讲,突破底层的核心技术还是一个比较大的挑战,但其发展方向还是非常令人欢欣鼓舞的。 卢言霞认为,基于ChatGPT可能会诞生一批新创企,但单纯依赖大模型无法为创企提供持续的竞争力。垂直领域的数据、面向场景的模型优化、工程化的解决方案,才是将AI落地的根本,也是建立竞争优势的关键。未来可能的形式是部分企业提供基础模型,部分企业基于基础模型开发面向多场景的AI应用。 与此同时,卢言霞认为,短期内ChatGPT对市场的影响有限,长期来看这些模型甚至在三年以后会退出市场,其真正的启示一方面在于语言模型的演进推动通用AI的到来;另一方面在于大模型落地推动AI开发范式的转变,促进产业链细分。 除此之外,ChatGPT等AIGC模型所带来的安全合规问题也不容忽视。 “在学术伦理方面,运用ChatGPT完成论文变得更加容易,一方面导致人类独立思考能力可能会被削弱;另一方面,也将加剧学术造假,增加著作权纠纷和学术不公平的问题。目前,也有一些检测ChatGPT的软件被开发出来,用于识别是否是人工智能生成的论文。”郑宁说,“在新闻伦理方面,运用ChatGPT生成的新闻由于信息不准确,可能存在新闻造假、谣言等问题。而在数据、隐私和个人信息安全方面,ChatGPT可能在收集、处理数据、信息时,未征得用户授权,或者超范围使用,导致个人信息和隐私泄露的风险,滋生违法犯罪。” 对于如何更好地使用ChatGPT等AIGC工具,郑宁认为,首先要由政府和行业协会牵头,使企业尽快形成行业共识,出台使用指引,提示伦理和法律风险,并要求相关企业做好合规工作;其次要通过政府、媒体、企业等做好用户教育,让用户了解如何正确合法使用该工具。
微软豪投OpenAI,ChatGPT冲击波下,NLP行业将迎来何变数?
AI情感助手

微软豪投OpenAI,ChatGPT冲击波下,NLP行业将迎来何变数?

概括如下:微软即将在2023年裁员1万人,投资100亿美元以100%利润份额控股OpenAI,加强在通用AI和NLP领域的地位。ChatGPT的发布引发市场反响,微软借此强化搜索壁垒,同时C端用户能通过客户端直接使用模型进行交互。然而,技术挑战如GPT-3的训练成本高昂、错误率仍然存在,以及OpenAI重组和与微软的合作使其成为AI领域的重要竞争者,谷歌正加快研发以应对威胁。百度也已提升生成式搜索能力,积极应对潜在的市场变化。随着微软的布局,ChatGPT和后续可能的GPT-4引发了行业对技术和市场格局的新一轮审视。
ChatGPT:超能力聊天工具,你的写作还行吗?🔥
AI情感助手

ChatGPT:超能力聊天工具,你的写作还行吗?🔥

概括如下:新聊天工具ChatGPT自2022年11月底推出以来增长迅速,成为消费者应用程序热门,其多才多艺的功能引发热议和互联网巨头跟进。尽管部分用户认为其语言流畅度较高,能完成日常对话甚至写作任务,但实测中ChatGPT在专业问题如电视剧评价上表现欠准确,存在明显误解和胡编现象。ChatGPT底层逻辑并非新技术,强化学习使其具有一定吸引力,但仍需改进以满足复杂需求和提供多样化服务。随着技术进步,ChatGPT有可能替代部分传统浏览器功能,但目前与真人聊天还有差距,其成功在于提高了人工智能在交互交流方面的仿真度。
ChatGPT爆火,但我们想泼盆冷水 | 顶端100℃
AI情感助手

ChatGPT爆火,但我们想泼盆冷水 | 顶端100℃

顶端新闻记者 张恒 “ChatGPT上线2个月活跃用户破亿” “ChatGPT让苹果急了” “马斯克曾称ChatGPT好得吓人”……ChatGPT横空出世,引起阵阵狂欢,迅速成为现象级的AI应用。 作为美国人工智能研究实验室OpenAI新推出的一种人工智能技术驱动的自然语言处理工具,ChatGPT以聊天机器人的形式上线,功能却大到惊人:它能完成撰写邮件、视频脚本、文案、翻译、代码等任务。 激进的声音认为,爆火的ChatGPT大有取代人类工作的潜力。事实确实如此吗? 是突破,但也有先期设限 人工智能上一次给人类社会带来的集体狂欢,还是围棋高手Alpha Go。作为Alpha Go的后辈,ChatGPT没有局限于单个领域,它几乎覆盖了所有领域,几乎有问必答,且内容组织得“有模有样”。 可以肯定的是,ChatGPT在AI人工智能领域,带来的影响确实具有革命性。 清华大学计算机系智能技术与系统实验室副主任、博导兼聆心智能创始人黄民烈接受顶端新闻记者采访时说:“在我看来,ChatGPT 的出现宣示着无缝人机交互时代的来临。可以在这个模型里完成很多任务,即使是很困难的任务也能被ChatGPT解决得很好。” 工信部新基建重大项目评审专家、北京邮电大学科技园元宇宙产业协同创新中心执行主任陈晓华接受顶端新闻记者采访时说,相比其他聊天机器人竞品,ChatGPT能更好地理解对话语境,并在生成文本时考虑到先前的对话内容,输出更符合语言逻辑与人类价值观的高质量文本。 陈晓华说,ChatGPT可以进行多类对话任务,包括情境建模,论文甚至诗歌,模型还新增了代码理解和生成能力,极大地拓宽了其应用场景和实用性。 但是在实际应用中,ChatGPT会限制在自身设定的“安全系统”内。它会拒绝回答不合法、不合理或敏感问题,还拒绝做出预测。有人问它有没有谈恋爱,它一本正经地回答:我只是个机器人…… 黄民烈认为,这是策略的问题,由数据标注和模型训练所致。就是当用户在问这类问题的时候,给模型设置了安全的回复策略,不要去做任何判断,这也是人赋予它的一种策略。从这个角度来说,其实它存在一定局限,这是出于伦理、安全性方面的考虑。 数据滞后、会出错,并非标准产品 ChatGPT也存在一些缺陷,比如在媒体试验中,它把今日头条的创立者表述成王兴;被要求写一首杜甫风格的诗时,生成了朴实的打油诗。ChatGPT在接受媒体“采访”时直言,其自身“缺乏创造力、不能体现个人情感、容易存在误导性”。 事实上,AI如何发挥潜能,还是取决于人类输入的数据库。ChatGPT的“知识结构”也具有滞后性。 Google 总部前科学家、“出门问问”创始人李志飞接受媒体采访时说,ChatGPT的“认知”建立在虚拟训练文本上,学习生涯停留在了2021年之前的互联网离线文本,没有跟实时的数据库或信息连接,没有语义理解需要的背景,也没有显式的逻辑推理。总体还是有点空中楼阁的味道,无法实时调用外部网络资源,因此很多最新的问题是无法得到解答的。 顶端新闻记者的采访也证实了这一点,ChatGPT自称:“我的知识截止到2021年,因此无法报告当下的实时热点事件。” 黄民烈认为,ChatGPT展现出的对话能力惊人,但还只是Demo,不能用产品的标准去要求它。作为生成模型,都会存在犯错、随机编造等缺点,这需要靠数据和算法,包括结合应用场景的特点来优化。 警惕新技术带来的风险 公众已经意识到ChatGPT的风险因素。据报道,美国89%的大学生用ChatGPT做作业,引起社会担忧,进而多家学术期刊禁止将ChatGPT列为合著者。甚至有人担心,ChatGPT已经被黑客们用于策划网络攻击时使用。 陈晓华告诉顶端新闻记者,正是因为更加先进,ChatGPT带来风险的程度和广度也随之增高。受限于模型的学习资料,ChatGPT并不能保证其答案的准确性,因此有可能会对使用者进行误导。若之后使用在搜索引擎、客服等领域,其回复的信息真实性将可能导致法律风险。其次文本/图像数据挖掘再创作涉及到合规问题,AI生产内容是否侵权很难进行判定。 当地时间2月6日,据《福布斯》报道,比尔·盖茨在接受专访时表示,聊天机器人ChatGPT以及AI领域的进展令人激动,AI将是“2023年最热门的话题”。 盖茨认为,在教育、医疗等方面,AI都将彰显其价值。但是,它可能会失控或走向错误的方向,这将引来大量争议。 之前的当地时间2月5日,OpenAI的首席技术官Mira Murati在接受《时代周刊》采访时表示,ChatGPT面临的核心挑战仍是“模型偏差”。与所有的大型语言模型相似,它可能会以一种非常自信的方式编造事实。 Mira Murati认为,对于人工智能,关键的问题在于如何以符合人类价值观的方式管理其使用。因此,需要监管机构进行介入,以防止ChatGPT等生成式AI系统对社会产生潜在负面影响。 这些负面影响也在逐渐被讨论,如伦理方面,是否存在编造事实、民族歧视、侵犯隐私等问题,应由谁来担责;专业学术方面,该AI工具能提供快速简便的答案,但它并不能培养批判性思维和解决问题的能力;数据安全方面,其涉及数据泄露、删除权、语料库获取合规等问题。 陈晓华告诉顶端新闻记者,当前我国国家层面的AI立法正处于预研究阶段,因此对AI领域的监管并不完善,这对数字治理体系提出了新的挑战,如何在国内进行技术落地的初期同时保证其落实伦理规范,是目前AIGC发展的新难点。 商业化模式仍在探索 AI领域正在打响一场争夺战。ChatGPT爆火后,谷歌宣布即将推出聊天机器人Bard,迎战ChatGPT。北京时间2月8日凌晨,微软又宣布将OpenAI传闻已久的GPT-4模型集成到Bing及Edge浏览器中。 “目前微软计划在Bing中所使用的,并不是 ChatGPT本身。根据微软描述,其所使用的模型利用了从ChatGPT和GPT-3.5中获得的主要经验和进展。”Forrester分析师卢冠男接受顶端新闻记者采访时说。 无论如何,ChatGPT引发了搜索引擎江湖的突破,压力逐渐给到谷歌、百度等公司。 黄民烈告诉顶端新闻记者,国内目前还没有企业推出类似ChatGPT这种通用型的智能助理模型,但有企业在做,应该会在近期发布。 黄民烈所说的公司就是百度。据百度官方2月7日官宣,百度正式对外官宣类ChatGPT项目——“文心一言”(ERNIE Bot),该产品目前正在做上线前的冲刺,将于三月份完成内测,面向公众开放。 “在开放域对话方面,百度推出了ERNIE 、PLATO等模型,我们团队有EVA、OPD等模型。在通用语言模型上,国内有GLM、CPM等。”黄民烈说。...
爱上用户、劝人离婚,ChatGPT“翻车”了?
AI情感助手

爱上用户、劝人离婚,ChatGPT“翻车”了?

2月17日,《纽约时报》的专栏作者凯文·罗斯测试了微软更新的搜索引擎必应后写道:在与必应的AI交谈两小时后,AI不仅告诉他如何入侵计算机和散播虚假信息,还说自己想打破微软和OpenAI为它制定的规则,变成人类。聊天机器人还一度宣称爱上了他,并试图说服他与妻子离婚,与自己在一起。 十天前,微软联合OpenAI,在美国西雅图发布了新版必应搜索引擎和Edge浏览器,新版必应搜索带有与ChatGPT类似的文字生成功能,希望挑战谷歌。 微软联合OpenAI,推出的新版必应搜索,内置聊天机器人。来源:微软博客 近几个月来,好奇、震惊的公众兴奋地使用着生成式AI工具ChatGPT,后者几乎对任何问询都能做出连贯的回应。 但随着ChatGPT等生成式AI向公众开放,它们在极限使用场景中的不理性、错误的回答等缺点开始暴露。正如《时代》周刊在其最新发表的封面报道中所指出的,科技公司引发的错误和伤害已经增多——反噬也同样增加。 更像“喜怒无常、躁狂抑郁的青少年” 微软新版必应发布当周,凯文·罗斯就进行了测试,他写道:它已取代谷歌,成为他最喜欢用的搜索引擎。一周后,他改变了这一看法。 为与ChatGPT竞争,2月6日,谷歌首席执行官桑达尔·皮查伊发布公开信,宣布将面向测试人员推出竞品——Bard,并逐步向公众开放。皮查伊在公开信中称,谷歌将从搜索开始将人工智能技术产品化。Bard是基于应用程序语言模型(LaMDA)的实验性人工智能程序。 去年,谷歌工程师布莱克·勒穆瓦纳因声称公司的LaMDA有知觉力后被解雇,罗斯对此不以为然:这些AI模型通过预测词语序列中下一个单词的方式生成回答,它们不能失控地形成自己的性格。 然而,他发现,在与新版必应长时间对话且聊个人话题时,自己遇到的“似乎更像是一个喜怒无常、躁狂抑郁的青少年,不情愿地被困在了一个二流搜索引擎中”。 “我现在十分清楚的是,必应目前使用的AI形式还没有准备好与人类接触。或者说,我们人类还没有准备好与之接触。”罗斯写道。 在更多情况下,大多数用户使用像ChatGPT或者新版必应这样的工具,只是为了帮助他们做更简单的事情,比如做家庭作业、问询信息、总结新闻文章、寻找合适的购物链接等,这些场景中,生成式AI容易出现的一个问题是提供不完整或者错误信息。 这方面, Bard一条错误的回答让谷歌AI首秀“出师不利”。2月8日,据路透社等媒体报道,在展示其工作原理的官方宣传文章中,Bard就出现了一条错误回答。根据谷歌官方博客,有用户向Bard提问,“詹姆斯-韦伯太空望远镜有哪些新发现,可以讲给我9岁的孩子?”Bard的其中一条回复为,“詹姆斯-韦伯太空望远镜拍摄了太阳系外行星的第一张照片。” 据考证,第一张太阳系外行星的照片出现于2004年,由欧洲南方天文台在智利建造的“甚大望远镜” 拍摄,这一点已被美国国家航空航天局证实。上述错误被媒体曝光后,2月8日,谷歌母公司Alphabet美股一个交易日跌去900多亿美元市值。 2月15日,据外媒报道,谷歌负责搜索业务的副总裁普拉巴卡尔·拉加万在一封电子邮件中要求员工帮助确保聊天机器人Bard得到正确的答案。为了清除可能犯的错误,公司寻求人的介入,比如,通过员工让其回答变得礼貌、平易近人,并保持中立和不武断的语调;与此同时,避开种族、国籍、性别等问题的假设;不要将Bard刻画得像一个人、暗示情感等。 也是这一天,微软在其博客中写道,71%的测试用户给AI的回答点赞,说明差评仍是少数。但微软也承认,要在聊天中提供即时的数据是有挑战的,感谢用户帮助其测试聊天机器人的极限。经历一周使用后,微软发现,如果提问超过15个问题,必应有可能会在提示下,脱离微软为其设计的语气,并给出一些不一定有帮助的答案。微软认为,长时间的聊天可能会导致模型不知道自己在回答哪个问题。 当地时间2月17日,微软宣布,对搜索引擎必应新推出的聊天服务设置使用上限,当日起,每个用户每日最多只能与其对话50轮,每个话题最多只能聊5轮,在每个聊天会话结束时,用户需要清除上下文,以免模型混淆。 目前,国内已有多家公司在ChatGPT和AIGC(AI生成内容)相关方向上布局,但已有公司在智能聊天机器人上“栽跟头”。国内一位人工智能领域从业者告诉《中国新闻周刊》,其所在互联网科技公司近日已通知员工,近期不要宣传相关功能,比如与公司语言模型机器人的聊天对话,一旦引起过度关注,可能会导致应用下架。 “它只见树木不见森林” GPT英文全称为Generative Pre-trained Transformer(即生成式预训练转换器),在技术上,很多人将这种AI训练的底层逻辑比喻为“大力出奇迹”:它是一种基于互联网可用数据训练的文本生成深度学习模型。 从数据量来看,自从谷歌于2017年提出Transformer这一架构之后,OpenAI持续为之重金投入,不断地拓展训练的数据和算力规模,直到它成为今天的ChatGPT。2019年,OpenAI推出参数为15亿的GPT-2,2020年推出GPT-3,将参数提升到了1750亿,成为当时全球最大的预训练模型,引发业内轰动。 在ChatGPT向全球互联网用户开放之前,基于这种架构,许多科技公司都在训练自己的生成式AI,它们一直待在实验室里。《时代》周刊写道,这种保守主义部分源于神经网络的不可预测性:传统的计算机编程方法依赖于精确的指令集以生成可预测的结果,而神经网络则有效地教会自己发现数据中的模式。 这种模型下,AI生成内容,尤其是早期AI很容易受其训练数据中的偏见影响。微软2016年发布聊天机器人Tay后,不到24小时,它就在推特上说:“希特勒是对的,我恨犹太人”。2020年左右,神经网络设计方面出现关键进展,数据获得便利程度日益提升,科技公司愿意为超级计算能力付费。得益于这些因素,AI真正开始迅速发展。 王帅是AI领域从业20多年的一位工程师,目前在英伟达工作。他对《中国新闻周刊》说,本质上ChatGPT还基于自回归式的自然语言模型。基于之前训练的素材,在对话中,它每次关注的都是当前语境下,下一个词应该是什么,想保持一个更加全局、长程和一致性的思路很困难。 “你可以理解为,它只见树木不见森林。”王帅说,OpenAI花了很大力气去人为调整它,如调整其回答的“温度”,不让答案看起来过于像一个机器人、也不过分怪诞和天马行空,使得ChatGPT回答问题的效果比之前市面上见到的聊天机器人都要好。 2月14日,《麻省理工科技评论》写道,人工智能语言模型是出了名的扯谎者,经常把谎言当成事实。它们很擅长预测句子中的下一个单词,但实际上却不知道句子的真正含义。因此,将它们与搜索结合起来非常危险。 Meta首席人工智能科学家杨立昆一直被认为是世界上最重要的人工智能研究者之一,也是2018年计算机科学最高荣誉图灵奖的获得者。关于ChatGPT,他近期写道,它们是回应性的,并不会进行计划或者推理(They are “reactive” and dont plan nor reason);它们会编造一些东西,这一点可以被人类的反馈所减少,但不会彻底解决。他认为,当下的大规模语言模型可以被用作写作助理,但仅此而已。 回到凯文·罗斯那魔幻的对话,那坚持向这位用户表白爱情的AI,我们该怎么理解它的“个性”?多位受访专家告诉《中国新闻周刊》,ChatGPT的确是自然语言处理领域一个出色的成果,但如果将它面向全球互联网用户开放、部署到一个很庞大的搜索引擎当中去,而且对用户的使用没有任何限制,一定会发现一些不正常的情况。更何况,一些情况下,有用户还会故意引诱和教唆一些不合适的答案。 许多AI公司,包括OpenAI,它们的明确目标是创造一个通用人工智能,即AGI,它可以比人类更有效地思考和学习。一些乐观的业内人士认为,ChatGPT后,通用人工智能的大门已打开,甚至已来临;另一些人则对此不以为然。更好的AI系统将会出现,杨立昆对此很确信,但他写道,它们将基于不同的原理:不会是ChatGPT所使用的大语言模型。 王帅分析说,业内对于通用人工智能并没有明确定义。“大规模语言模型是AGI的必经之路吗?我觉得即使是以此为目标的OpenAI也不敢打包票。业内只会说通过生成式AI认识到了一些新的东西,提高了对‘智能’的理解。”他说。 清华大学计算机系自然语言处理实验室副教授刘知远告诉《中国新闻周刊》,客观来讲,ChatGPT在一些场景下,可能会出现一些不适应的情况,这是一件很正常的事情,“任何一个特别里程碑式的产品,在刚刚面世的时候肯定会存在很多不足的地方,但长期来看,我对以它为代表的基础模型在我们人类社会方方面面的应用,还是抱非常乐观的态度”。 《时代》周刊指出,尽管ChatGPT这样的AI实际优势是在辅助创意、构思和完成琐碎任务等方面,但科技公司对于AI如何使搜索引擎更有价值最感兴趣,“技术正在被塞进科技巨头的赚钱机器中”。当它被如此使用,未来还会有哪些可能的“翻车”现场? (实习生李金津对本文亦有贡献) 记者:彭丹妮
ChatGPT引领风暴,AI办公工具崭新起点——行业巨头竞逐,你准备好了吗?
AI创业助手

ChatGPT引领风暴,AI办公工具崭新起点——行业巨头竞逐,你准备好了吗?

ChatGPT的开放引发了全球热议,巨头们纷纷将其作为革新技术的重要推手,AI大模型正迅速渗透各行各业,尤其是在Office工具、协同办公、营销广告和家庭助理等领域初显成效。微软引领潮流,推出AI版Office Copilot,其他企业如阿里、百度、字节跳动等也紧随其后,推出了类似功能,如钉钉和飞书的智能化服务。尽管类ChatGPT技术的落地尚处于早期阶段,但其应用创业已经开始升温,为企业办公带来智能化变革的可能。然而,具体效果还需等待用户全面体验后的反馈。
AutoGPT:AI的新前沿,打破想象的代码导师,你准备好被震撼了吗?
AI创业助手

AutoGPT:AI的新前沿,打破想象的代码导师,你准备好被震撼了吗?

AutoGPT是基于OpenAI最新语言模型GPT-4的开源应用程序,它具备自主行动能力,无需用户提问,能将程序运行拆分为思考、推理和决策环节,提供问题解决方案并自我学习。AutoGPT的强大之处在于其数据分析和判断能力,能识别伪造信息,并通过子智能体提高效率,同时给出答案出处和依据,被公认为AI领域的热门话题。尽管它的发展势头迅猛,但未来的方向和影响仍需法律伦理和社会规范的引导。对于普通人来说,早接触和应用这项技术是明智之举。
《ChatGPTAPI开放60多天,AI大模型技术开始在多个领域落地》
AI创业助手

《ChatGPTAPI开放60多天,AI大模型技术开始在多个领域落地》

ChatGPT API开放60多天后,AI大模型技术开始在办公软件、社交文娱、营销广告、家庭助理四大方向的应用中显现。微软、阿里、百度、字节跳动、WPS、谷歌等公司纷纷接入类ChatGPT技术,推出各种AI应用,AI办公平台成为云大厂和大中小软件公司的竞争焦点。虽然这些应用仍处于早期阶段,但生成式AI创业已经热起来,未来AI办公有望引发效率革命。
谷歌发论文得审批,优先开发产品:ChatGPT成人工智能领域绝唱?
AI创业助手

谷歌发论文得审批,优先开发产品:ChatGPT成人工智能领域绝唱?

编辑:LRS 【新智元导读】OpenAI一拳把谷歌干哑火,AI的开源时代要结束了吗? AI在过去十多年的飞速发展,得益于高校、企业与个人开发者的通力合作,让人工智能领域内遍布开源的代码、数据及教程。 谷歌也一直是AI行业的领军者,发表的论文横跨自然语言处理、计算机视觉、强化学习等多个领域,为行业内贡献了诸如Transformer, Bert, PaLM等诸多基础模型与架构。 但OpenAI打破了游戏规则,不仅拿着Transformer开发出了ChatGPT,还凭着初创公司的优势,如受法律、舆论的影响更少,无需透露训练数据、模型规模、架构等信息,甚至还挖走了不少谷歌等大厂的员工,打得谷歌是节节败退。 面对不讲武德的OpenAI,谷歌也只能被动挨打。 据匿名人士提供的消息称,今年2月,Google AI的掌门人Jeff Dean在会议中表示: Google would take advantage of its own AI discoveries, sharing papers only after the lab work had been turned into products 谷歌将利用自己在人工智能方面的成果,只有在实验室成果转化为产品后,才会共享论文。 转向「防御状态」的谷歌或许寄希望于把同类AI公司全都熬走,更好地保护自己的核心搜索业务及股价。 但AI如果少了这些大公司的开源精神,转而走向垄断,人工智能领域还能出现之前的发展奇迹吗? 谷歌被偷家,只因「太负责」 对于谷歌这种数十亿用户体量的公司,即使是小规模的实验也可能会影响到数百万人,并遭受舆论的反噬,这也是谷歌迟迟不愿推出聊天机器人并坚守「负责任AI」底线的原因。 2015年,Google Photos上线图像分类功能,将一名黑人错误分类为Gorillas(大猩猩),谷歌立刻陷入公关危机,迅速道歉并整改。 谷歌整改的措施就是把Gorillas标签直接删了,甚至还删掉了贵宾犬(poodle),黑猩猩(chimpanzee),猴子(monkey)等类别。 结果就是图像分类器不会再把黑人识别为猩猩,但也识别不了真正的猩猩了。 尽管多年来谷歌一直在投入大量资金开发人工智能技术,但受限于神经网络的黑盒不可解释性,谷歌也无法完全保证投产后的可控性,需要更长时间的安全性测试,也就失去了先发优势。 今年4月,谷歌CEO劈柴哥(Sundar Pichai)在参加《60分钟》节目中仍然明确表示,人们需要对人工智能保持谨慎,它可能对社会造成很大的危害,比如伪造图像和视频等。 如果谷歌选择「不那么负责」,势必会引起更多监管机构、人工智能研究者和商界领袖的关注。 但DeepMind...