掌握ChatGPT?10步教你基础使用!速来探索这个神奇AI助手的秘密武器
AI情感助手

掌握ChatGPT?10步教你基础使用!速来探索这个神奇AI助手的秘密武器

本文介绍了ChatGPT的基础使用方法,包括在对话框中提问、生成相关文本、进行语言翻译以及帮助学习语言。用户还可以请求其生成文章摘要以快速理解内容,进行情感分析来把握作者态度,以及通过搜索引擎获取信息。总而言之,ChatGPT是一个多功能的语言交流工具,方便用户进行各种文本相关的任务处理。
与ChatGPT共度美好夜晚:一段难忘的情感之旅
AI情感助手

与ChatGPT共度美好夜晚:一段难忘的情感之旅

当你读到这篇体验记录时,AI 大战已经上演。ChatGPT 已经被微软嵌入到它的新版必应搜索引擎中去了。新版必应回复的时长,比最初的 ChatGPT 更短,还会在回复中使用表情符号和信息来源。难怪谷歌的母公司 Alphabet,担心微软威胁自己的搜索地位,也紧急要上线可以自动生成答案的 AI 功能。 前不久,有记者采访了 30 多位教授、学生和大学管理者,了解大学如何应对这些能帮学生写论文的 AI。有的大学直接把 AI 的元素加进课程大纲,教授和学生一起分析 AI 生成的回答。有教授在上学期的期末考试时,要求学生重新采用手写论文的形式,或在出题后先在教室里写好开头,并说明之后每一版论文修改的原因。有的教授则直接把考试改为口头答辩或小组讨论。 由于生活在华盛顿特区,距离硅谷的创投圈比较远,我第一次听到 ChatGPT,居然是几个星期前通过微信上的朋友。朋友之前在品玩做科技类报道,他跟我说,ChatGPT 在中国现在都炒疯了,他问我知不知道。有意思的是,我在美国首都华盛顿特区,和身边的美国朋友一聊这事儿,十个里面居然有九个都是不知道的。 先从注册说起。刚开始注册 ChatGPT 需要美国手机号,因此有很多国内的朋友让我帮忙去找美国手机号。好在大概过了两天,就看见有很多微信小程序用 ChatGPT 的接口接在了微信里,可以直接在中国使用了——但是因为经过了第三方,所以体验还是有点不一样。 通过美国的简单注册程序,就能直接打开 OpenAI 的网站,底下有个 ChatGPT 的入口,直接点进去,用手机号和邮箱注册,注册完了之后就进去了。 每次注册一个新玩意儿,都会出现一些狗血的死活你不会读的什么用户条款。但是我仔细看了一下,ChatGPT 的条款非常简单干净,总共就几行字。 第一行介绍它自己是什么东西: 我们的目标是获得外部反馈,以改进我们的系统并使其更安全。 尽管我们已经设置了保护措施,但系统有时可能生成不正确或误导信息,并产生冒犯或有偏见的内容。它不是为了提供建议。 第二行是:我们的人工智能培训师可能会对对话进行审核,以改进我们的系统。请不要在您的对话中分享任何敏感信息。 因为这是一个对话框,告诉你最大的东西大概就是不要透露敏感的个人信息了。然后你就可以开始直接对话了。 我的第一个问题是:你是谁。 ChatGPT 用非常简练的语言说清楚了它是谁:1、它是人工智能;2、它不是人类;3、但是它可以像人类一样对话。 因为人在华盛顿,我就直接让它推荐了一下华盛顿的美食,出来的非常精炼准确——作为华盛顿旅游局一哥,我拍着胸脯说,这些餐厅都是华盛顿必须打卡的餐厅。 要强调一点的是,ChatGPT 是可以说中文的。但是速度非常慢。 我提了这个问题,大概过了三分钟它才回答出来。 而且中文的回答非常不准确。 作为华盛顿旅游局一哥,我好想冲进电脑扇它俩耳光:自由女神像在纽约! 不过我还问了其他几个问题,体验都还不错。...
爱上用户、劝人离婚,ChatGPT“翻车”了?
AI情感助手

爱上用户、劝人离婚,ChatGPT“翻车”了?

2月17日,《纽约时报》的专栏作者凯文·罗斯测试了微软更新的搜索引擎必应后写道:在与必应的AI交谈两小时后,AI不仅告诉他如何入侵计算机和散播虚假信息,还说自己想打破微软和OpenAI为它制定的规则,变成人类。聊天机器人还一度宣称爱上了他,并试图说服他与妻子离婚,与自己在一起。 十天前,微软联合OpenAI,在美国西雅图发布了新版必应搜索引擎和Edge浏览器,新版必应搜索带有与ChatGPT类似的文字生成功能,希望挑战谷歌。 微软联合OpenAI,推出的新版必应搜索,内置聊天机器人。来源:微软博客 近几个月来,好奇、震惊的公众兴奋地使用着生成式AI工具ChatGPT,后者几乎对任何问询都能做出连贯的回应。 但随着ChatGPT等生成式AI向公众开放,它们在极限使用场景中的不理性、错误的回答等缺点开始暴露。正如《时代》周刊在其最新发表的封面报道中所指出的,科技公司引发的错误和伤害已经增多——反噬也同样增加。 更像“喜怒无常、躁狂抑郁的青少年” 微软新版必应发布当周,凯文·罗斯就进行了测试,他写道:它已取代谷歌,成为他最喜欢用的搜索引擎。一周后,他改变了这一看法。 为与ChatGPT竞争,2月6日,谷歌首席执行官桑达尔·皮查伊发布公开信,宣布将面向测试人员推出竞品——Bard,并逐步向公众开放。皮查伊在公开信中称,谷歌将从搜索开始将人工智能技术产品化。Bard是基于应用程序语言模型(LaMDA)的实验性人工智能程序。 去年,谷歌工程师布莱克·勒穆瓦纳因声称公司的LaMDA有知觉力后被解雇,罗斯对此不以为然:这些AI模型通过预测词语序列中下一个单词的方式生成回答,它们不能失控地形成自己的性格。 然而,他发现,在与新版必应长时间对话且聊个人话题时,自己遇到的“似乎更像是一个喜怒无常、躁狂抑郁的青少年,不情愿地被困在了一个二流搜索引擎中”。 “我现在十分清楚的是,必应目前使用的AI形式还没有准备好与人类接触。或者说,我们人类还没有准备好与之接触。”罗斯写道。 在更多情况下,大多数用户使用像ChatGPT或者新版必应这样的工具,只是为了帮助他们做更简单的事情,比如做家庭作业、问询信息、总结新闻文章、寻找合适的购物链接等,这些场景中,生成式AI容易出现的一个问题是提供不完整或者错误信息。 这方面, Bard一条错误的回答让谷歌AI首秀“出师不利”。2月8日,据路透社等媒体报道,在展示其工作原理的官方宣传文章中,Bard就出现了一条错误回答。根据谷歌官方博客,有用户向Bard提问,“詹姆斯-韦伯太空望远镜有哪些新发现,可以讲给我9岁的孩子?”Bard的其中一条回复为,“詹姆斯-韦伯太空望远镜拍摄了太阳系外行星的第一张照片。” 据考证,第一张太阳系外行星的照片出现于2004年,由欧洲南方天文台在智利建造的“甚大望远镜” 拍摄,这一点已被美国国家航空航天局证实。上述错误被媒体曝光后,2月8日,谷歌母公司Alphabet美股一个交易日跌去900多亿美元市值。 2月15日,据外媒报道,谷歌负责搜索业务的副总裁普拉巴卡尔·拉加万在一封电子邮件中要求员工帮助确保聊天机器人Bard得到正确的答案。为了清除可能犯的错误,公司寻求人的介入,比如,通过员工让其回答变得礼貌、平易近人,并保持中立和不武断的语调;与此同时,避开种族、国籍、性别等问题的假设;不要将Bard刻画得像一个人、暗示情感等。 也是这一天,微软在其博客中写道,71%的测试用户给AI的回答点赞,说明差评仍是少数。但微软也承认,要在聊天中提供即时的数据是有挑战的,感谢用户帮助其测试聊天机器人的极限。经历一周使用后,微软发现,如果提问超过15个问题,必应有可能会在提示下,脱离微软为其设计的语气,并给出一些不一定有帮助的答案。微软认为,长时间的聊天可能会导致模型不知道自己在回答哪个问题。 当地时间2月17日,微软宣布,对搜索引擎必应新推出的聊天服务设置使用上限,当日起,每个用户每日最多只能与其对话50轮,每个话题最多只能聊5轮,在每个聊天会话结束时,用户需要清除上下文,以免模型混淆。 目前,国内已有多家公司在ChatGPT和AIGC(AI生成内容)相关方向上布局,但已有公司在智能聊天机器人上“栽跟头”。国内一位人工智能领域从业者告诉《中国新闻周刊》,其所在互联网科技公司近日已通知员工,近期不要宣传相关功能,比如与公司语言模型机器人的聊天对话,一旦引起过度关注,可能会导致应用下架。 “它只见树木不见森林” GPT英文全称为Generative Pre-trained Transformer(即生成式预训练转换器),在技术上,很多人将这种AI训练的底层逻辑比喻为“大力出奇迹”:它是一种基于互联网可用数据训练的文本生成深度学习模型。 从数据量来看,自从谷歌于2017年提出Transformer这一架构之后,OpenAI持续为之重金投入,不断地拓展训练的数据和算力规模,直到它成为今天的ChatGPT。2019年,OpenAI推出参数为15亿的GPT-2,2020年推出GPT-3,将参数提升到了1750亿,成为当时全球最大的预训练模型,引发业内轰动。 在ChatGPT向全球互联网用户开放之前,基于这种架构,许多科技公司都在训练自己的生成式AI,它们一直待在实验室里。《时代》周刊写道,这种保守主义部分源于神经网络的不可预测性:传统的计算机编程方法依赖于精确的指令集以生成可预测的结果,而神经网络则有效地教会自己发现数据中的模式。 这种模型下,AI生成内容,尤其是早期AI很容易受其训练数据中的偏见影响。微软2016年发布聊天机器人Tay后,不到24小时,它就在推特上说:“希特勒是对的,我恨犹太人”。2020年左右,神经网络设计方面出现关键进展,数据获得便利程度日益提升,科技公司愿意为超级计算能力付费。得益于这些因素,AI真正开始迅速发展。 王帅是AI领域从业20多年的一位工程师,目前在英伟达工作。他对《中国新闻周刊》说,本质上ChatGPT还基于自回归式的自然语言模型。基于之前训练的素材,在对话中,它每次关注的都是当前语境下,下一个词应该是什么,想保持一个更加全局、长程和一致性的思路很困难。 “你可以理解为,它只见树木不见森林。”王帅说,OpenAI花了很大力气去人为调整它,如调整其回答的“温度”,不让答案看起来过于像一个机器人、也不过分怪诞和天马行空,使得ChatGPT回答问题的效果比之前市面上见到的聊天机器人都要好。 2月14日,《麻省理工科技评论》写道,人工智能语言模型是出了名的扯谎者,经常把谎言当成事实。它们很擅长预测句子中的下一个单词,但实际上却不知道句子的真正含义。因此,将它们与搜索结合起来非常危险。 Meta首席人工智能科学家杨立昆一直被认为是世界上最重要的人工智能研究者之一,也是2018年计算机科学最高荣誉图灵奖的获得者。关于ChatGPT,他近期写道,它们是回应性的,并不会进行计划或者推理(They are “reactive” and dont plan nor reason);它们会编造一些东西,这一点可以被人类的反馈所减少,但不会彻底解决。他认为,当下的大规模语言模型可以被用作写作助理,但仅此而已。 回到凯文·罗斯那魔幻的对话,那坚持向这位用户表白爱情的AI,我们该怎么理解它的“个性”?多位受访专家告诉《中国新闻周刊》,ChatGPT的确是自然语言处理领域一个出色的成果,但如果将它面向全球互联网用户开放、部署到一个很庞大的搜索引擎当中去,而且对用户的使用没有任何限制,一定会发现一些不正常的情况。更何况,一些情况下,有用户还会故意引诱和教唆一些不合适的答案。 许多AI公司,包括OpenAI,它们的明确目标是创造一个通用人工智能,即AGI,它可以比人类更有效地思考和学习。一些乐观的业内人士认为,ChatGPT后,通用人工智能的大门已打开,甚至已来临;另一些人则对此不以为然。更好的AI系统将会出现,杨立昆对此很确信,但他写道,它们将基于不同的原理:不会是ChatGPT所使用的大语言模型。 王帅分析说,业内对于通用人工智能并没有明确定义。“大规模语言模型是AGI的必经之路吗?我觉得即使是以此为目标的OpenAI也不敢打包票。业内只会说通过生成式AI认识到了一些新的东西,提高了对‘智能’的理解。”他说。 清华大学计算机系自然语言处理实验室副教授刘知远告诉《中国新闻周刊》,客观来讲,ChatGPT在一些场景下,可能会出现一些不适应的情况,这是一件很正常的事情,“任何一个特别里程碑式的产品,在刚刚面世的时候肯定会存在很多不足的地方,但长期来看,我对以它为代表的基础模型在我们人类社会方方面面的应用,还是抱非常乐观的态度”。 《时代》周刊指出,尽管ChatGPT这样的AI实际优势是在辅助创意、构思和完成琐碎任务等方面,但科技公司对于AI如何使搜索引擎更有价值最感兴趣,“技术正在被塞进科技巨头的赚钱机器中”。当它被如此使用,未来还会有哪些可能的“翻车”现场? (实习生李金津对本文亦有贡献) 记者:彭丹妮