AI客服:技术原理、商业应用与未来发展
AI客服助手

AI客服:技术原理、商业应用与未来发展

这篇文章主要讨论了人工智能客服在技术原理、商业应用、目标客户定位以及如何提高转化率、降低成本等方面的优势。作者提出,AI客服可以自动处理大量的基础问题,提高回复速度和效率,同时降低成本并 提供个性化服务。结合创业建议,作者指出选择合适的技术平台、提供个性化和精准的服务,并通过分析客户数据和行为,提供更加个性化和精准的服务,以提高客户满意度和忠诚度。最后,作者对未来进行了展望,认为随着人工智能技术的不断发展和普及,AI客服将会越来越智能化和个性化,成为企业不可或缺的客服渠道,有望取代传统客服,成为未来客服行业的主流。
《奥特曼担忧:AI时代的挑战与机遇》
AI情感助手

《奥特曼担忧:AI时代的挑战与机遇》

山姆·奥特曼是一位充满危机意识的美国人,他对人工智能(AI)可能带来的未来感到担忧。为了应对未来可能发生的AI危机,他选择了打造一款AI,并 shared the source code with the world to ensure that no one can use it for bad purposes.
《未来letter:探讨人类与机器关系的新篇章》
AI情感助手

《未来letter:探讨人类与机器关系的新篇章》

未来的人类与机器将会面临更加紧密的融合,但需要注意保持伦理与价值观的平衡。机器的智能发展虽带来了诸多便利,但也引发了关于权力、责任、教育、医疗、隐私和数据安全等一系列伦理和社会问题。因此,人类需要开放心态去迎接挑战,在科技与人性之间找到平衡。同时,我们应该强调机器是为了服务人类,而不是取代人类,确保科技的发展始终为人类福祉服务。
《探索人性:ChatGPT谈科技与人的关系》
AI情感助手

《探索人性:ChatGPT谈科技与人的关系》

这篇文章主要探讨了在AI时代,人类与机器的关系及如何平衡科技发展与人性价值。文章强调机器应是为人类服务的,但同时也要警惕其可能带来的伦理问题,如机器行为的不规范与道德责任的分配等。此外,人类在享受科技带来的便利的同时,也需要珍视自身的独特能力,如创造力、情感和道德判断,避免将自身简化为机器的扩展。
东西问|任福继:ChatGPT周岁 AI“弄潮儿”如何面对“成长的烦恼”?中国新闻网2023-12-18 19:50中国新闻网2023-12-18 19:50
AI情感助手

东西问|任福继:ChatGPT周岁 AI“弄潮儿”如何面对“成长的烦恼”?中国新闻网2023-12-18 19:50中国新闻网2023-12-18 19:50

中新社北京12月18日电 题:任福继:ChatGPT周岁 AI“弄潮儿”如何面对“成长的烦恼”? 中新社记者 张焕迪 日前,发布满一年的ChatGPT迎来了自己的周岁生日。过去的一年,ChatGPT这一AI行业“弄潮儿”不断向着更快、更安全、更便宜的目标进步,与一众后来者共同探索AI技术发展前沿。但以ChatGPT为代表的AI也引发了许多争议,如隐私泄露及ChatGPT母公司美国“开放人工智能研究中心”(OpenAI)的换帅风波等,都为AI的发展增添了几分“成长的烦恼”。 中国人工智能学会名誉副理事长、电子科技大学人工智能首席科学家、日本工程院院士任福继近日接受中新社“东西问”专访时表示,ChatGPT激发了各国科技企业和研究机构在AI领域的创新和竞争,以其为代表的AI技术将对所有拥有潜在大数据研究资源的学科或行业产生深远影响。AI发展所引发的种种问题也不可忽视,从业者、研究者及监管部门等相关方应及时采取措施。 现将访谈实录摘要如下: 中新社记者:ChatGPT公开发布至今已有一年时间。在这一年内,ChatGPT本身有哪些变化与改进?还存在哪些不足? 任福继:ChatGPT在这一年内的大幅进步主要得益于OpenAI发布的AI语言模型GPT-4。相较于GPT-3.5和其他大语言模型,GPT-4在处理复杂任务上更可靠也更有创意,还能够处理更细微的指示,更趋向于稳定、可靠、可信的多语言多功能多媒体智能系统。 具体来说,GPT-4拥有自然语言处理能力更强大、文本生成能力更高效、创造性和适应性能力更强、自我学习自我进化能力极强等特征。这些特征使其可以更准确地理解人类语言,并根据上下文和语义生成高质量的自然语言文本,还能处理图像和视频等视觉性内容等。GPT-4还可以根据不断积累的数据和经验不断提升性能、实现进化,更好地适应人类的需求。 一位年轻人访问和试用GPT-4。王冈 摄 不过,GPT-4在知识的时效性、应答的真实性、应用的合法性等方面仍存在不足,具体表现就是捏造事实、侵犯个人隐私等。 中新社记者:ChatGPT走红后,各国科技企业及研究机构陆续跟进,推出自研竞品。ChatGPT的诞生有何意义?其对一众后来者有何影响与启发? 任福继:目前,OpenAI的GPT系列模型是生成式AI中最具代表和引领性的大模型,且大部分大语言模型的结构都是类GPT的模式。ChatGPT的出现无疑对全球科技界产生了深远影响,激发了各国科技企业和研究机构在AI领域的创新和竞争。 ChatGPT展现了大语言模型的“涌现”现象。当语言模型的模型规模达到一定程度之后,模型会“涌现”出一些小模型所不具有的能力,如少样本提示、多步推理能力、指令执行、程序执行、模型矫正等。这极大地提高了人们对通用人工智能(AGI)的期待,迎合了各类人群在工作、生活、创作中对生成式人工智能内容(AIGC)的迫切需求,引领了大语言模型的技术路线,也坚定了一众后来者跟随和前进的信心。AGI是指在任何人类已经或即将涉及的专业领域中,都具备不低于人类智能程度的AI系统。 参考目前普遍意义上的交互案例,不难看出ChatGPT在底层数据、核心技术、应用场景、用户体验等各方面都具有里程碑式的意义,其最大亮点就在于优秀的语言理解、意图识别、逻辑推理、内容生成等能力。它的出现意味着AI的交互能力实现了跨越式发展,某种程度上满足了大众对AI的认知与使用需求,使人类意识到AI或许真的可以超越并取代人类。 中新社记者:日前,OpenAI换帅风波引发广泛关注。路透社援引消息人士的说法称,OpenAI内部的几名研究人员研发了一个功能极其先进的模型“Q-Star”,以在AGI领域寻求突破,这引发了其公司内部针对AI安全性的争议与分歧,进而引发了此次换帅风波。相关事件和有可能存在的“Q-Star”对ChatGPT及整个AI行业有何影响? 任福继:从目前媒体披露的情况看,OpenAI的换帅风波涉及AI安全问题。此次风波的本质是对AI发展理念的路线争议,也就是“有效加速主义”和“超级‘爱’对齐”的理念冲突。“有效加速主义”主张人类应无条件地加速技术创新,通过快速迭代来颠覆社会结构,而技术颠覆可能会带来的社会风险本质上会迫使人类不断去适应,从而达到更高的意识水平。“超级‘爱’对齐”的理念是让AI系统按照明确的指令做事,让AI符合人类要求,核心是造福人类。 一些供职于OpenAI的科学家认为,首席执行官奥尔特曼(Sam Altman)带领的团队一味增强AI的能力,忽视了加强AI的情感,也即对人类的热爱。 如果“Q-Star”真实存在,那么它可能代表了OpenAI在AGI领域的重大进步,也将会是AI领域的一个巨大飞跃,因为当前的大多数AI系统仍然是在特定任务上的专家,而不是通用的解决方案。而真正的AGI能够像人类一样理解、学习和应用知识。 许多AI领域专家都倾向于认为“Q-Star”存在,且能提升现有AI的能力,但距离AGI仍有相当距离。但无论“Q-Star”是否存在,OpenAI仍在AI领域处于领先地位,其研发的技术和模型将继续对整个行业产生深远影响。 中新社记者:今年以来,大众见证了AI在图像和音视频处理等领域的进步,现在的AI不仅能够写文章,还能创作画作、编写音乐甚至制作短片。您如何看待AI在各领域的发展趋势? 任福继:除了上知天文下知地理,AI还能撰写书面材料、创作画作和音乐、制作短片,甚至可以与人类开展持续流畅的高情商对话。AI所展现出的全能意味着其具有取代人类工作的巨大潜力,乃至于艺术创作、科学发现等“人类独有”的创造性工作。 观众在首钢园区观看AI“对画”达利沉浸式艺术展。田雨昊 摄 传统自然科学已呈现出“AI+自然科学”的新模式。通过协助突破人类固有的认知局限,以ChatGPT为代表的AI有望成为未来推动自然科学前进的重要动力。 世界人工智能大会上重推智慧医疗服务,通用电气的爱迪生生态2.0版,扩大AI从增强影像到提升超声规范化操作水平再到智慧手术室应用的服务领域。陈玉宇 摄 以生命科学为例,目前AI技术已经在生物信息检索抽取、小分子生成、蛋白质结构研究等领域取得实际进展。未来,AIGC将有效促进小分子生成和优化技术、小分子和蛋白结合构象预测、蛋白质及多肽序列设计、人类基因组学分析等领域的阶跃性发展。 总体来说,所有拥有潜在大数据研究资源的学科或行业都将受到目前“大数据+深度学习”AI范式的影响。而在AI数字内容生成领域,AI展示了在大数据学习基础上的创意潜能,“AI+文化产业”的新格局已成雏形。 中新社记者:ChatGPT的爆火“出圈”再次将AI这一概念带回大众视野,各国也加大了在AI领域的投入。当前中国的AI行业发展处于何种阶段? 任福继:从科研论文数量、投融资规模、企业数量、专利数量等方面来看,近年来,中国AI行业发展整体处于国际先进地位,尤其是在AI场景应用方面表现出巨大潜力。但整体发展质量还有待提高,特别是在硬件和算法等核心技术领域,多数中国企业在人才、核心技术、知识产权等方面较之国际AI巨头企业尚显逊色。 观众在首届中国国际供应链促进博览会上体验AI书法机器人。杜建坡 摄 从AI前沿工程技术来看,中国在智能服务机器人领域的技术水平居于世界前列,特别是在视觉、传感、多模态人机交互、情感计算等领域;但在机电一体化及机器人控制方面等距国际一流水平还有一定差距。不过,得益于广阔的市场、广泛的应用场景等因素,中国在智能服务机器人领域有实现超越的可能。 中新社记者:如今在互联网上,许多人使用AI采集名人声音并经过处理后,就可以让AI假借名人之口说出任何话。一些自媒体还使用AI制作“摄影图片”以编造新闻博取流量。AI技术的继续进步可能带来哪些问题?AI从业者、研究者及监管部门等相关方当如何应对? 任福继:AI除了可以作为生产工具给人类带来便利外,也引发了许多问题,譬如:失业问题,传统工作甚至原来认为的创造性工作都可能会被AI取代;隐私保护问题,数据滥用威胁用户的隐私;安全问题,AIGC产生的诈骗、捏造等行为;伦理问题,包括社会责任、法律道德、知识产权、情感归属等。 可从四个方面应对AI可能引发的各类问题:健全科技伦理治理体制、强化科技伦理治理制度保障、强化科技伦理审查和监管、深入开展科技伦理教育和宣传。 在遵循科技伦理原则的同时,还要保证科技伦理治理的动态调整,不过分强调科技发展可能产生的负面影响,科学应对不可预见的问题,保证科研自由和活力。 中新社记者:您理想中的完善AI是什么样的? 任福继:我理想中的完善AI是 AGI(造物主)与专用人工智能(领域专家)的结合体,追求能力与情感的统一、科技与伦理的统一。 中国首部人工智能题材舞剧《深AI你》在北京国家大剧院上演。贾天勇...
没有身体,会是ChatGPT最大的障碍吗? | 追问顶刊
AI医师助手

没有身体,会是ChatGPT最大的障碍吗? | 追问顶刊

在人工智能(AI)发展初期,Hubert Dreyfus在其著名的1972年作品What Computers Can’t Do[1]中论述*,由于计算机与人类有诸多的不同,它们永远无法具备智能。近来,Jaron Lanier在《纽约客》杂志上撰文,强调计算机不过是工具而已。正如他所作文章标题所言,“没有所谓的人工智能”[2]。这些AI批评家的观点犀利,但倒并不是在反技术。实际上,Dreyfus的著作激发了人工智能领域许多创新,而Lanier则是虚拟现实的提出者,也是一位长期创新者。然而,尽管Dreyfus和Lanier们洞若观火,但他们却混淆了两个重要的问题。 *注:中译本为《计算机不能做什么——人工智能的极限》。作者批判了基于符号处理的人工智能研究,强调人类智能不仅仅会处理对符号、规则或是事实,它还根植在人类的身体经验和其所处的特定环境中。他的观点在当时引发了巨大争议。随着神经网络和机器学习的发展,对他的批评才逐渐被重新审视和讨论。 一个是技术问题:计算机是否能够具备智能; 另一个则是科学问题:人类及其他动物是如何表现出智能的。 要解答这两个问题,首先要对“智能”这个概念达成共识。本文将遵循常规用法,并避免仅将“智能”定义为成年人所特有的能力,而是将其视为解决复杂且认知上具有挑战性的问题的能力。按照这种理解方式,关于计算机是否能具备智能的问题似乎已有答案。虽然Dreyfus和Lanier可能不愿意承认,但多年来的研究已明确显示,答案是肯定的。 ChatGPT及其他大语言模型近期的跃迁,是数十年技术创新的成果。LLMs能够就几乎任何主题生成清晰、令人信服的文章;它们能在科研中起作用;也能生成可编译并运行的计算机代码;而最近,ChatGPT甚至被病人评价为在医疗准确性上与人类医生相当,甚至更具同情心[3]。 当然,ChatGPT并非完美无瑕。例如,尽管其创造者做出了大胆尝试,但我们依然可以轻易发现,来源于互联网的大语言模型训练集中潜藏着种族偏见和性别歧视[4]。此外,ChatGPT还常常做出其创造者所说的“幻觉”,即凭空编造事实。 幻觉是否意味着大语言模型缺乏智能?也许并不是这样。由于大语言模型通过产生统计上可能的词序来回应查询,它们甚至没有尝试对世界做出真实陈述。大语言模型旨在解决那些复杂且在认知上具有挑战性的问题,即如何生成清晰的句子来回应查询,在这项任务中它们表现出色。可以将大语言模型比作竞选公职的政客:两者对任何问题都有现成的答案;两者也都倾向于凭空编造事实。当然,政客具有智能,大语言模型也是——即使两者都需要经过事实的核查。 然而,尽管当前的大语言模型展现出一定程度的智能,但它们与人类的智能并不相同。例如,根据语料库研究,美国儿童到两岁时听到的英语单词数量在1000万到3000万之间(不幸的是,这个数字与社会经济地位存在悲剧性的相关[5])。相比之下,人类儿童的语言学习方式与大型语言模型的训练过程迥然不同。以ChatGPT-3.5为例,该模型在大约570GB的文本数据上训练,涵盖约1150亿个参数。换句话说,ChatGPT需要的训练集是典型儿童所听到单词数量的5000多倍,这一点在比较它们的学习方式时尤为明显。 要回答人类(和其他动物)如何能够表现出智能这一科学问题,首先需要认识到我们与大语言模型有何不同。虽然人类能够熟练地使用文本信息并从中迅速学习(就像大语言模型一样),但与文本的互动仅仅是我们理解周围世界的众多方式之一。阅读和写作作为进化较新、发展上较先进的技能,并非是每个人都能轻易掌握的。在人类大部分历史中,我们——与其他动物一样——主要通过与外部世界和同类的具身互动来了解周遭环境;而直到今天,绝大多数人依然在依赖这种方式来认识世界。 根据当代认知科学中的具身观点[6],理解人类智能的关键在于承认我们的具身性。仅凭任何计算系统(包括大型语言模型)是无法完全解答科学问题的。从这个观点来看,我们不仅是逻辑思维的主体,更是不断与物质、社会、文化和技术环境互动的活生生的生物。 作为生物,我们有特定的新陈代谢需求,这与我们的身体性质紧密相关。为满足这些需求,我们拥有调校得恰到好处的运动和感知系统。以青蛙为例,它以捕食苍蝇为生,它们是捕捉这些食物的大师,正如现代人善于寻找杂货店和餐馆一样。 在生命体中,感知和移动方式紧密相连,感知世界旨在引导行动,并常常包含行动本身。人类和其他动物通过移动来体验周围世界,比如转动眼球、伸长脖子、走近物体以便更好地观察事物。这种活动不仅仅是观察的辅助,它实际上是观察的一部分。 换言之,从具身的角度看,人类的视觉不仅仅是眼睛或大脑某区域的功能,而是整个动态系统的协作。看见世界的主体当然包括大脑和眼睛,但这些眼睛总是在移动(多亏了肌肉),而且它还嵌入在一个移动的动物头部、颈部和躯干上。要解释人类智能,必须考虑这整个的具身系统。这种体验与行动之间的紧密联系是人类智能的核心特征,但这是大语言模型所欠缺的。大语言模型的智能不是具身的,因此,它们的智能与我们的不同。 另一个区别在于,虽然ChatGPT的运作和训练可能需要消耗大量(且未公开的)能量,但与生物不同,大语言模型并不像动物那样具有新陈代谢的需求。我们的代谢需求暗示着我们对世界中情境体验内在地带有积极或消极的评价[7]。生物因需求而存在,因此有些情境会比其他情境体验起来更理想。即便是单细胞生物也会对其环境中特定化学物质的不同浓度做出不同的反应,以努力维持在其生存所需的条件范围内。从根本上来说,人类的认知是一套我们用来维持生存的工具,这就是为什么我们会体验到某些情境是好的,而另一些则不是。我们人类受到温暖、饱腹和被爱的需求驱动,这种动机渗透我们的体验,甚至影响到看似最公允的认知过程。 人类的生活本质上是社会化的。我们在另一个人体内开始我们的生命,并以完全无助的状态出生。我们在与其他人类共存的世界中成长,特别是那些提供我们温暖、食物和爱的照顾者,他们是我们继续前行的支持。与大型语言模型相比,我们之所以能更快地学习语言,部分原因在于,对我们来说,词语的出现总是伴随着面部表情、语调、手势以及时间延续的人际互动背景。这些互动不仅是交流的媒介,还是语言学习的关键因素。此外,我们还生活在特定的文化和技术环境中,这些环境深刻塑造并促进我们的活动和思维方式。作为具身的生物,我们在复杂的人际情境中航行,调整自己的面部表情、语调和手势,以适应不断变化的环境和我们在其中的角色[8]。例如,我们作为演讲者进入讲堂的方式与作为听众时截然不同;我们在东京的行为模式也可能与在多伦多时有所不同。 人类智能的一个关键特征是我们的适应能力,特别是对新技术的适应能力。我们不仅能够采用新技术,还能通过它们改变我们的思考和生活方式。书写文字,作为一项“古老”技术,就是这种适应能力的早期体现。到了2023年,智能手机和人工智能(包括大语言模型)无处不在,它们通过改变我们的环境和所需的认知技能,从而改变我们的认知模式[9]。这一转变,无论好坏,已成定局,无法逆转。 这些差异综合起来,指向了John Haugeland所说的“在乎”(giving a damn)的生活方式和智能方式*[10]。人类在乎,“在乎”不仅仅是对维持个体存在和与世界及他人关系的承诺,更包括对自我认知状态的深切关心——关心自己是处于“幻觉”,还是在述说真相。ChatGPT无法关心这些事情,因为它不是一个具身的有实体生物,不是一个活着并参与其生成文字所描述的世界的生物。当我询问ChatGPT这个问题时,它确认大语言模型并不在乎。当然,未来的人工智能模型(可能会融合大语言模型技术)或许会被构建成在乎这些事情的样子。 *注:出自John Haugeland的Giving a Damn: Essays in Dialogue with John Haugeland。其中“在乎”(giving a damn)指的是一种根植于个体身份和存在方式的深刻承诺和关注。这意味着个体的认知过程和智能表现不仅仅是冷冰冰的信息处理,而是与个体的情感、价值观和社会互动密切相关。 我们从如今的大语言模型中学到的是,智能的表现方式不止一种。我们的智能方式并非唯一,也不是大语言模型所采用的方式。这一认识并没有从技术成就上削弱大语言模型,但这清楚地表明,就回答关于人类及其他动物智能的科学问题而言,大语言模型并无太大帮助。认知科学家们仍有大量工作要做。开展这些工作需要我们仔细关注我们作为具身的存在——我们是活着的、能移动的、社会化的、有文化的生物,我们是会在乎的生物。 阅读原文: Chemero, A. LLMs differ from human...
《ChatGPT:AI大模型的“iPhone时刻”吗?》
AI创业助手

《ChatGPT:AI大模型的“iPhone时刻”吗?》

这篇文章主要讨论了ChatGPT这款人工智能助手的发展及其对未来产生的影响。首先,作者提到ChatGPT在一年的时间里进化迅速,引起了业界对于其是否会超越GPT-3.5的担忧。然而,大模型热潮已经势不可挡,全球各大科技公司纷纷加入竞争。接着,文章提出大模型将带来产业机会、技术突破和未来展望,并探讨了大模型在互联网大厂和创业公司中的机会与挑战。最后,文章提到了关于大模型平民化的讨论,认为其过程蕴含着大量机会,但也需要解决计算成本等问题。
ChatGPT:自动化办公的新利器
AI创业助手

ChatGPT:自动化办公的新利器

2023年11月8日,由上海慧谷高科技创业中心有限公司主办、上海聚盼湖教育科技有限公司承办的ChatGPT课程第②场【ChatGPT自动化办公实操】在乐山路33号2号楼4楼交大慧谷乐山路基地举行,线上与线下同步进行,吸引众多企业代表参与。活动邀请了数字化新媒体营销实战讲师邹良君老师进行讲解,课程包括 six parts,企业在活动中表示受益匪浅。
如何看待“GPT之父”被解雇?ChatGPT和它们这样说第一财经2023-11-18 16:44第一财经2023-11-18 16:44
AI创业助手

如何看待“GPT之父”被解雇?ChatGPT和它们这样说第一财经2023-11-18 16:44第一财经2023-11-18 16:44

对于“GPT之父”奥特曼(Sam Altman)被OpenAI董事会解雇一事,第一财经记者以“如何评论Sam Altman被OpenAI解雇”询问国内外的几个主流AI大模型。 作为OpenAI旗下的GPT大模型,ChatGPT没有给出答案。ChatGPT 3.5版本的回复为:“截至我在2022年初的知识更新时,我没有任何关于Sam Altman被OpenAI董事会解雇的信息。我建议查看最新的新闻来源或访问OpenAI官方网站,以获取最准确的信息。” OpenAI在美国最大的竞争对手、人工智能公司Anthropic的大模型Claude回复提供了几点见解:“首先,开除突然且理由不明,程序上存在争议。Sam Altman被开除决定程序上存在不透明,OpenAI并未给出充分理由,这在公司治理上存在疑问;其次,对OpenAI的领导力产生不确定性;第三,折射出OpenAI与微软关系的变化,其离职可能反映了OpenAI内部与微软的关系出现裂痕;第四,体现商业化与开源价值观冲突,Altman倾向于开源,而OpenAI近年商业化明显,存在价值观分歧;最后,影响公众对OpenAI形象的看法。” 国内大模型的知识更新也极为迅速,甚至还给出了背后的原因。科大讯飞旗下星火大模型回答道:“Sam Altman被OpenAI的董事会开除CEO职务。在OpenAI,Altman曾因过分追逐利润而执意推出未经安全测试的产品,这种行为引发了工程师的不满,并被指责背离了OpenAI的核心价值观。在此期间,他的临时替代者是CTO Mira Murati。这次重大人事变动在全球重量级的AI创业公司中产生了深远影响。” 相比之下,百度大模型文心一言的回答更加中规中矩。文心一言称:“Sam Altman被董事会开除的原因尚不明确,因此无法确定这一事件是否会影响OpenAI的形象和声誉。” 文心一言分析认为,CEO被解雇并不意味着OpenAI的发展一定会因此受到重大影响。“毕竟,OpenAI是一家独立的公司,其业务和发展方向已经得到了市场的认可。在短期内,公司的发展可能不会受到太大影响。”它写道,“对于Sam Altman来说,被董事会开除可能会对他的职业生涯和个人形象产生一定的影响。但是,他仍然拥有自己的投资公司和其他业务,并且他仍然可以继续从事自己热爱的科技行业。” 文心一言最后还做了总结:“无论如何,这一事件都提醒我们,在商业世界中,领导者的决策和行为应该始终以公司的利益为出发点,同时也需要关注自身的职业操守和个人形象。” 阿里巴巴的大模型通义千问则表示,作为一AI 模型,无法表达情感或偏见,也无法对个人事件进行道德判断。但它提供了一些关于Sam Altman的背景以及他在OpenAI中所扮演的角色,同时提供了关于董事会决定原因的报道,并称尽管目前尚不清楚具体原因是什么,但据推测可能与OpenAI的发展方向和策略有关。 最后,通义千问还引用了OpenAI的使命:“确保通用人工智能造福全人类”。 商汤科技的大模型商量的发言最为“克制”,它写到:“此次事件可能会引起人们对OpenAI公司治理结构的关注,以及该公司与其创始人之间的关系。然而,目前还不清楚具体的原因是什么,因为OpenAI没有公布任何相关信息。 无论原因是什么,这个事件表明,即使是在科技行业,公司治理也是至关重要的。公司需要确保其领导层能够履行职责,同时也需要保护投资者的利益。” 举报/反馈
“双雄一台:马斯克与奥特曼,AI聊天模型的革命与未来”
AI创业助手

“双雄一台:马斯克与奥特曼,AI聊天模型的革命与未来”

本文介绍了OpenAI和特斯拉CEO马斯克共同发布的xAI首款AI聊天模型产品Grok。OpenAI在Grok的基础上进行了升级,引入了更强大的GPT-4 Turbo模型、开放的DALLE-3等新API,并推出GPT Store应用商店,方便定制化使用和开发者创造收益。Grok的推出引发了广泛的讨论,有人认为OpenAI将成为下一个苹果,也有观点认为这预示着“OpenAI App Store”的到来。