探索AI医疗新未来:鸟瞰转型与主动健康的颠覆性力量?
AI医师助手

探索AI医疗新未来:鸟瞰转型与主动健康的颠覆性力量?

这篇文章聚焦于数字健康、AI辅助医学和远程医疗等前沿技术的应用,阐述了生成式AI与LLMs的快速发展如何推动医学专科和主动健康的创新,并通过国际专家交流提供深入探讨。议题将侧重于实例研究和未来展望,旨在揭示AI在医疗转型中的关键作用,以及GPT-AI在主动健康中的极致应用和价值。通过开场讲座,避开抽象讨论,直接以具体案例开启对AI在医疗领域广泛应用的全面探索。
🎉掌握AI绘画秘籍!探索「画宇亩」全功能指南,创作你的小镇美食绘本.now?
AI助手资讯

🎉掌握AI绘画秘籍!探索「画宇亩」全功能指南,创作你的小镇美食绘本.now?

本文介绍了多个AI绘画工具,如「画宇亩 (Nolibox Creator)」、360智脑大模型和视觉中国AI灵感绘图功能,以及Zoom引入的生成式AI新功能。文章以「小镇美食家」为主题展示了如何使用ChatGPT和Midjourney等工具完成绘本创作,并提供了全面的学习教程。同时,提到了创业建议,如从论文入手学习、实践操作和重视常规营销渠道。最后,通过清华大学发布的报告综述了AIGC的发展历程和前景,以及Dora产品的最新进展。
论文速递丨融合情感的GPT-4V(下篇)
AI情感助手

论文速递丨融合情感的GPT-4V(下篇)

Information Fusion:GPT-4V with Emotion(下篇)论文链接:https://arxiv.org/pdf/2312.04293.pdf代码链接:https://github.com/zeroQiaoba/gpt4v-emotionGPT-4V with Emotion(上篇):https://mp.weixin.qq.com/s/yPirDU6bxAA-UoEwnFzKkQ论文作者:连政1、孙立才1、孙海洋1、陈康2、温卓凡1、顾浩1、刘斌1、陶建华3 单位:1中国科学院自动化研究所,2北京大学,3清华大学 摘要  最近,GPT-4V在多种任务上展现出了卓越的能力,但其在情感识别方面的表现尚未得到充分验证。为此,本文展示了GPT-4V在21个基准情感数据集上的定量评估结果,涵盖6个任务:视觉情感分析、推文情感分析、微表情识别、面部情感识别、动态面部情感识别、多模态情感识别。本文将这些任务统称为“广义情感识别(GER)”。通过实验分析,我们发现GPT-4V在GER任务中表现出了强大的视觉理解能力。与此同时,GPT-4V显示出了多模态融合以及时序建模能力。然而,目前GPT-4V主要适用于通用领域,在需要专业知识的微表情识别任务上性能不佳。本文提供了GPT-4V在GER任务中的首个定量评估结果。我们已经开源了代码,并希望后续的研究者拓展评估范围,囊括更多任务和更多数据集。 引言  情感因其在人机交互中的重要性引起了研究人员的广泛关注。当前情感识别研究主要集中在两个层面:一个是识别外部刺激诱发的情感;另一个是分析人类通过各种模态传达的情感。我们将这些任务统称为“广义情感识别”。情感与视觉、听觉、文本等信息密切关联。其中,视觉信息(如色彩、亮度、表情、行为等)包含了丰富的情感关联成分。最近,GPT-4V在各种任务中展示出了强大的视觉理解能力。那么,GPT-4V能否在一定程度上解决GER问题?如果可以,那么在GPT-4V出现后,情感计算领域未来需要关注的方向是什么?在2023年9月,GPT-4V被整合到了ChatGPT中。当时,OpenAI尚未发布GPT-4V API,用户只能手动上传测试样本。由于需要大量人力,当时的评测报告通常只为每个任务选择有限数量的样本,仅提供了GPT-4V的定性评估结果。在2023年11月,OpenAI发布GPT-4V API,但限制每天只能访问100次,依然很难在基准数据集上比较GPT-4V与目前最先进系统的性能差距。2023年12月,OpenAI增加了每日限额,使我们能够进行更全面的评估。在本文中,我们提供了GPT-4V在GER任务上的定量评估结果,涵盖了视觉情感分析、推文情感分析、微表情识别、面部情感识别、动态面部情感识别、多模态情感识别。图1显示了GPT-4V的整体结果。我们还展示了随机猜测和监督系统的结果。为了公平比较,我们在基准数据集上进行评估,并使用了一致的评估指标。整体上,GPT-4V优于随机猜测,但仍落后于监督系统。为了找出背后的原因,我们进一步对GPT-4V的多方面能力进行了分析,包括多模态融合、时间建模、鲁棒性、稳定性等。 图1 GPT-4V在GER任务上的定量评估结果 任务描述  我们详细描述了每个任务的评估数据集。本次评测涵盖6种GER任务共计21个基准数据集。表1汇总了不同数据集的统计信息。为了与监督系统公平比较,我们在官方测试集上评估性能,并选择最常用的评估指标。图 2展示了数据类型的多样性。一些数据集是面向自然场景的(如AffectNet),而另一些是实验室环境下的(如CASME和CK+)。同时,不同数据集存在色彩空间差异。一些数据集使用灰度图像(如CK+),而另一些使用RGB图像(如CASME和AffectNet)。不同数据集的预处理过程详见原始论文。表1 数据集统计量:测试样本量、评价指标、以及数据集候选标签 图2 评测数据样例 GPT-4V调用策略 本文评估了GPT-4V API,即“gpt-4-vision-preview”的性能。GER任务涉及多种模态,包括图像、文本、视频、音频。然而,GPT-4V只支持图像和文本。为了处理视频,我们对视频进行采样将其转换为多张图像。为了处理音频,我们尝试将音频转换为梅尔频谱图。然而,GPT-4V未能基于梅尔频谱图生成正确的响应。因此,本文主要关注图像、文本、视频。在本节中,我们为GER任务设计了专门的调用策略,包含batch-wise、repeated和recursive调用模块。具体伪代码详见算法1。(1) Batch-wise CallingGPT-4V API有三个请求限制:每分钟的token数(TPM)、每分钟的请求数(RPM)和每天的请求数(RPD)。为了满足RPM和RPD,我们采用batch-wise输入。具体而言,我们将多个样本同时输入,并在一次请求中生成所有结果。然而,batch size太大可能导致token总数超过TPM限制。此外,它增加了任务难度,可能导致不正确的响应结果。因此,我们将图像的batch size设置为20,视频的batch size设置为6,以同时满足TPM、RPM和RPD的限制。(2) Repeated CallingGER任务经常触发安全检查,导致GPT-4V拒绝提供回复。这主要是因为GER任务包含视觉情感分析和人类情感识别。前者包含暴力和血腥的图像。在后者,人类身份也被视为敏感信息。为了减少拒识情况,我们要求GPT-4V忽略身份信息,但它仍会触发安全检查。有趣的是,这些错误有时是比较随机的。例如,尽管所有图像都是以人为中心,但有些通过了安全检查,而有些则未通过。或者,一个样本可能最初未通过检查,但在重试后通过了。因此,我们对拒识批次进行多次重复调用,直到调用次数上限。(3) Recursive Calling在评估过程中,我们发现批次输入可能会触发安全检查,但将其拆分为更小的批次有时可以通过检查。因此,对于持续拒识的批次,我们将其分成两个较小的批次,然后分别将它们输入GPT-4V中获取相应。(4) 组合策略我们的策略结合了批次调用、重复调用和递归调用。更多细节详见算法1。正确的响应需要满足两个条件。首先,它不应触发安全检查。其次,它应包含正确数量的预测结果。 算法1 GPT-4V调用策略 结果与分析 本文从三个层面进行结果分析:数据集层、情感类别层和样本层。我们仅展示部分实验结果。完整的分析报告详见原始论文。(1)数据集层表3展示了视觉情感分析的结果。我们观察到GPT-4V在大多数数据集上优于监督系统。这归因于GPT-4V强大的视觉理解能力,加上其推理能力,使得GPT-4V能够准确推断出图像诱发的情感状态。但对于微表情识别(见表4),GPT-4V表现不佳,甚至有时比随机猜测更差。这些结果表明,GPT-4V主要为通用领域设计。它不适用于需要专业知识的微表情识别。表5~8展示了推文情感分析、多模态情感识别、面部情感识别和动态面部情感识别的结果。为了处理视频,我们对视频进行均匀采样,并将这些采样图像按顺序输入GPT-4V。为了降低调用成本,我们最多采样三帧。实验结果表明,尽管GPT-4V与监督系统之间仍然存在着性能差距,但GPT-4V显著优于启发式基线,显示了其在情感识别任务中的潜力。(2)时序建模能力分析为了减少GPT-4V的调用成本,本文限制每个视频最多采样三帧。在本节,我们进一步分析了采样数量的影响。在表8中,当我们将采样数量从两帧增加到三帧时,情感识别性能有所提高。此外,值得注意的是,尽管将采样数量设置为三帧,仍可能会忽略一些关键帧信息。因此,采样更多帧可能会进一步提升情感识别结果,我们将其作为后续工作。(3)多模态融合能力分析本节评估了GPT-4V的多模态融合能力。在所有任务中,推文情感识别和多模态情感识别提供了两种或两种以上模态信息。因此,我们在这些任务上进行了实验分析。表9显示了单模态和多模态结果。整体上,多模态结果优于单模态结果,这展示了GPT-4V整合和利用多模态信息的能力。但对于CMU-MOSI,我们注意到多模态结果略微低于单模态结果。这可能是因为CMU-MOSI主要依赖文本来传达情感,增加额外的视觉线索可能会引入干扰信息,进而影响模型判断。(4)系统稳定性分析本节评估了GPT-4V的预测结果稳定性。我们用GPT-4V对SFEW 2.0中的每个样本预测了10次结果。图3a展示了相同预测结果出现的频率。具体而言,我们假设对于一个样本,GPT-4V有8次预测为负向情绪,2次预测为正向情绪。那么,它预测为相同标签的次数为$c=8$。然后,我们计算所有样本的 $c$ 并统计其频率。在图3b中,我们展示了每次运行的测试准确率。我们观察到,尽管超过50%的样本在10次测试中表现出相同的结果,但也有一些样本在不同测试中表现出不同的结果,导致测试准确率的波动。与此同时,我们观察到最佳和最差结果之间存在着4.60%的差距。因此,GPT-4V表现出一定的不稳定性。我们建议后续研究者对GPT-4V进行多次评估,并使用多数投票来获得最终预测结果。(5)情感类别层面分析在图 4中,我们可视化了混淆矩阵并进行情感类别层面分析。对于视觉情感分析,GPT-4V在Abstract数据集中的结果较低。这可能是因为GPT-4V主要在自然图像上进行训练。抽象图像和自然图像之间的领域差异导致了GPT-4V有限的性能。对于推文情感分析,GPT-4V在识别 neutral 方面表现相对较差,经常将其错误分类为 positive或...
🚀零基础也能神图?AI绘图秘籍:3步找到超赞提示词🎉
AI助手资讯

🚀零基础也能神图?AI绘图秘籍:3步找到超赞提示词🎉

本文介绍了如何成为一个零基础AI绘图初学者,通过学习和实践,即使是电脑小白也能利用AI工具完美出图。文章强调了三个找到好的提示词的方法:1) 自己参考样图,理解并引导Midjourney;2) 利用ChatGPT4反向推理图片,然后微调;3) 通过明确需求,指定艺术媒介和风格。同时,文中提供了垫图技巧、利用参数的建议以及一些实例来指导操作,强调多出图以产生高质量作品,并指出使用特定元素如主题、媒介、环境等可以增加多样性。最后,文中还提及了在电商出图中使用垫图技巧及GPT4与MJ配合提高工作效率的方法。
经济学家朱民和科学家张亚勤最新对话畅谈ChatGPT精彩万字全文
AI创业助手

经济学家朱民和科学家张亚勤最新对话畅谈ChatGPT精彩万字全文

4月28日下午消息,清华大学智能产业研究院院长、中国工程院外籍院士张亚勤在与清华大学国家金融研究院院长、著名经济学家朱民进行对话,本文根据对话实录生成,由新经济学家智库【公众号:New Economist】整理首发,未经演讲者确认,仅供参考。 朱民:很高兴我们到清华论坛,今天有幸请亚勤,我们也有一种不见了,疫情的原因。 张亚勤:已经是三年多了,咱们上次还是2019年的夏天。 朱民:我今天看你这个研究院是起来了,你是一个真的科学家,然后你有60多项专利,也写了600多篇的不同的学术论文,所以你又是科学家,你又是企业家,你还在百度做过总裁,也是在第一线实际的去管运营,还得管科研,是那么三年多前你回到了清华,又重新从事教学和科研相结合,这是一个我觉得你的人生经历是很精彩。 朱民:(问现场观众)你们知道张亚勤是几岁考入大学的吗? 朱民:12岁,厉害吧。这个是了不得的人物,今天走到这一圈,我觉得真的很精彩。现在我们来到你的智能产业研究院,我们先谈谈你的研究院三年了,你现在做的怎么样,你的主要在做些什么? 张亚勤:好,首先感谢大家今天下午来到清华大学智能产业院,我代表研究院欢迎大家。朱民是我多少年的好朋友,是良师益友。我们很早在很多场合,包括在达沃斯,朱民也是达沃斯的常务董事。我所以今天特别高兴,咱们俩也能聊天。 朱民:主要是听你的。 张亚勤:朱民尽管是全球金融界、经济界的领军人物,同时的话对高科技特别人工智能发展的话也特别的关注,而且很敏锐,而且也是专家。 朱民:你这个是反客为主。 张亚勤:2019年底的时候我离开百度,然后其实一直在想做这么一个研究院,研究院的话和当年20多年前微软亚洲研究院在某些方面相似,都是从事这个基础研究。但是这个研究要为产业去服务,就解决真正的问题。那么另外一点的话,当时那个时候是给一个企业做的,那么现在我们希望是面向整个产业是更开放的。还有一点在清华,有清华最优秀的学生,然后有这个老师,所以当时我们就成立这种研究院。所以AIR二这个名字也很简单,就是AI for industry research。这里I的话有三个含义,就一个是international,一个是AI,一个就是说industry 所以我们现在这儿有差不多21位全职的老师,然后还有博士生、博士后研究人员,还有学生差不多,现在看的这周和下面可能差不多200多人,当年我们在19年的时候,我们在见面的时候还是个概念,什么都没有。所以确实是很高兴。 目前就研究院的主要的研究还是人工智能。那么人工智能我们面向产业,所以我们选择了我们认为是有很大机遇的三个方向,一个是机器人和自动驾驶,一个是生命科学生物科学,另外是物联网,特别是面向双碳,这个叫绿色计算这个领域。 朱民:最新的突破在哪里? 张亚勤:我们一直从事这些算法,包括模型方面的研究,我们和很多企业合作,在这种语言模型,比如多模态、强化学习、联邦学习,然后也做一些垂直模型,比如说面向自动驾驶机器人的,面向生命科学的。刚刚前几天还开源了一个生物医疗的GPT,叫BioMap,然后我们在自动驾驶方面也有一个基础决策感知这么一个模型。 朱民:所以你的研究也是和现在崛起的ChatGPT和GPT大模型其实趋势是一致的。我们就聊聊大模型,这是现在最热的事儿。ChatGPT当然是惊艳,真是惊艳,他一出来以后又能画画,又能作诗、写歌。可能大家听了它做了一个贝多芬的音乐,当然作为一个老贝多芬的爱好者,我觉得它做的不怎么样,但它居然也是装模装样的,装模作样地做作曲了,还有4个乐章,那搞得太搞笑了,但是确实是影响很大,还能写代码做文件检索当然说很好的,那么争论很多,有观点认为它已经走向AGI,也有观点认为它还是很不成熟,并没有很大技术上好像也没有特别大的突破,它只是商业模式用的好,它的路径好,它很聪明,你是真的专家,你怎么看这件事? 张亚勤:你刚才讲的是过去这2~3年,一个大的趋势就是生成式AI,那么这个生成式AI,包括当然ChatGPT可能做的最成功,也包括比如像DALL-E,像stable diffusion,就一系列的生成式AI。 ChatGPT推出之后对我震撼还是挺大的。前段时间谈到我的GPT时刻是什么样的,所以我有三个想法,看了之后,第一个我感到就是人类历史上第一次我们有了一个智能体,然后通过了图灵测试。 朱民:通过了图灵测试,我们回头回到这一点,这个是个了不得的结论。通过了。 张亚勤:对,图灵测试,咱们知道是图灵1950年提出的,机器可以thinking,就叫这个理解,就可以思考的机器,然后提出图灵测试,大家在座都知道。 那么其实图灵测试是我们做计算机科学这么多年大家都梦想的一个目标,我觉得这是第一次,过去也有人说达到了,但是ChatGPT我认为是第一个软件智能体通过了图灵测试,当时我在看的时候,我太太她是ChatGPT或者GPT这些产品系列的大粉丝了,然后她说ChatGPT也幻想,也经常说错话,然后也会说谎,我说这个和人更像了,更分不出这个和人的区别了。 所以我觉得第一点还是通过了统一测试,包括语言对话的引擎,说conversational AI,其实对话引擎也很多年历史了,1966年第一个也就是MIT就做出了一个对话的引擎ELIZA,这么多年有很多次迭代,到了Siri,到了 Alex,到了Cortana,然后国内有小度,有天猫精灵,有很多对话的产品,那么都是针对某一些领域或者聊聊天,或者某些领域。 朱民:包括微软的小冰。 张亚勤:包括小冰,都是过去的对话引擎的这么一些产品。真的就是ChatGPT是完全在它的功能方面,在它的通用性方面远远超过了早期的产品,它就用了大规模Generative AI,所以这是我第一个感受。 第二个感受,我认为它是我们在AI时代的一个新的操作系统,就像在PC时代Windows,在移动时代iOS,它是一个新的操作系统,一会我们可以再展开讲。 朱民:我觉得这个比你的第一个结论更重要,因为过了图灵测试,这是过去,如果是新操作系统的话,那是一个巨大的未来。 张亚勤:就会重写、重塑、重建整个生态系统。 朱民:你第二点感受已经打开了一个阿里巴巴的大门,这可是个了不得的结论,先听你说完。 张亚勤:第三点咱们原来也讨论过,我认为它是我们从面向具体任务的人工智能到走向通用人工智能的一个起点。 当然也可以讲ChatGPT,更多是大语言模型,更多的是叫大基础模型,就开启了一个亮光。因为我们多少年也在往那个方向走,所以这是我的三个当时的观察,我的ChatGPT瞬间。 我经常在AIR我跟我们的这些学生老师来讲,就说我们这么多年在不管人工智能也好,或者整个IT领域有好多热词,一儿Blockchain,Crypto,Bitcoin,一会儿Web3.0,NFT, metaverse,很多东西。 但有些可能是真的,有些可能是这个概念,但整个大语言模型,包括 ChatGPT,GPT4.0,包括这个是一个大的变革。 朱民:所以这次是真的让你兴奋了,这还是很不容易的,让一个科学家兴奋就表明something is happening。 所以这个还是挺有意思,图灵测试过了,因为机器和人对话,当然还有很多误差,它会撒谎等等,因为它是token...
三分钟读懂ChatGPT及相关AIGC投资逻辑
AI创业助手

三分钟读懂ChatGPT及相关AIGC投资逻辑

一、ChatGPT是什么? ChatGPT是由OpenAI公司开发的对话式AI模型,于2022年11月30日上线。该AI模型使用一定的算法以及大量文本训练,最终呈现出类似聊天机器人的交互方式。使用时只需向ChatGPT提出需求,即可让其完成回答问题、书写代码、创作文本等指令,形成了一定程度的AIGC(人工智能生成内容)。 二、ChatGPT与传统聊天机器人有何不同? 传统聊天机器人 大多使用基于规则的模型对特定问题和回答进行匹配。这种方法需要手动编写大量的规则,虽然易于维护,但缺乏理解力,沟通生硬。 ChatGPT 接受了大量数据的训练,能根据聊天的上下文进行互动,真正像人类一样来聊天交流,可以用简洁的句子提供信息、可以用人们能理解的方式解释概念、传递事实,也可以从零开始制定商业计划和其他新想法。但其目前的信息时效性和输出结果的可信任度仍有局限性。 三、哪些大佬看好ChatGPT? 马斯克:ChatGPT开放测试后,马斯克在推特上感叹:很多人和ChatGPT聊的废寝忘食。(马斯克是OpenAl的创始人之一,后退出投资。) 比尔盖茨:”这让我能一窥未来。整个平台的方法和创新速度都令我印象深刻。” 谷歌创始人拉里-佩奇和谢尔盖-布林:谷歌两位创始人本已卸任具体运营管理职务,ChatGPT发布后,两人已围绕“聊天机器人搜索引擎”召开了多次高层会议,批准并提出了要把对话Al和搜索引擎进一步整合的计划。 百度CEO李彦宏:“技术已经到了临界点。类似ChatGPT这样的技术如何运用在搜索场景上。未来一年,在这方面我们非常有机会。” 四、AIGC会是A股下一个“人形机器人”级别的风口吗? 2023年,数字经济成为政策与资金聚焦的主线。从应用价值方面看,AIGC将有望成为数字内容创新发展的新引擎,为数字经济发展注入全新动能。国内政策环境持续优化,下游需求旺盛,有望推动AI技术在金融、政府、医疗等领域加速落地。 互联网头部企业入局,有望进一步拓宽AI应用场景,加速AI商业落地。2023将是AIGC的落地爆发年。去年ChatGPT的面世让市场看到了Al的新潜力,随着下一代生成式预训练模型GPT4的推出,以及各类与应用相结合的商业模式落地(如微软将ChatGPT与Bing搜索的结合),AIGC的产业机会不容忽视。 五、ChatGPT与AIGC投资逻辑 ChatGPT与AIGC应用场景 [基础设施] 云基础设施:云计算在数字中国建设和数字经济发展中起着重要的基础性、先导性和战略性作用,已成为经济社会数字化转型的基石。相关公司有深桑达A、易华录、中国移动、中国联通、中国电信等。 AI芯片:底层硬件来看,需要高算力的AI芯片。相关公司有寒武纪、地平线、华为海思等。 数据标注:数据标注是对未经处理过的数据进行加工处理,从而转变成机器可识别信息的过程。相关标的有海天瑞声等。 自然语言处理:使得计算机可以理解和反馈自然语言。相关标的科大讯飞、拓尔思等。 [应用] 文本创造:有海量文本创造需求的公司,如网文平台、新闻平台等。相关标的微软、Meta、百度集团-Sw、阅文集团和中文在线等。 教育:教育及科研工具类平台,可以使用Al进行智能问答、智能批阅、辅导资料智能撰写等。
试用「ChatGPT」几周之后
AI创业助手

试用「ChatGPT」几周之后

冷静下来,不吹不黑。 01 最近半年,互联网一款现象级的应用诞生:「ChatGPT」; 其火爆的程度,不输前面的羊了个羊; 最初了解到ChatGPT还是春节的时候,但那时网上的测评还没引起足够的好奇心; 对于纯文本式的聊天,试了几次之后就无感了; 虽然很神奇,但是太客观,太套路了; 但是从「ChatGPT4」开始,AI加工具的深度集成,这就有点绷不住了; 这里强调一下; 把「ChatGPT」当工具,不是单指聊天,或者搜索引擎; 果断折腾个账号,蹲上面体验了一段时间; 至于如何申请账号,随手查一查,前前后后半个小时差不多搞定; 主要涉及两款:ChatGPT、Bing搜索; 先来聊聊体验下来的直观感觉,提问可能会受限于职业习惯,有一定的行业偏差; 对于AI智能来说; 客观问题的处理能力很强大; 只要提问时描述的足够清晰和准确,通常都能得到符合预期的答案; 主观问题的回答如果看多了; 会发现所有回答中都过于客观和套路,反而显得平平无奇,至少当下是这样; 错误的概率也有,驴头不对马嘴的现象也有; 越是近期的数据,似乎越容易犯错; 从整体的体验来说; AI智能毫无疑问是极其强大的,当AI+互联网+行业时,极具想象空间; 潜力很大,但是当下个人觉得还差点意思; 02 先简单的聊几句ChatGPT使用经验; 在使用时; 必须要清楚自己需要的信息是客观的描述,还是其它真实的实践经验; 【1】尽量在聊天中设定角色; 比如初级Java工程师,架构师,产品经理等,这种身份可以是双向设定的; 【2】明确问题的主观性和客观性; 客观的信息处理上很有逻辑,但是带主观色彩的问题,要么是相同的套路,要么是拒绝回答; 【3】表达清楚需求; 需求描述的越清楚,得到的答案越清晰,并且在需求上下文语义中,可以添加要求或者排除因素; 【4】自定义逻辑训练; 对于一些ChatGPT盲区的信息,你可以反向的告诉它,但是信息的时效性不会太久; 【5】所有的回答不是都正确; 这种错误尤其容易出现在近期的最新内容上,或者比较久远的年代信息,以及一些挖坑场景计算; 总结一下; ChatGPT确实可以理解对话的上下文语义,在回答的内容上也具备完整的逻辑; 至于得到的结果如何? 还是要基于各自的专业角度,去提问和做结果判断,没有统一的标准衡量; 所以; 如果真的想要把ChatGPT用的花里胡哨的话,前提是要具备专业的提问和评估结果的能力; 要是单纯的做一些应付型的事务,个人感觉是够用的; 比如:周报,季度总结,等等;...
ChatGPT别来沾边!好莱坞编剧拒绝“给AI打工”,集体罢工抗议
AI情感助手

ChatGPT别来沾边!好莱坞编剧拒绝“给AI打工”,集体罢工抗议

克雷西 发自 凹非寺量子位 | 公众号 QbitAI ChatGPT可能做梦也想不到,自己有一天会成为人类罢工的理由。 工作会不会被AI取代还未有定论,好莱坞的编剧们就抢先一步罢工了。 他们罢工的理由也不完全是担心失业,主要是AI创作让他们感觉受到了侮辱。 此前,这群编剧已经与网飞、迪士尼在内的大型娱乐公司进行了为期6周的谈判。 但结果显而易见——谈崩了。 (影视公司)用人工智能取代作家的想法是最令人担心的——这说明这些公司不重视作家和他们的工作。 编剧:AI伤害不大,但侮辱性极强! 影视公司们的设想之一是让AI生成影视作品的草稿,再由人工润色。 这在好莱坞的编剧们看来,岂止是用AI创作作品,简直是让人类给AI打工。 显然,这一想法冒犯了编剧们,他们直接表示门都没有。 他们要求影视公司不得把人工智能生成的原材料交由人类修改。 不出所料地,影视公司拒绝了这一要求,只是象征性地表示“将在年度会议上讨论科技进展”。 对此,《查理和他的巧克力工厂》的编剧John August犀利地指出,所谓“年会上讨论”根本就是无稽之谈。 人工智能生成的材料并不是几年后才会出现——它们早就已经充斥我们的世界了。 《奇异博士》的编剧Robert Cargill在社交媒体表示,可怕的不是工作被AI取代,而是编剧们将沦落到以极低的薪水改写AI生成的“垃圾”的田地,而人工创作本可以做得更好。 除了拒绝为AI草稿提供修改,编剧们还要求不得在影视作品中加入AI生成内容,但同样遭到拒绝。 在编剧们看来,即使不使用这种AI生成-人工修改的模式,在创作中使用AI也是不可接受的。 还是这位Cargill,他认为AI只会Ctrl+C和Ctrl+V,它们的“作品”毫无价值。 一名漫威编剧Quinton Peeples也认为,使用AI生成的影视作品是对人类的侮辱。 编剧们总是因为他们能够表达人类独有的体验而受到重视。因此,如果你现在说机器可以做得更好,这不仅荒谬的,更是对人的极大侮辱。 此前,网飞就曾因为在其推出的动画《犬与少年》中使用AI生成内容而引起众怒。 网飞的动画发布之后,80多岁的宫崎骏老爷子都站出来反对AIGC作品,毫不客气地说这是对生命的侮辱。 逃不过的版权问题 编剧们的另一项诉求是不得将人类的作品用于训练AI。 但实际上,AI在训练过程中已然使用了大量人类作品。 这些作品中大部分是受版权保护的,而拥有版权的创作者从未授权AI使用他们的作品。 显然,他们清楚,一旦交出自己的作品权利,将无法预知他们的心血将被以何种方式使用。 创作者们当然不希望自己的作品被AI蹂躏得面目全非。 这一要求也引发了许多好莱坞之外的编剧,甚至其他文学领域创作者的共鸣。 毛姆文学奖作家Hari Kunzru表示,其他文学体裁的创作者也应关注好莱坞编剧们展开的谈判行动。 Kunzru说,除非自己掌握模型的控制权,否则不会将自己的作品授权用于LLM训练。 网友:编剧们多虑了 对于作家们的担心,有网友认为不无道理:尽管AI现在没办法完全替代编剧们的工作,但这并不妨碍AI被大规模地部署应用。 毕竟,降本增效嘛。 但也有人觉得,编剧们过激了: 聊天机器人可能会取代蹩脚的作家,但无法取代优秀的作家。...