GPT近期发展方向--OpenAI 联合创始人20230421在 TED 大会的演讲(图文版)(gdp的趋势)
 南窗  分类:IT技术  人气:199  回帖:0  发布于1年前 收藏

20230421,Open AI 联合创始人 Greg Brockman在TED上做分享,说明了GPT未来几个月的发展方向不是打造GPT5,而是让GPT4会使用工具,同时更可信: 1. 引入外部工具,由GPT判断什么时候使用什么工具。 2. 工具执行过程可查看,执行结果人类可修改再发布。 3. GPT可自已检查自己的回答。

以下是分享全文: 七年前我们创立了 OpenAI,因为我们觉得 AI 领域正在发生一些非常有趣的事情。我们想帮助它朝着积极的方向发展。

老实说,看到整个领域从那时起已经走了多远,真是太神奇了。

听到像 Raymond 这样使用我们正在构建的技术的人和其他人的意见真的很令人欣慰,为了这么多美好的事情。

我们听到兴奋的人,我们听到关心的人,我们听到有人同时感受到这两种情绪。老实说,这就是我们的感受。

最重要的是,感觉我们现在正在进入一个历史时期,我们作为一个世界将定义一项技术。

这对我们的社会向前发展非常重要。我相信我们可以永远解决这个问题。

所以今天,我想向您展示这项技术的现状以及我们所珍视的一些基本设计原则。

因此,我要向您展示的第一件事是为AI 构建工具而不是为人类构建工具是什么感觉。

所以我们有一个新的 DALL-E 模型,它可以生成图像,我们将它公开为 ChatGPT 的应用程序,以让您使用。

你可以做一些事情,比如问,你知道,推荐一顿美味的 TED 会后餐,然后画一幅画。

(笑声) 

现在你得到了所有的,某种程度上的,创意和创意来回。并为您处理从 ChatGPT 中获取的详细信息。我们开始吧,这不仅仅是一顿饭的主意。所以让我们看看我们会得到什么。

在这种情况下,它不仅生成文本,它还会生成图像。就执行您的意图而言,这确实可以扩展它可以代表您做的事情的力量。

我要指出,这都是现场演示。这一切都是在我们说话时由人工智能生成的。所以我什至不知道我们会看到什么。

这看起来很棒。

(掌声)

我只是看着它就饿了。现在我们也用其他工具扩展了 ChatGPT。

例如,存储。您可以说“保存以备后用”。

这些工具的有趣之处在于它们非常易于检查。所以你会在这里看到一个小弹出窗口,上面写着“使用 DALL-E 应用程序”。

顺便说一句,在接下来的几个月里,所有 ChatGPT 用户都会收到这些提示。你可以看看引擎下它到底做了什么

就像人类一样写了一个提示。所以你有这种能力来检查机器如何使用这些工具,这使我们能够向他们提供反馈。现在保存起来以备后用,让我向您展示使用该信息的感觉,并与其他应用程序集成。

你可以说,“现在为好吃的东西列一张购物清单。” 并让它完成对 AI 来说有点棘手的任务。“在推特上为所有 TED 观众发布。” (笑声)

所以如果你做了这顿非常棒的饭,我绝对想知道它的味道。

但是您可以看到 ChatGPT 正在选择所有这些不同的工具,而无需我明确告诉它在任何情况下使用哪些工具。

我认为,这展示了一种思考用户界面的新方式。就像,我们习惯于思考,好吧,我们有这些应用程序,我们在它们之间点击,我们在它们之间复制/粘贴,通常这是一个很好的应用程序体验,只要你知道菜单和所有选项。

是的,我希望你这样做。

通过在工具之上拥有统一的语言界面,人工智能能够从你那里拿走所有这些细节。所以你不必成为那个人,详细说明了应该发生的每一小部分。

正如我所说,这是一个现场演示,所以有时候意想不到的事情会发生在我们身上。但是,让我们看看 Instacart 的购物清单。你可以看到我们向 Instacart 发送了一份配料清单。这里有你需要的一切。

真正有趣的是,传统的 UI 仍然很有价值,对吧?如果你看这个,

您仍然可以单击它并修改实际数量。这就是我认为表明的东西

传统的用户界面不会消失,只是我们有一种新的、增强的方式来构建它们。

现在我们已经起草了一条推文供我们审核,这也是一件非常重要的事情。我们可以点击“运行”,我们就在那里,我们是经理,我们能够检查,

如果我们愿意,我们可以改变人工智能的工作。所以在这次演讲之后,您将能够自己访问它。

我们开始了,酷。谢谢大家。

所以我们将回到幻灯片。现在,重要的是我们如何构建它,这不仅仅是构建这些工具。这是关于教人工智能如何使用它们。比如,我们甚至希望它做什么。

当我们问这些非常高层次的问题时?为此,我们使用了一个古老的想法。如果你回到艾伦图灵 1950 年关于图灵测试的论文:“你将永远无法编写出所有答案。相反,您可以学习它。你可以像人类孩子一样建造一台机器,然后通过反馈来教它。有一位人类老师在尝试事物并做好事或坏事时提供奖励和惩罚。”

这正是我们训练 ChatGPT 的方式。这是一个两步过程。首先,我们生产图灵所谓的子机,通过无监督的学习过程。我们只是向整个世界、整个互联网展示它,然后说,“用你以前从未见过的文本预测接下来会发生什么。”

这个过程赋予它各种奇妙的技能。例如,如果你看到一道数学题,

真正完成那道数学题的唯一方法,就是说接下来会发生什么,上面那个绿色九号,是实际解决数学问题。但实际上我们还必须做第二步,这是教人工智能如何使用这些技能。为此,我们提供反馈。我们让 AI 尝试多种事物,给我们多种建议,然后一个人给他们打分,说“这个比那个好。” 这不仅强化了人工智能所说的具体事情,更重要的是,人工智能用来产生答案的整个过程。这允许它进行概括。它允许它教导、推断您的意图并将其应用到它以前从未见过的、它没有收到反馈的场景中。

现在,有时我们必须教给 AI 的东西并不是你所期望的。例如,当我们第一次向可汗学院展示 GPT-4 时,他们说,“哇,这太棒了,我们将能够教给学生美妙的东西。只有一个问题,它不会复核学生的数学。如果里面有什么不好的数学,它会很高兴地假装一加一等于三然后跟着它跑。”

所以我们不得不收集一些反馈数据。Sal Khan 本人非常友善,并提供了 20 个小时的个人时间来为机器提供反馈,与我们的团队一起。

在几个月的时间里,我们能够教会人工智能,“嘿,在这种特殊情况下,你真的应该反击人类。”

我们实际上已经通过这种方式对模型进行了很多改进。当你在 ChatGPT 中按下按钮时,这实际上有点像向我们的团队发出一个信号,“这是一个你应该收集反馈的薄弱环节。”

因此,当您这样做时,这是我们真正倾听用户并确保我们正在构建对每个人更有用的东西的一种方式。

现在,提供高质量的反馈是一件困难的事情。如果你想让孩子打扫房间,如果你所做的只是检查地板,你不知道你是否只是在教他们把所有的玩具都塞进壁橱里。

顺便说一句,这是一个很好的 DALL-E 生成的图像。同样的推理也适用于人工智能。

随着我们转向更艰巨的任务,我们将不得不扩展我们提供高质量反馈的能力。

但为此,人工智能本身很乐意提供帮助。很高兴帮助我们提供更好的反馈,并随着时间的推移扩展我们监督机器的能力。让我告诉你我的意思。

例如,你可以问 GPT-4 这样的问题,这两篇论文之间经过了多少时间?模型说两个月过去了。但这是真的吗?就像,这些模型不是 100% 可靠的,尽管每次我们提供一些反馈时它们都会变得更好。

但我们实际上可以使用 AI 来进行事实核查。它实际上可以检查自己的工作。

你可以说,帮我核查事实。现在,在这种情况下,我实际上已经为 AI 提供了一个新工具。

这是一种浏览工具,模型可以在其中发出搜索查询并点击进入网页。

它实际上写出了它的整个思维链。它说,我只是要搜索这个,它实际上会进行搜索。然后它会找到发布日期和搜索结果。然后它发出另一个搜索查询。它将点击进入博客文章。所有这些你都可以做,但这是一项非常乏味的任务。这不是人类真正想做的事情。

坐在驾驶座上,担任经理的位置会更有趣,如果你愿意的话,

三重检查工作。引用出来,这样你就可以真正去验证整个推理链中的任何一个部分。结果证明两个月是错误的。两个月零一个星期,这是正确的。

(掌声)

我们会切回一边。整个过程对我来说很有趣。是人类和人工智能之间的这种多步骤协作。因为一个人,使用这个事实核查工具。这样做是为了另一个人工智能生成数据,使其对人类更有用。

而且我认为这确实显示了我们应该期望在未来更加普遍的东西的形状,我们对人类和机器进行了非常仔细和精致的设计,以解决它们如何解决问题,以及我们想如何解决这个问题。我们确保人类提供管理、监督、反馈,并且机器以可检查和值得信赖的方式运行。

我们能够一起真正创造出更值得信赖的机器。我认为随着时间的推移,如果我们把这个过程做好,我们将能够解决不可能的问题。为了让你了解我说的是多么不可能,我认为我们将能够重新思考我们与计算机交互方式的几乎每个方面。

例如,考虑电子表格。从 40 年前的 VisiCalc 开始,它们就以某种形式出现了。

我不认为他们在那段时间真的改变了那么多。这是 arXiv 上所有 AI 论文的特定电子表格,在过去的 30 年里。其中大约有 167,000 个。你可以在这里看到数据。

但让我向您展示 ChatGPT 如何分析这样的数据集。所以我们可以让 ChatGPT 访问另一个工具,这是一个 Python 解释器,所以它能够运行代码,就像数据科学家那样。所以你可以直接上传一个文件,并提出相关问题。非常有帮助,你知道,它知道文件的名称,就像“哦,这是 CSV”,逗号分隔值文件,“我帮你解析。” 这里唯一的信息是文件名、您看到的列名,然后是实际数据。

从中它能够推断出这些列的实际含义。就像,语义信息不在那里。

它必须把它的世界知识放在一起,“哦,是的,arXiv 是一个人们提交论文的网站。论文中有许多作者,”就像所有这些一样,这是人类要做的工作,人工智能很乐意提供帮助。

现在我什至不知道我想问什么。但幸运的是,你可以问机器,“你能做一些探索性的图表吗?”

这是一个超高级指令,背后有很多意图。但我什至不知道我想要什么。人工智能必须推断出我可能感兴趣的东西。所以我认为它会提出一些好主意。比如,每篇论文作者数量的直方图、每年论文的时间序列、论文标题的文字云。

我认为,所有这些都将非常有趣。最棒的是,它确实可以做到。我们走了,一个漂亮的钟形曲线。

你看,三个是最常见的。然后它将每年制作这个漂亮的论文图。不过,2023 年会发生一些疯狂的事情。看起来我们处于指数级,它从悬崖上掉下来了。

那里会发生什么?顺便说一句,所有这些都是 Python 代码,您可以检查。

然后我们会看到词云。

所以你可以看到这些标题中出现的所有这些美妙的东西。但我对 2023 年的事情很不满意,这数字让今年看起来很糟糕。问题是23年还没有过完。所以我要退回机器。“等等,这不公平!!!2023 年还没有结束。到 4 月 13 日发布了 2022 年论文的百分比是多少?”

所以我认为 4 月 13 日是截止日期。你能用它来做出公平的预测吗?所以我们会看到,这是一种雄心勃勃的计划。(笑声)所以你知道,再一次,我觉得我想从这里的机器中得到更多。我真的想让它注意到这件事,也许它有点过头了有点,神奇地推断这就是我想要的。但我注入我的意图,我提供了这条额外的指导。在引擎下,人工智能只是在重新编写代码,所以如果你想检查它在做什么,这是很有可能的。而现在,它进行了正确的投影。

(掌声)

如果您注意到,它甚至会更新标题。我没有要求,但它知道我想要什么。

现在我们将再次切换回幻灯片。这张幻灯片展示了我认为我们如何......

关于我们将来如何最终使用这项技术的愿景。一个人把他病得很重的狗带到兽医那里,兽医打了个坏电话说:“让我们拭目以待。” 如果他听了,那条狗今天就不会在这里了。与此同时,他向 GPT-4 提供了血液测试,比如完整的医疗记录,上面写着,“我不是兽医,你需要和专业人士交谈,这里有一些假设。”他把这些信息带给了第二位兽医,后者用它来挽救了狗的生命。

现在,这些系统并不完美。你不能过分依赖它们。但我认为这个故事表明,一个拥有医疗专业人员和 ChatGPT 作为头脑风暴合作伙伴的人,能够实现之前不会发生的结果。我觉得这是我们都应该反思的,当我们考虑如何将这些系统集成到我们的世界时,请思考。有一件事我深信不疑,是让 AI 变得正确需要每个人的参与。这是为了决定我们希望它如何插入,那是为了设定道路规则,人工智能会做什么和不会做什么。如果从这次谈话中可以学到一件事,只是这项技术看起来不同而已。与人们预想的完全不同。所以我们都必须识字。

老实说,这就是我们发布 ChatGPT 的原因之一。我相信我们可以一起实现 OpenAI 的使命,确保通用人工智能造福全人类。谢谢。

(掌声)

以下为对话环节:

(掌声结束) 克里斯·安德森:格雷格。哇。我是说 ...

我怀疑这里的每个人都有一种晕眩的感觉。

就像,我怀疑有很多人在看这个,你看着那个,你会想,“哦,天哪,

关于我工作方式的几乎每一件事,我都需要重新思考。”就像,那里只有新的可能性。我对吗?谁认为他们必须重新考虑我们做事的方式?是的,我的意思是,这太棒了,

但它也真的很可怕。所以让我们谈谈,格雷格,让我们谈谈。我的意思是,我想我的第一个问题实际上只是

你到底是怎么做到的?(笑声) OpenAI 有几百名员工。谷歌有数千名员工从事人工智能工作。为什么是你想出了这项震惊世界的技术?

格雷格布罗克曼:我的意思是,事实是,我们都建立在巨人的肩膀上,对,毫无疑问。如果您查看计算进度,算法的进步,数据的进步,所有这些都是全行业的。但我认为在 OpenAI 中,我们从一开始就做了很多非常慎重的选择。

第一个只是面对现实。我们真的很认真地想过:要在这里取得进展需要什么?我们尝试了很多没有用的东西,所以你只能看到有用的东西。

我认为最重要的是让彼此截然不同的团队和谐地合作。

CA:顺便问一下,我们可以喝刚带来的水吗?我认为我们将需要它,这是一个口干舌燥的话题。但是,你在这些语言模型中看到了一些东西,难道不也有一些东西吗?这意味着如果你继续投资并发展它们,那么在某个时候可能会出现一些东西?

GB:是的。而且我认为,我的意思是,老实说,我认为那里的故事很有说明性,对吧?我认为高层次的深度学习,就像我们一直都知道的那样,是我们想要成为的,是一个深度学习实验室,究竟该怎么做?

我认为在早期,我们并不知道。我们尝试了很多东西,一个人正在训练模型,预测亚马逊评论中的下一个字符,他得到了一个结果——这是一个句法过程,你知道,该模型将预测逗号的位置,名词和动词的位置。但他实际上从中得到了最先进的情感分析分类器。该模型可以告诉您评论是正面的还是负面的。我的意思是,今天我们就像,来吧,任何人都可以做到。

但这是你第一次看到这种出现,这种从底层句法过程中出现的语义。

我们知道,你必须扩展这个东西,你必须看到它的发展方向。

CA:所以我认为这有助于解释。这个谜语让所有看到这个的人都感到困惑,因为这些东西被描述为预测机器。然而,我们从他们身上看到的感觉……感觉不可能来自预测机器。就是你刚才给我们看的东西。涌现的关键思想是,当你获得更多东西时,突然不同的事情出现了。它一直在发生,蚁群,单只蚂蚁四处奔跑,当你把足够多的蚂蚁聚集在一起时,你会得到这些表现出完全涌现的不同行为的蚁群。或者一个城市,几间房子在一起,它只是房子在一起。但是随着房屋数量的增加,出现了一些问题,例如郊区和文化中心以及交通拥堵。给我一点时间,当你看到一些突然出现的东西让你大吃一惊,而你只是没有看到它的到来。

GB:是的,好吧,所以你可以在 ChatGPT 中尝试这个,如果你添加 40 位数字 -- CA:40 位?

GB:40 位数字,模型会做,这意味着它真的学会了如何做的内部电路。真正有趣的是,如果你把它加起来,比如一个 40 位数字加上一个 35 位数字,它经常会弄错。所以你可以看到它确实在学习这个过程,但还没有完全概括,对吧?就像你记不住40位加法表,那比宇宙中的原子还要多。

所以它必须学会了一些一般性的东西,但它还没有真正完全学会,哦,我可以将其概括为添加任意数字、任意长度。

CA:所以这里发生的事情是你允许它放大并查看数量惊人的文本。它正在学习你不知道它能够学习的东西。

GB 嗯,是的,它也更微妙。因此,我们开始真正擅长的一门科学是预测其中一些新兴能力。实际上,我认为在这个领域中被低估的一件事就是工程质量。就像,我们不得不重建我们的整个堆栈。当您考虑建造火箭时,每个公差都必须非常小。机器学习也是如此。您必须正确设计堆栈的每一部分,然后才能开始进行这些预测。

有所有这些令人难以置信的平滑缩放曲线。他们告诉你一些关于智力的深刻基础。如果您查看我们的 GPT-4 博客文章,您可以在其中看到所有这些曲线。现在我们开始能够预测了。

因此,我们能够预测,例如,编码问题的表现。我们基本上看一些模型小 10,000 倍或 1,000 倍。因此,这实际上是平滑缩放,尽管现在还为时尚早。

CA:所以这是当时最大的恐惧之一,由此而生。如果这是这里发生的事情的基础,那么当你扩大规模时,事情就会出现。您也许可以在一定程度上自信地进行预测,但这可能会让您感到惊讶。为什么没有出现真正可怕的东西的巨大风险?

GB:嗯,我认为所有这些都是程度的问题,以及规模和时间。而且我认为人们也相信一件事,就是与世界的融合也是这种令人难以置信的涌现,某种程度上,也是非常强大的东西。因此,这就是我们认为增量部署如此重要的原因之一。所以我认为我们现在看到的,如果你看这个演讲,我关注的很多是提供真正高质量的反馈。

今天,我们做的任务,你可以检查一下,对吧?很容易看到那个数学问题然后说,不,不,不,七是正确答案。但即使是总结一本书,这也是一件很难监督的事情。比如,你怎么知道这本书的摘要是否有用?你必须阅读整本书。没有人愿意这样做。

(笑声)所以我认为重要的是我们一步一步来。

我们说,好吧,当我们继续进行书籍摘要时,我们必须适当地监督这项任务。我们必须用这些机器建立记录,他们能够真正实现我们的意图。我认为我们必须生产出更好、更高效的产品,更可靠的缩放方式,有点像让机器与你对齐。

CA:所以我们将在本次会议的晚些时候听到,有些评论家说,你知道,里面没有真正的理解,系统将永远——我们永远不会知道它没有产生错误,它没有常识等等。Greg,你的信念是不是在任何时候都是真的,但是规模的扩大和人类的反馈,你谈到的基本上是要带着它踏上那趟旅程,以高度的信心实际获得真理和智慧等事物。你能确定吗?

GB:是的,嗯,我认为 OpenAI,我的意思是,简短的回答是肯定的,我相信这就是我们前进的方向。

而且我认为这里的 OpenAI 方法一直就像,让现实打你的脸,对吧?

就像这个领域是违背承诺的领域,所有这些专家都说 X 会发生,Y 就是它的运作方式。人们一直在说 70 年来神经网络都行不通。他们还没有说对。他们可能是对的,也许 70 年加 1.或者类似的东西就是你需要的。但我认为我们的方法一直是,你必须将这项技术推向极限,真正看到它的实际效果,因为那会告诉你,哦,这就是我们如何转向新范式的方法。我们还没有用完这里的水果。

CA:我的意思是,你采取了一个颇具争议的立场,正确的做法是将其公之于众。然后利用所有这些,你知道,现在不仅仅是你的团队提供反馈,全世界都在提供反馈。但是...如果,你知道,不好的事情会出现,它在那里。所以,你知道,当你作为非营利组织成立时,我在 OpenAI 上听到的原始故事,好吧,你在那里是对大公司用人工智能做他们未知的、可能是邪恶的事情的一种很好的检查。你要建立某种模型,你知道,以某种方式让他们负责并且能够在需要时放慢场速。或者至少那是我所听到的。然而,可以说,发生的事情恰恰相反。你发布的 GPT,尤其是 ChatGPT,在科技界产生了如此巨大的冲击波,以至于现在 Google 和 Meta 等公司都在争先恐后地迎头赶上。他们的一些批评是,你强迫我们在没有适当护栏的情况下把它放在这里,否则我们就会死。你知道,你如何证明你在这里所做的事情是负责任的,而不是鲁莽的。

GB:是的,我们一直在思考这些问题。就像,一直很认真。而且我不认为我们总是会把事情做好。但我认为有一件事非常重要,从一开始,当我们考虑如何构建通用人工智能时,实际上让它造福于全人类,比如,你应该怎么做,对吧?那个默认的计划,好吧,你秘密建造,你得到这个超级强大的东西,然后你弄清楚它的安全性,然后你按下“开始”,你希望你做对了。

我不知道如何执行该计划。也许其他人会这样做。但对我来说,那总是很可怕,感觉不对。所以我认为这种替代方法是我看到的唯一其他途径,那就是你确实让现实打了你的脸。我认为你确实给了人们时间来提供意见。在这些机器变得完美之前,在它们超级强大之前,你确实有能力

看到他们在行动。我们已经从 GPT-3 中看到了,对吧?GPT-3,我们真的很担心人们会用它做的第一件事是产生错误信息,试图提示选举。相反,第一件事是生成伟哥垃圾邮件。

(笑声) CA:所以伟哥垃圾邮件很糟糕,但有些事情更糟糕。这是给你的一个思想实验。假设你坐在一个房间里,桌子上有一个盒子。你相信那个盒子里的东西,很有可能是绝对光荣的东西。这将给您的家人和每个人送上精美的礼物。但实际上那里的小字里也有百分之一的东西上面写着:“潘多拉”。这实际上有可能在世界上释放难以想象的邪恶。你打开那个盒子吗?

GB:嗯,所以,绝对不是。我认为你不会那样做。老实说,我会告诉你一个我以前没有真正讲过的故事,那就是在我们启动 OpenAI 后不久,我记得我在波多黎各参加人工智能会议。我坐在旅馆房间里,眺望这美妙的水域,所有这些人都玩得很开心。你想了想,如果你基本上可以选择潘多拉的盒子,五年后或 500 年后,你会选择哪个,对吗?

一方面,你觉得,好吧,也许对你个人来说,最好是五年之后。但如果它在 500 年之后,人们有更多的时间来把它做好,你选哪个?你知道,我只是在那一刻真正感受到了它。我当时想,你当然会做 500 年。

我哥哥当时在军队里,他把自己的生命置于危险之中,这比我们任何人在电脑上输入东西都要真实得多,并在当时开发这项技术。所以,是的,我真的相信你必须正确处理这个问题。

但我认为这并不是真正意义上的公平竞争。就像,如果你看看整个计算历史,当我说这是整个行业甚至几乎差不多时,我是认真的,人类发展技术范围内的转变。而且你越多,不要把碎片放在一起。在那里,对,我们仍在制造更快的计算机,我们仍在改进算法,所有这些事情,它们正在发生。

如果你不把它们放在一起,就会出现悬垂,这意味着如果有人这样做,或者当有人设法连接到电路时,然后你突然有了这个非常强大的东西,没有人有任何时间去调整,谁知道你得到了什么样的安全预防措施。

所以我认为我带走的一件事就像,即使你考虑其他类型技术的发展,想想核武器,人们谈论的是从零到一,某种程度上,改变人类的能力。

但我实际上认为,如果你看一下能力,随着时间的推移它已经相当顺利了。所以我认为,我们开发的每项技术的历史。一直以来,您必须逐步进行,并且必须弄清楚如何在每次增加它时对其进行管理。

CA:所以我听到的是你......你希望我们拥有的模型是我们已经生下了这个非凡的孩子,可能拥有将人类带到全新境界的超能力。提供护栏是我们的集体责任。让这个孩子集体教导它要聪明,不要让我们所有人失望。这基本上是模型吗?

GB:我认为这是真的。而且我认为说这可能会改变也很重要,对吧?我们必须在遇到它时采取每一步。我认为今天非常重要。我们都了解这项技术,弄清楚如何提供反馈,决定我们想从中得到什么。我希望这将继续是最好的途径,但我们能诚实地进行这场辩论真是太好了因为如果它不在那里,我们就不会这样做。

CA:格雷格·布罗克曼,非常感谢你来到 TED 并让我们大开眼界。

(掌声)

最后,越研究越感觉GPT是一个宝库,还有很多东西需要挖掘,而GPT本身也在不断迭代发展,大家有兴趣持续关注,和我一起走这条人工智能学习实践之路的话,可以关注下公众号“强人工智能之路”,目前支持免费的GPT3.5对话:

 标签:gpt,人工智能,

讨论这个帖子(0)垃圾回帖将一律封号处理……