Ilya 去年的视频为何复燃?预测下个 token 就是在理解世界

未分类2个月前发布 tree
23 0 0
本文来自PRO会员通讯内容,文末关注「机器之心PRO会员」,查看更多专题解读。
Ilya 去年的视频为何复燃?预测下个 token 就是在理解世界

一段一年前 Ilya Sutskever 向黄仁勋描述「AI 预测下一个单词可以实现真正的理解」的视频切片近期在社交平台 Reddit 上引起了许多讨论。视频仅 44 秒,内容是 Ilya 在回答黄仁勋问题时,打的一个比方:

「我想绕一个小弯子,打个比方,希望能说明为什么更准确地预测下一个单词会带来更多的理解,真正的理解。举个例子,假设你在读一本侦探小说。小说中人物各异,事件繁多,情节曲折离奇,让人摸不着头脑。然后,假设在书的最后一页,侦探收集了所有的线索,聚集了所有的人,然后说,我要揭示犯罪者的身份,这个人的名字是……」

该视频片段节选自 2023 年 3 月 23 日的英伟达 GTC 大会上,英伟达创始人兼 CEO 与 OpenAI 联创及首席科学家 Ilya Sutskever 的「炉边谈话」。彼时,GPT-4 在对谈发生的前一天刚刚发布,黄仁勋在赞叹 GPT-4 各项突破的同时,询问了 Ilya「什么是 ChatGPT 和 GPT-4 之间的主要区别?是什么导致 GPT-4 在这些领域的改进?」

「侦探小说」的比喻引起了网友的对AI理解能力、理解和预测的区别、AI 是否真的有认知等问题的讨论。而完整的视频中,Ilya表示,用大型神经网络准确预测互联网上许多不同文本中的下一个词时,表面上看只是在学习文本中的统计相关性,但他们其实在学习一个世界模型。

Ilya 从侦探小说的比喻出发,GPT-4 能力突破的原因,进而谈论了他对 Scaling Law 态度,对 AI 的潜力和局限的看法,以及对 AI 可靠性和安全的重视。从这场炉边谈话的发生到现在的一年半时间里,Ilya 理念和他对技术的坚持在后续其他场合的发言里始终如一,乃至他创业成立 SSI 中都有映射。部分观点对于当前的 AI 技术发展方向仍有借鉴意义。

目录

01.  不仅仅是 LLM,围绕ChatGPT的是相当复杂的系统

预测下一个 token 就是在做世界模型?
02. Ilya 回顾神经网络的发展后,仍坚信模型的「Scaling Law」
多模态学习的两大核心是什么?强化学习一直都是 OpenAI 的重要研究方向?
03. AI 未来发展的关键在确保输出内容的可靠性
Ilya 对深度学习的早期直觉和看法是什么?合成数据可能有前途,但已有数据也不应被低估?
 01   不仅仅是 LLM,围绕 ChatGPT 的是相当复杂的系统

Ilya Sutskever 在和黄仁勋的炉边对谈里表示,ChatGPT 在学习预测下一个词时,实际上理解了文本背后的现实世界过程和情感等信息,形成了「世界模型」,预训练提高了模型对复杂过程的理解,此外,Ilya 认为需提升 ChatGPT 的可靠性,以便在不确定时明确表明不知道并请求澄清。

1、黄仁勋提到了一个常见的误解,即很多人认为 ChatGPT 只是一个大型语言模型(LLM),但事实上,它是一个相当复杂的系统,不仅仅依赖于语言模型本身。

① Ilya 指出,当 ChatGPT 训练一个大型神经网络来预测互联网上文本中的下一个词时,实际上并不仅仅是在学习文本的统计关联。虽然表面上看是根据前缀预测接下来的词,但为了压缩这些复杂的文本模式,神经网络需要学习生成这些文本的背后过程,ChatGPT 是在学习这些文本所投射的现实世界,这些文本往往包含着人类的情感、动机、互动、社会情境等信息。神经网络通过这些数据学到了一种关于世界的抽象表示或「世界模型」。随着预测精度的提升,模型对这些复杂过程的理解也会变得更为深入细致。这就是预训练的核心作用。

② Ilya 强调,预训练阶段虽然让神经网络具备了理解世界的能力,但并没有指定它应该如何具体表现。他指出,他希望 ChatGPT 成为一个遵守特定规则、诚实且乐于助人的助手,而不仅仅是完成文本预测。因此,预训练并不能直接让模型具备这些期望的特定行为。

③ Ilya 进而补充道,为了通过微调和强化学习让模型具备更具体的行为能力,模型需要进入第二个阶段的训练。在这个阶段,模型不会被教导新的知识,而是通过与人类的交互,学习如何遵循特定的规则和行为边界。通过这种微调,模型不仅能够更好地理解人们对它的期望,还能够在实际使用中表现得更加稳定和可靠。

2、黄仁勋和 Ilya Sutskever 二人还讨论了是否可以通过微调教模型执行某些任务,或者避免某些不安全或不当行为。Ilya 解释称这正是第二阶段训练的关键,它允许我们与神经网络进行沟通,定义边界,并明确地传达人们希望它执行或避免哪些任务。随着研究的进展,团队在如何精确地传达这些界限方面做得越来越好,神经网络也因此变得越来越可靠、准确,不仅能完成任务,还能够在不同情境下保持合适的行为表现。

3、此外,黄仁勋和 Ilya 还讨论了 ChatGPT 的推理能力以及它的局限性。

① Ilya 指出,推理这个概念并没有一个非常明确的定义。他认为,推理可以被理解为在特定情况下进行更深层次的思考,从而得出更好的答案。Ilya 认为 ChatGPT 的推理能力本质为一种通过处理大量语言数据,提取模式、结构和上下文,从而在面对不完全信息或模糊性的情况下作出推断的能力。黄仁勋提出,很多人认为深度学习不会导致推理能力,但实际上,ChatGPT 在预测下一个词时,必须考虑文本中的上下文和角色的意图,这实际上需要一定程度的推理能力,Ilya 也对此观点表达了认可。

② ChatGPT 在预测下一个词的过程中,通过处理文本中的模式和信息,逐步学会了一种形式的推理能力。然而,尽管神经网络展现了一些推理能力……

 关注👇🏻「机器之心PRO会员」,前往「收件箱」查看完整解读 

👀 往期回顾 👀 

 01  LLM 之后,AI 的下个关键词会是 LWM 吗?

World Labs 要做的 LWM 是什么?LWM 和空间智能有什么关系?LWM 和下一代 AI 有什么关系?3D 才是 AI 的核心表征?空间智能当前有什么进展?世界模型进展如何?…

 02  人形是做通用机器人最合适的形态吗?

为何业内都在做人形通用机器人?人形一定是做通用机器人最合适的形态吗?为什么说 Scaling Laws 才是通用机器人面临的真正难点?如何解决「数据魔咒」的难题?…

 03  Scaling 范式变了?Self-Play 还值得 All In 吗?

OpenAI 的 o1 模型有质的突破吗?Scaling Law 的范式要变了吗?Self-Play 在新范式中重要吗?传统 Self-Play 技术发展如何?Self-Play+LLM 已经能训出更强的模型了吗?…

 04  Machine Psychology,解构 LLM 还是心理学更靠谱吗?

什么是 Machine Psychology?为什么要做 Machine Psychology?做 Machine Psychology 有哪些路线?哪些心理学理论可以用于 LLMs 研究?Machine Psychology 要如何应用?Machine Psychology 下一步要怎么走?…


更多往期专题解读内容,关注「机器之心PRO会员」服务号,点击菜单栏「收件箱」查看。

© 版权声明

相关文章

暂无评论

暂无评论...