o1 核心作者 MIT 演讲:激励 AI 自我学习,比试图教会 AI 每一项任务更重要

“o1 发布后,一个新的范式产生了”。其中关键,OpenAI 研究科学家、o1 核心贡献者 Hyung Won Chung,刚刚就此分享了他在 MIT 的一次演讲。演讲主题为“Don’t teach. Incentivize(不要教,要激励),核心观点是:o1 核心作者 MIT 演讲:激励 AI 自我学习,比试图教会 AI 每一项任务更重要休闲区蓝鸢梦想 - Www.slyday.coM思维链作者 Jason Wei 迅速赶来打 call:o1 核心作者 MIT 演讲:激励 AI 自我学习,比试图教会 AI 每一项任务更重要休闲区蓝鸢梦想 - Www.slyday.coM在演讲中,Hyung Won 还分享了:技术人员过于关注问题解决本身,但更重要的是发现重大问题;硬件进步呈指数级增长,软件和算法需要跟上;当前存在一个误区,即人们正在试图让 AI 学会像人类一样思考;“仅仅扩展规模”往往在长期内更有效;……下面奉上演讲主要内容。先简单介绍下 Hyung Won Chung,从公布的 o1 背后人员名单来看,他属于推理研究的基础贡献者。o1 核心作者 MIT 演讲:激励 AI 自我学习,比试图教会 AI 每一项任务更重要休闲区蓝鸢梦想 - Www.slyday.coM资料显示,他是 MIT 博士(方向为可再生能源和能源系统),去年 2 月加入 OpenAI 担任研究科学家。加入 OpenAI 之前,他在 Google Brain 负责大语言模型的预训练、指令微调、推理、多语言、训练基础设施等。o1 核心作者 MIT 演讲:激励 AI 自我学习,比试图教会 AI 每一项任务更重要休闲区蓝鸢梦想 - Www.slyday.coM在谷歌工作期间,曾以一作身份,发表了关于模型微调的论文。(思维链作者 Jason Wei 同为一作)o1 核心作者 MIT 演讲:激励 AI 自我学习,比试图教会 AI 每一项任务更重要休闲区蓝鸢梦想 - Www.slyday.coM回到正题。在 MIT 的演讲中,他首先提到:在他看来,AI 领域正处于一次范式转变,即从传统的直接教授技能转向激励模型自我学习和发展通用技能。理由也很直观,AGI 所包含的技能太多了,无法一一学习。(主打以不变应万变)o1 核心作者 MIT 演讲:激励 AI 自我学习,比试图教会 AI 每一项任务更重要休闲区蓝鸢梦想 - Www.slyday.coM具体咋激励呢??他以下一个 token 预测为例,说明了这种弱激励结构如何通过大规模多任务学习,鼓励模型学习解决数万亿个任务的通用技能,而不是单独解决每个任务。他观察到:o1 核心作者 MIT 演讲:激励 AI 自我学习,比试图教会 AI 每一项任务更重要休闲区蓝鸢梦想 - Www.slyday.coM对此他打了个比方,“授人以鱼不如授人以渔”,用一种基于激励的方法来解决任务。然后 AI 就会自己出去钓鱼,在此过程中,AI 将学习其他技能,例如耐心、学习阅读天气、了解鱼等。其中一些技能是通用的,可以应用于其他任务。面对这一“循循善诱”的过程,也许有人认为还不如直接教来得快。但在 Hyung Won 看来:o1 核心作者 MIT 演讲:激励 AI 自我学习,比试图教会 AI 每一项任务更重要休闲区蓝鸢梦想 - Www.slyday.coM换句话说,面对有限的时间,人类也许还要在专家 or 通才之间做选择,但对于机器来说,算力就能出奇迹。他又举例说明,《龙珠》里有一个设定:在特殊训练场所,角色能在外界感觉只是一天的时间内获得一年的修炼效果。原因也众所周知,大型通用模型能够通过大规模的训练和学习,快速适应和掌握新的任务和领域,而不需要从头开始训练。o1 核心作者 MIT 演讲:激励 AI 自我学习,比试图教会 AI 每一项任务更重要休闲区蓝鸢梦想 - Www.slyday.coM他还补充道,数据显示计算能力大约每 5 年提高 10 倍。o1 核心作者 MIT 演讲:激励 AI 自我学习,比试图教会 AI 每一项任务更重要休闲区蓝鸢梦想 - Www.slyday.coM总结下来,Hyung Won 认为核心在于:模型的可扩展性算力对加速模型进化至关重要此外,他还认为当前存在一个误区,即人们正在试图让 AI 学会像人类一样思考。但问题是,我们并不知道自己在神经元层面是如何思考的。在他看来,一个系统或算法过于依赖人为设定的规则和结构,那么它可能难以适应新的、未预见的情况或数据。造成的结果就是,面对更大规模或更复杂的问题时,其扩展能力将会受限。o1 核心作者 MIT 演讲:激励 AI 自我学习,比试图教会 AI 每一项任务更重要休闲区蓝鸢梦想 - Www.slyday.coM回顾 AI 过去 70 年的发展,他总结道:与此同时,面对当前人们对 scaling Law 的质疑,即认为仅仅扩大计算规模可能被认为不够科学或有趣。Hyung Won 的看法是:举个例子,在机器学习中,一个模型可能在小数据集上表现良好,但是当数据量增加时,模型的性能可能会下降,或者训练时间会变得不可接受。这时,可能需要改进算法,优化数据处理流程,或者改变模型结构,以适应更大的数据量和更复杂的任务。也就是说,一旦识别出瓶颈,就需要通过创新和改进来替换这些假设,以便模型或系统能够在更大的规模上有效运行。除了上述,o1 另一核心作者 Noam Brown 也分享了一个观点:o1 核心作者 MIT 演讲:激励 AI 自我学习,比试图教会 AI 每一项任务更重要休闲区蓝鸢梦想 - Www.slyday.coM这意味着,在模型开发过程中,训练阶段的资源消耗非常巨大,而实际使用模型进行推理时的成本则相对较低。有人认为这凸显了未来模型优化的潜力。o1 核心作者 MIT 演讲:激励 AI 自我学习,比试图教会 AI 每一项任务更重要休闲区蓝鸢梦想 - Www.slyday.coM不过也有人对此持怀疑态度,认为二者压根没法拿来对比。o1 核心作者 MIT 演讲:激励 AI 自我学习,比试图教会 AI 每一项任务更重要休闲区蓝鸢梦想 - Www.slyday.coM对此,你怎么看?Hyung Won Chung 演讲 PPT:参考链接:本文来自微信公众号:量子位(ID:QbitAI),作者:一水
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,蓝鸢梦想所有文章均包含本声明。

相关推荐

  • 友情链接:
  • PHPCMSX
  • 智慧景区
  • 微信扫一扫

    微信扫一扫
    返回顶部

    显示

    忘记密码?

    显示

    显示

    获取验证码

    Close