写点什么

MIT 提出可压缩模型的 AI 框架,激励软件代理探索其环境

  • 2020-05-22
  • 本文字数:1853 字

    阅读完需:约 6 分钟

MIT 提出可压缩模型的AI框架,激励软件代理探索其环境

2020年国际学习表征会议(ICLR)接受的两篇论文中,MIT 的研究者提出了激励软件代理(agent)以探索其所处环境,以及修剪算法来提升 AI 应用程序性能的新方法。总的来说,这两种新方案可以促进工业、商业和家用自主机器人的发展;相比现有的竞品,这些方案不需要那么多的计算能力,但同时功能却更强大。

“好奇心”算法

一支团队提出了一种元学习算法,其可以生成 52,000 个探索算法,这些算法可以让代理更深入地探索自己的周围环境。他们探索了其中两种全新算法,并借此改善了一系列模拟任务的学习过程——这些任务包括让月球车登陆,以及用机械手臂抓起蚂蚁大小的机器人等。



图源 Alex Knight


这支团队的元学习系统首先选择一系列高级操作(基本编程,机器学习模型等等)来引导代理执行各种任务,包括记忆以前的输入、比较和对比当前和之前的输入、利用学习方法更改自己的模块等等。元学习系统从共计三十多种操作中,一次最多组合七种不同操作,从而生成了描述之前提到的 52,000 种算法的计算图。


测试所有的算法将花费数十年时间,所以研究者们首先将从代码结构就可以预测出其糟糕性能的算法排除在外。之后他们在一项基本的网格级导航任务中测试了最有希望的候选算法,该任务需要大量的探索,但计算量很小。表现良好的算法被列为新的基准,随后淘汰了一大堆候选算法。


研究团队表示他们使用了四台机器,搜索运行十多小时之后找到了最佳算法。总数超过一百的高性能算法中,前 16 种有用且新颖,性能可以与人工设计的算法相媲美,甚至还会更好。


研究者将前 16 个模型的优秀性能归因于它们都具备的两个探索特性。首先,代理会因为访问一个新地方而获得奖励,因为这样它们就更可能采取新的行动。其次,一个 AI 模型学习预测代理未来的状态,另一个模型则会回顾过去的状态,二者相辅相成以预测现在状态。这样的话,如果预测错误,则二者都会因发现新东西而受到奖励。


因为元学习进程会生成高级计算机代码作为输出,因此可以将这两种算法分解后查看其决策过程。MIT 研究生马丁·施耐德(Martin Schneider)在一份声明中称“人类可以阅读并解释我们生成的算法,但如果想要真正的理解代码,就需要对每一个变量和操作进行推演,并观察它们如何随着时间演变。”他与另一名研究生 Ferran Alet,MIT 计算机科学与电气工程教授 Leslie Kaelbling 及 Tomás Lozano-Pérez 共同撰写了这份研究论文。


“一方面我们借助计算机的能力来评估大量算法,另一方面我们利用了人类解释并改进这些算法的能力,将这二者结合起来设计算法和工作流程是一项很有趣的开放性挑战。”

缩小 AI 模型

在第二份研究中,一支 MIT 团队提供了一种可靠的,可以在资源受限的设备上运行的模型缩小框架。尽管团队还不能解释为何该框架表现如此出色,但不可否认的是,该压缩方法甚至比一些顶尖的压缩方法实现起来更容易且更快。


该框架是“彩票假设(Lottery Ticket Hypothesis)”的产物。论文显示如果在训练过程中能够确定正确的子模型(submodel),那么即使减少了 90%的参数,模型依旧表现良好。研究的合著者,同时也是“彩票假设”的提出者,建议将模型重新“带回”到早期训练阶段,不带任何参数(例:根据已有数据估算模型内部配置变量),然后再重新训练模型。模型修剪方法通常会导致模型精度随着时间变化逐渐降低,但是这种方式却可以将模型精度还原到最初始的状态。


这为更广阔的 AI 研究领域带来了好消息,为解决该领域的可访问性和可持续性问题带来了希望。去年六月(2019 年 6 月),马赛诸塞州大学阿默斯特分校的研究者发布了一项研究,估算出训练并搜索某模型需要花费的电量,这些电量伴随着约 626,000 磅的二氧化碳排放,相当于美国普通汽车服役周期排放量的近五倍。根据最近的一份Synced报告,华盛顿大学用于生成/检测假新闻的 Grover 机器学习模型在两周的训练中花费了 25,000 美元。


MIT 助理教授韩松表示“很高兴看到新的修剪算法和重新训练技术的不断发展”。韩松建立了行业标准修剪算法 AMC,但并未参与到前文提到的这项研究之中。他最近与他人合著了一篇关于如何提升大型模型的 AI 训练效率的论文,论文中提到的模型包含许多可以针对各种平台定制预训练的子模型。 “(该模型)可以让更多的人得以利用高性能 AI 应用程序。”


MIT 博士学生 Alexa Renda 与 MIT 助理教授/博士学生 Jonathan Frankle 合著了该项研究。二人都是 MIT 计算机科学与人工科学实验室(CSAIL)成员。


延伸阅读:


https://venturebeat.com/2020/04/28/mit-presents-ai-frameworks-that-compress-models-and-encourage-agents-to-explore/


2020-05-22 15:351224
用户头像
刘燕 InfoQ高级技术编辑

发布了 1112 篇内容, 共 537.3 次阅读, 收获喜欢 1977 次。

关注

评论

发布
暂无评论
发现更多内容

【总结】框架设计之架构师实现自己架构目标的主要手段

魔曦

极客大学架构师训练营

02架构的方法论

ashuai1106

架构设计 极客大学架构师训练营 架构设计原则

第二周课程学习总结

腾志文(清样)

作业

架构作业-第2周

铁血杰克

架构师训练营-第二课作业-20200617-设计原则???

👑👑merlan

架构设计 软件设计

架构师 0 期 | 架构师怎样实现架构目标?

刁架构

设计模式 极客大学架构师训练营

架构师训练营第二周命题作业

whiter

极客大学架构师训练营

编程的本质

GalaxyCreater

架构

豆瓣9.0,35万读者“搜不到信息”的神秘作者,我们帮你找到了

华章IT

JVM 虚拟机 深入理解JVM Java 25 周年 周志明

学习总结 -- Week2

吴炳华

极客大学架构师训练营

依赖倒置原则理解

Thrine

RPC实战与核心原理-学习笔记(4)

程序员老王

作业2

annie

极客大学架构师训练营

深入理解JVM垃圾回收机制 - 运行时栈帧的内存变化

Skye

深入理解JVM 运行时栈帧

设计原则

GalaxyCreater

架构

外包程序员的幸福生活

四猿外

架构师培训第二周作业

talen

架构培训 -02 学习总结 架构师实现自己架构的主要手段

刘敏

拼多多市值快 1000 亿美元了

池建强

创业 拼多多

架构师训练营第二周作业

时来运转

架构师训练营第二周总结

时来运转

一周信创舆情观察(6.8~6.14)

统小信uos

新基建 信创

第二周作业

王鑫龙

极客大学架构师训练营

Week2学习总结

铁血杰克

设计原则——依赖倒置原则

GalaxyCreater

架构

架构师0期week2-作业

小高

依赖倒置原则

清风明月

极客大学架构师训练营

极客时间 - 架构师训练营 - week2 - 课堂笔记

毛聪

架构师训练营第二周总结

烟雨濛濛

极客时间 - 架构师训练营 - week2 - 作业

毛聪

极客大学架构师训练营第二周学习总结

竹森先生

设计模式 架构设计 极客大学架构师训练营 面向对象设计原则

MIT 提出可压缩模型的AI框架,激励软件代理探索其环境_AI&大模型_Kyle Wiggers_InfoQ精选文章