对话机器学习大神 Michael Jordan:简介

  • 张天雷
  • adam

2014 年 9 月 21 日

话题:语言 & 开发架构机器学习

Michael I. Jordan 是加州大学伯克利分校电子工程系、计算机科学和统计系的陈丕宏杰出教授。他在亚利桑那州立大学获得了数学硕士学位,并且在 1985 年从加利福尼亚大学圣地亚哥分校获得了认知学博士学位。自 1988 年到 1998 年,乔丹在麻省理工学院任教授,他的研究方向包括了计算学、统计学、认知科学以及生物科学,最近几年集中在贝叶斯非参数分析,概率图模型,谱方法,核方法和在分布式计算系统、自然语言处理、信号处理和统计遗传学等问题的应用上。

乔丹教授是美国国家工程学院院士、科学院院士和美国艺术和科学学院院士。同时,他还是美国科学进步协会的资深会员。他被数理统计研究所任命为奈曼讲师和奖章讲师。在 2015 年,他获得了 David E. Rumelhart 奖;在 2009 年,他获得了 ACM/AAAI 的 Allen Newell 奖。同时,他是 AAAI、ACM、ASA、CSS、IEEE、IMS、ISBA 和 SIAM 的成员。

带着在机器学习方面的诸多的贡献,于 9 月 10 日,Michael I. Jordan 教授在著名社区 Reddit 的机器学习板块参加了“Ask Me AnyThing”活动,乔丹教授回答了机器学习爱好者许多问题。本系列整理了相关的问答,供远在地球另一面的国内人工智能和机器学习爱好者学习讨论,所有问答的先后顺序由 Reddit 用户投票决定。

乔丹教授在机器学习领域里一个重要的贡献就是关于参数化模型和非参数模型的研究,他认为非参数模型还没有开始发展。在问及这个话题时,他指出主要是相关领域学者根本没有尝试过。他以 LDA 模型为例详细讲述了这两种模型。注意到 LDA(隐含狄利克雷分布)是一个带参数的贝叶斯模型,其中包括 K 个假设已知的主题。而非参数版本的 LDA 被称为 HDP(隐含狄利克雷过程)。从实际实现上来看,从 LDA 到 HDP 仅仅是一小步。从 LDA 提出至今,LDA 已经被用于数千种应用了。然而,使用 LDA 模型并不比使用 HDP 模型具有更多的优势,有时候甚至恰恰相反。

乔丹教授认为,贝叶斯非参数模型领域的推广真正需要的是一个简单的介绍——写出它的数学模型,并且展示它的美丽——目前这样的介绍并不存在。所以,他和他的同事 Yee Whye The 正在从事这项工作,并基本上写完了这样的介绍,有很大可能在今年秋天发行出来。

乔丹教授非常看好非参数模型,他说到“贝叶斯非参数模型刚刚在机器学习领域里点亮了未来,将如同经典的非参数模型有着广阔的舞台和发展前景”。这些模型能够在复杂性上持续增长,就像在信息时代数据积累看上去那么自然。如果这些模型能够得到很好的控制,并且聚焦在在带参数的子模型,非参数模型将会越来越流行。

机器学习领域非常博大精深,很多人可能是刚刚入门,好的学习资料对于机器学习初学者来说非常有用。乔丹教授在黑客新闻里,列出了机器学习的一系列阅读书籍,以方便读者开始学习机器学习,详细清单见https://news.ycombinator.com/item?id=1055042

乔丹教授的这份列表是为了那些进入伯克利分校的博士研究生而写的,这些人都是会将他们生命未来的几十年投身于这个领域,并且想要迅速的得到这个领域的前沿知识。乔丹教授说到,针对那些在工业界中需要足够的基础知识以使能够在几个月内开始工作的人,他准备一分完全不同的列表。

在问及这套书籍是否过时时,乔丹教授表示这套书籍列表来自几年前。他现在倾向于添加一些进一步挖掘基础主题的书。他特别推荐 A. Tsybakov 的书《Introduction to Nonparametric Estimation》作为获得估计下界工具的很可读的书籍,还有 Y. Nesterov 的《Introductory Lectures on Convex Optimization》来理解优化过程中的下界。同时,他推荐 A. van der Vaart 的《Asymptotic Statistics》,这本书是伯克利分校的教材,书中包含了推断过程中的很多寄托于经验过程理论之上想法。比如 M 估计,包含了最大似然法和经验风险最小化等等。还有 B. Efron 的《Large-Scale Inference: Empirical Bayes Methods for Estimation, Testing, and Prediction》,这也是一本很发人深省的书。

在乔丹教授的想法中,他不期望着所有来伯克利的学生都已经把所有这些书读过,但是他希望他们已经做了一些选择,并且花了一些时间至少读过大部分书中的一些章节。而且,他认为这些将要进入机器学习领域的学生不仅需要最终读完这些书籍,更需要将它们都读上至少三遍——第一遍能够勉强明白了,第二遍去尝试做相关实验推导,第三遍看到之后会觉得这些都是显而易见的。


感谢郭蕾对本文的审校。

给 InfoQ 中文站投稿或者参与内容翻译工作,请邮件至editors@cn.infoq.com。也欢迎大家通过新浪微博(@InfoQ)或者腾讯微博(@InfoQ)关注我们,并与我们的编辑和其他读者朋友交流。

语言 & 开发架构机器学习