AI 搞了半天只是曲线拟合?贝叶斯网络之父力荐因果关系

阅读数:2190 2019 年 12 月 10 日 08:53

AI搞了半天只是曲线拟合?贝叶斯网络之父力荐因果关系

人工智能只是优秀的曲线拟合?近两年,关于这一观点的讨论从未停止,图灵奖获得者、贝叶斯网络之父 Judea Pearl 也参与其中,他一直自嘲自己是 AI 社区的反叛者,认为由于人类对智能的真正含义不完全理解而阻碍了人工智能的发展,他曾经在多个场合表达过这样的观点:人工智能领域的技术水平只不过是上一代机器已有功能的增强版:在大量数据中发现隐藏的规律性。所有令人印象深刻的深度学习成果都只是曲线拟合。从语音识别,到图像识别,再到人机对话,难道这些都算不上“智能”,而只是“曲线拟合”的结果?

AI搞了半天只是曲线拟合?贝叶斯网络之父力荐因果关系

毫无疑问,当下软件在智能层面出现的一系列进步,背后推手正是机器学习与深度学习支撑起的 AI 技术体系。然而,近两年来,越来越多的人开始讨论这样的软件是否具备真正的“智能”。尽管采用人工智能技术的软件确实在不少领域保持着快速发展的势头,但仍然有学者与怀疑论者们表示:这种算法与理想中的智能算法仍有着巨大甚至无法弥合的鸿沟。

什么叫做“智能”?

关于智能的定义,可以追溯到古希腊时代的那群哲学家们。他们当时关注的主要是人类与动物(而非与机器)间的区别。亚里士多德就曾经提到,接受过良好教育思维的一大特征就是能够理解那些自己并不认同的主张。那时的他当然不会想到,自己的格言如今同样适用于区分智能与人。

目前,机器仍然无法独立提出思想或者假设,无法彼此进行测试,也无法根据逻辑推理以及实验结果(即科学方法的核心原理)接受或者拒绝某种论点。尽管不同形式的 AI(例如对抗性网络)可能也会通过互相冲突的方式达成最佳效果,但很少有人会将这种算法推理称为“智能”。

相反,这只是一种在原理层面相当简单的方法:由两套神经网络利用相同的数据集交叉工作,从而获得准确率超越任何单一神经网络的处理模型。当然,这种方法在实现既定目标方面确实表现得更为有效。

人与机器之间的核心智能区别在于定义目标以及在实现目标期间找寻合理性的能力。我们也可以将其描述为区分因果关系的能力,例如某两个事件虽然经常同时发生,但并不代表着其中一个事件导致了另一个事件。在公共话语当中,这类因果关系谬误正是最常见的逻辑错误之一。图灵奖得主、贝叶斯网络之父 Judea Pearl 也认为机器学习和人工智能领域中的待解难题本质上与因果关系有关。

AI:到底是在学习还是在描述?

AI 研究人员之间正在争论的另一个新问题在于,当前的机器学习与深度学习技术是否代表着一种全新的算法推理形式。或者说,这只是对描述性统计与曲线拟合等原有数学技术的进一步延伸。

支持后一种观点的阵营可谓人才济济,Judea Pearl 还亲自写了一本研究因果科学的新书。这项研究,也带来了关于人工智能未来以及深度学习是否能够带来近人类通用智能的讨论。

Pearl 在此前的采访中表达了一些敏锐的观察:

在我深入研究深度学习的过程中,我发现这类算法都停留在关联这个层次上。也就是曲线拟合。这听起来似乎令人不屑,但必须承认,深度学习的所有令人印象深刻的成就,实际就是在数据上拟合出一条曲线。从数学层次的角度来看,无论深度学习模型能够如何熟练地操作数据,以及在操作数据时引入了哪些变量,无论整个过程多么复杂繁琐,其本质仍然只是一种曲线拟合运算。

从本质上讲,深度学习是一种高度通用且极为强大的曲线拟合技术,能够识别出以往无法被发现的模式,推断趋势并针对各类问题给出预测性结果。当然,曲线拟合在表示给定数据集时也存在一定风险,这就是过度拟合。具体来讲,算法可能无法识别数据的正常波动,最终为了拟合度而将噪音视为有效信息。

Pearl 坦言,深度学习的成功程度甚至超出了该领域专家的预期。但他也担心,这可能会令研究人员们受困于概念的天花板,甚至危及真正通用型学习技术的发展。

这一切令人印象深刻,因为我们都没想到纯曲线拟合能解决这么多问题——事实证明,曲线拟合确实可以,但我关注的是未来——接下来该怎么办?

AI 研究人员正在根据自己对深度学习的观点乃至立场划分阵营,其中最坚决的倡导者听不进任何批评意见。Pearl 以此为基础对 AI 研究环境做出评述:

AI 领域目前已经出现分裂。首先,有些人对机器学习、深度学习以及神经网络的成功深深着迷。他们不明白我在担忧什么,他们只想继续拟合曲线。但是,在与统计学习之外的 AI 工作者进行交流时,他们则能立刻意识到我提出的问题。

Pearl 提到,除非算法与算法控制下的机器能够推理出因果关系,或者至少能够识别出概念化差异,否则这类方法的效能以及通用性将永远无法与人类相提并论。他表示,除非能够模拟人类的直觉,否则机器人永远不可能跟人类进行真正有意义的对话。这要求机器能够理解因果关系,同时掌握可行的其他行动与结果。简而言之,我们又回归了亚里士多德的判断。

机器如何做到像人一样思考?

虽然可能属于目前的少数派,但 Pearl 并不是唯一一位意识到人工智能应该在深度学习之外探索其他可能的技术人。对于如何制造出能像人一样思考的机器,其他人也给出了自己的观点。

麻省理工学院研究人员发表的一篇论文认为,要创造拥有类人学习与思维能力的机器,除了利用模式识别来解决问题之外,还需要确保机器有能力自主创造出能够理解并解释周遭环境的因果模型。

这篇论文提出,这样的系统必须以物理(物理学)与社会(心理学)科学为基础,用以建立起对世界进行直观推理的能力,最终令机器能够“迅速获取知识并将结论推广到更多新的任务与场景。”与 Pearl 一样,作者在文章结尾对 AI 研究人员提出了忠告:

我们建议,深度学习与其他计算范式的发展目标,应当是利用尽可能少的训练数据解决任务,而非单纯构建起能够识别手写字符、使用引擎或者下围棋的特定解决方案。因此,除了训练模型完成单一特定任务之外,我们还可以根据一系列类人指标对模型做出评估。

这样的通用人工智能(AGI)一直是马斯克及盖茨等技术名流的抨击对象。

简单来说,Pearl 一行人倾向认为,目前在人工智能方面取得的成果背后是海量数据训练的结果,这些数据通常来自于模拟或大规模人类标注,问题也都是独立同分布的(IID, independently identically distribution),要么是使用基准数据集的图像识别,要么是为特定问题精心收集合适的训练数据集,在数据处理上面花费了大量功夫等。这样看来,在某些特定问题上,机器可以达到甚至超过人类也很正常。

但是,当一个能以高准确率被正常识别的物体被放进与该物体出现场景呈负相关的场景训练集时,视觉系统很容易被误导,比如一条放在草地里的鱼,因为机器的认知中,鱼往往是出现在水里。

此外,对抗脆弱性(adversarial vulnerability)现象强调,即使对 IID 假设作出非常微小但有针对性的破坏(这类破坏可以通过向图像添加精心选择的噪声来实现,而人类无法察觉此类更改),也会造成危险的错误,比如混淆交通标志,这说明当下的人工智能系统还没有足够稳健,这也反映在计算资源问题上。因为机器学习方法嵌入的(小型)物理设备可能是电池供电。因此,解决大量现实问题的 AI 模型有可能需要重用组件,这要求组件对多个任务和环境具备稳健性。

结束语

也许,自适应或者自优化是相比于智能更准确的说法,这些模型在参数与结构层面仍然需要大量人工调整是不争的事实。尽管,Pearl 已经通过贝叶斯网络建立起描述因果关系所必需的数学系统,但要想让机器掌握被他称为 Do-Calculus 的复杂因果关系,仍有很长的路要走。

与此同时,各类机器学习工具的用户也必须意识到这些方案的局限性,避免将提取自特定问题与数据集的结果推广到其他类别。这是 AI 的短板,也是接下来广发开发者需要直面的核心挑战。

参考链接:

https://diginomica.com/ai-curve-fitting-not-intelligence

评论

发布