本文最初发布于 Medium 网站,经原作者授权由 InfoQ 中文站翻译并分享。
这一天迟早会到来,符号 AI 的结局又会重现
机器学习和深度学习的地位将日渐衰退,一直退回到它们的本来面目:花哨的统计技术。
至少二十年来,人工智能领域一直被连接主义人工智能——也就是基于神经网络的人工智能所主导。从识别手写数字到掌握人类语言,人工智能行业每天都有新的突破。人工智能技术发展如此之快,世界甚至都跟不上它的节奏。尽管这个领域大受欢迎,但神经网络革命的主要先驱之一、人工智能教父 Geoffrey Hinton 认为我们应该从头开始重新思考一切:“我的观点是扔掉一切,重新开始。”
机器学习(ML)和深度学习(DL)是当前领先的 AI 范式,迄今为止取得了非常可观的成就。最近基于变换器的语言模型(比如 GPT-3)的大热就是一个很好的例子。但今天我们面临的很多障碍似乎是当下方法无法跨越的。有一些新兴的框架将在未来几年主导 AI 产业。以下是我们将不再把连接主义人工智能作为推动该领域前进的主导力量的两个原因。
我们无法用当前的范式达成人工智能的目标
我们可以从两个截然不同的角度来看待人工智能。
第一个角度是人工智能的实用性和适用性。我们正在使用几年前还被认为不可能实现的深度学习方法来解决各种问题,实现媲美人类水平的对象/语音检测和识别、创意系统、对话机器人或语言大师。从这个角度来看,AI 看起来发展得还不错。
但还有另一个角度:看看我们前方的道路。可是它看起来并不那么乐观。这个领域正在进行一场辩论。没有人知道哪一条道路是实现通用人工智能(AGI)的正确途径。基于深度学习的解决方案还不错,但最终目标——应该可以解决所有问题的方案——一直都是 AGI。专家们对前沿技术的态度是一致的,但对下一步的方向则分歧严重。
有人说,我们正朝着更大、更强大的语言模型前进,这是正确的方向——鉴于 GPT-3 及其后继者的成就,这种说法大概挺合理的。还有人说我们肯定会在各种地方踌躇不前——想想完全自监督模型、强化学习、混合模型,都是这样的例子。而其他人则认为我们必须引入一些尚不存在的新事物——例如“系统 2”推理、因果关系或直觉物理学。
人类是我们所知的唯一高智商实例。我们可以合理假设 AI 将具备某些让人类具备智慧的特征,至少在某种程度上是这样。这就是为什么越来越多的研究人员站在了涉身 AI(embodied ai)的想法这边:没有与世界互动的身体就无法获得智能。阿尔瓦·诺埃在他的《知觉行动》一书中指出,“知觉不是大脑中的一个过程,而是整个身体发起的一种有技巧的活动。”我们的智慧源于我们在世界上成长、生活和互动的方式。
机器人发展学这个子领域旨在以物理机器人的形式构建人工智能机器,这些机器人可以像人类孩子一样成长。但这并不是一个新想法。图灵本人辩称,“与其试图制作一个程序来模拟成年人的思维,[我们可以]宁愿尝试制作一个模拟儿童思维的程序。”然后我们可以将问题分解为两个更好定义的部分:构建一个孩子的大脑(在图灵的假设中这是很容易编程的),然后教育它。
这个解决方案对于今天的 ML/DL 来说是完全无法实现的。虚拟 AI 可以解决一些问题,但不是全部。因为基于 ML 和 DL 的 AI 并不生活在现实世界中,所以它们无法像我们那样与世界交互。正因如此,它们永远不会像我们一样聪明。
我们当前追寻 AGI 的道路就像是在黑暗中拍照
退一步说,我们先认可 ML 和 DL,假设我们可以通过这条道路来构建 AGI。
自 2012 年行业对 DL 的兴趣猛增以来,我们一直在构建更大的模型,并在更大的计算机上使用更多数据进行训练。这种“越大越好”的理念在自然语言处理和计算机视觉等子领域取得了重要的突破。只要我们能够开发更大的模型,这种方法就可能继续为我们提供更好的结果。我们希望在未来的某个时候,其中某个模型变得足够聪明,足以达到 AGI 的状态——我们现在差的太远了。
GPT-3 就是这种理念的一个很好的例子。它成为了有史以来创建的最大的神经网络,参数高达 1750 亿——比其前身 GPT-2 大 100 倍。它成就斐然,在许多语言任务中都表现出色,甚至解决了很多长久以来的难题,例如写诗或音乐、将英语转化为代码,或思考人生的意义。
GPT-3 比其他模型强大得多,以至于我们很快发现自己无法评估其局限性:人们发现的许多用例是作者还没有考虑过的。人们不断寻找它的弱点,一次又一次地撞上他们自己的局限之墙。GPT-3 的能力超出了我们测量工具的极限。无论它的智能水平如何,我们都还没法完全测出来。
另一个例子是一个月前发布的悟道 2.0——它现在保持着有史以来最大的神经网络纪录,当然很快就会被刷新的。这个拥有 1.75 万亿参数的怪物比 GPT-3 大 10 倍。我们无法充分衡量 GPT-3 的智能水平——尽管人们普遍认为它不是 AGI 级别的——与此同时我们一直在构建越来越大的模型。
为什么我们要以这种方式接近 AGI?这会把我们引向何方?
我们是在黑暗中拍摄照片。经济利益是一个诱人的目标,而经济利益正是这些模式背后的大多数公司和机构所追求的。如果我们继续构建更大的模型,却无法评估它们的智慧水平,最后会怎样呢?
根据我在本节开头提到的假设,我们可以得出结论,我们最终将使用当前技术构建一个 AGI 级别的系统。我们会向它前进,最终到达目的地。但我们不会知道自己已经达成了目标,因为我们用来定义现实的工具只会告诉我们另一个故事。而且,因为我们是在黑暗中大步前进,我们甚至不会停下来怀疑这个目标是否已经实现。
这样的场景会有多危险?我们正在努力建立有史以来最强大的实体。这件事是在黑暗中推进的。我们往前走的时候根本不管不顾。我们这样做是为了金钱和权力。如果 ML 和 DL 到最后真的能创建出 AGI,我们最好找到一种方法来避免这种情况。我们应该转变自己的心态和范式——改为更容易解释、更负责任的理念。
最后的想法
今天,ML 和 DL 是 AI 的同义词。在过去的 15-20 年里,这一领域的每一次重大突破都是由于这些方法不合常理的效果才能达成的。它们在一些问题上创造了奇迹,但它们并不是万能灵药;它们不会解决人工智能的终极问题。
我们可以将这些范式替换为其他更合适的范式,替换成确实能够继续推动这一领域超越连接主义人工智能面对的那些障碍的范式。或者我们最好将它们从主力军中除名,除非我们想在不知情的情况下闯入 AGI 的世界,发现自己处于 AI 可能崛起和推翻我们地位的极度令人恐惧的局面。
我们应该剔除机器学习和深度学习领域的那些浪漫观念。我们尽量不要指望它们能做到太多东西。它们是非常有用的范式,但历史一次又一次地告诉我们,即使看起来很像最终解决方案的东西往往也会让人失望。
原文链接:
评论