不久前纽约大学心理学教授、Uber人工智能实验室前负责人、人工智能创业公司Geometric Intelligence创始人Gary Marcus给深度学习泼了10次凉水,指出了这种人工智能方法存在的诸多限制。这次《人工直觉与深度学习手册》作者Carlos E. Perez开始针锋相对,逐条予以反击。总的说来,这是直觉机器与代数思维的路线之争,究竟谁更有道理呢?看谁先实现AGI吧。
对于Gary Marcus有关深度学习的限制,我至少欠他一个更详细的解释。那些研究人员在研究深度学习时没有尽职的问题在于,其实他们并不理解这一领域取得的大规模进展。通过把恐惧、不确定和怀疑(FUD)注入这个最有可能实现AGI(通用人工智能)的学习领域,其实他们是在帮倒忙。更大的问题不在于其他AGI研究活动得到的资金变稀少了,而是中国相对于美国和欧洲,资助这方面的政府开支要大得多。
有点跑题了啊,不过我的确把Marcus的每一条质疑都好好看过了,我会给大家解释这每一条用我从事的认知范式研究(比如直觉机器)的话可以如何实现。
如果离开了自动化对象跟环境的交互机制,任何有关实现AGI的对话都是不完整的:
深度学习是非常好的通用逼近器(我们现有最好的一个),当然,除了学习模式以外AGI还需要更多。我已经在之前的文章中写过了。不过,除非有人构思出了更好的模式识别器,否则的话AGI的发展还将继续由深度学习推动。吸收了逼近器的现金方法有很多。GAN引入了竞争学习的思路,将识别器与生成器进行结合。RL+DL表明,通过利用Q-learing算法和DL,仅靠观察像素来学习是有可能的。AlphaZero通过MCTS(蒙特卡洛树) + DL表明,通过自己跟自己下棋就能形成更先进的策略。在“深度学习”这个东西被发明出来之前没人设想过上述任何一个新办法。然而,所有这些新方法成功的主要原因是由于它们把深度学习作为了一个组件。从方程式里面撤走深度学习的话你就什么也得不到了。
好了,现在我们要搬出Gary Marcus的观点看看用深度学习(或者直觉机器)可以如何解决了。
3.1. 迄今为止的深度学习对数据非常饥渴
这是因为大多数实验装置都是要从零开始对环境没有任何的先验知识。相反,人类婴儿在这一点上有着永恒的进化优势。
不过,如果我们看看AlphaZero的最新进展的话,那么这种需要大量数据的限制似乎已经被消除了。AlphaZero学会下出大师级水平,但是却不需要从棋谱中学习。相反,它仅仅靠定义了棋类的规则就做到了这一点。它只用了4个小时就学会了下期策略(不同的开局着法、开局让棋法、对棋盘的控制、残局的下法、迫移等)。换句话说,它在短得不可思议的时间内就学会了人类在下了很多世纪才领悟到的所有东西。
要是无视这一点风险就得你自己承担了。
3.2. 迄今为止的深度学习很肤浅迁移能力有限
我们对深度学习的迁移学习的理解仍在初期阶段。在用于类似领域是我们已经目睹过迁移学习的进展。举个例子,对预先训练过的网络进行训练的话培训会变得更快。这一领域令人印象最为深刻的进展就是高分辨率图像的生成。这让我们通过逐步从较小规模的网络学习慢慢搭建出一个更大的能力更强的网络。
然而,我们还无法训练网络做的事情是,学会知道哪些是不变的东西,这样才能去学习那些重要的东西。深度学习似乎什么都学,我们也不理解如何才能区分对另一个领域不重要的东西。比方说,如果你改变一个视频游戏的维度,受训万这个游戏的RL+DL系统就没法玩下去了。这种规模变化让学习模型陷入了困境。
这是一个有趣的问题,但看起来并不像是无法克服。
3.3. 迄今为止的深度学习没有应对层次结构的自然手段
基本上,深度学习是在没有理解层次概念的情况下连续向量空间内建立起表示的。然而,像Capsule Network、Hyperbolic空间以及Graph Convolutional Network(图卷积网络)等工作都能捕捉这些分层。