对于普通人来说,人工智能领域似乎正在取得巨大进步。根据一些媒体报道和新闻稿,OpenAI 的 DALL-E 2 似乎可以基于任何文本创建令人惊叹的图像;另一个名为 GPT-3 的 OpenAI 系统可以谈论任何事情——甚至可以写下它自己;Alphabet 旗下 DeepMind 去年发布了一个名为 Gato 的系统,该系统在公司可以交给它的每项任务上都表现出色。DeepMind 的一位高级管理人员甚至称,在寻求创造具有人类智能的灵活性和足智多谋的通用人工智能 AGI 过程中,“游戏结束了。”
但不要被愚弄了。机器有一天可能会像人一样聪明,甚至可能更聪明,但游戏远未结束。要制造出真正能够理解和推理周围世界的机器,还有大量工作要做。我们现在需要的是少装腔作势,多做基础研究。
【资料图】
AI 正在取得进步——合成图像看起来越来越逼真,语音识别通常可以在嘈杂的环境中工作——但我们距离能够理解文章和视频真正含义的通用、人类水平的 AI ,或者处理意想不到的障碍和干扰,可能还有几十年的时间。该领域面临着与学术科学家(包括我自己)多年来一直指出完全相同的挑战:让 AI 变得可靠并让它应对异常情况。
以最近广受赞誉的Gato为例,据称它是万事通,以它如何为投手投掷棒球的图像加上字幕为例。系统对上图的前三个猜测是:
一名棒球运动员在棒球场上投球。一名男子在棒球场上向投手投掷棒球。在棒球比赛中,一名棒球运动员在击球,一名接球手在泥土中。
第一个答案是正确的,但其他两个答案包括图像中有看不到其他玩家的幻觉。除了从与其他图像的统计相似性得出的粗略近似值之外,系统不知道图片中实际有什么。任何棒球迷都会认出这是一个刚刚投出球的投手,而不是相反。虽然我们预计捕手和击球手就在附近,但他们显然没有出现在图像中。
同样,DALL-E 2 无法区分蓝色立方体之上的红色立方体图像与红色立方体之上的蓝色立方体图像之间的区别。今年 5 月发布的更新系统无法区分宇航员骑马和马骑宇航员。
当谷歌研究人员提示该公司的Imagen 生成“一匹马骑着一名宇航员”的图像时,它反而展示了宇航员骑着马。图片来源:Imagen
当像 DALL-E 2 这样的图像创建系统出错时,结果可能会很有趣。但有时人工智能产生的错误会导致严重的后果。一辆自动驾驶的特斯拉曾直接驶向一名在路中间举着停车牌的人类工人,只有在人类司机干预时才会减速。该系统可以自己识别人类(如他们在训练数据中的表现)并在他们通常的标志位置停车(如他们在训练图像中出现的那样),但在遇到不熟悉的两者组合时却无法减速,将停车标志置于一个新的和不寻常的位置。
不幸的是,这些系统仍然无法可靠地工作,并且在新情况下挣扎的事实通常被掩盖在细则中。例如,Gato 在 DeepMind 报告的所有任务上都表现出色,但很少像其他当代系统那样出色。GPT-3 通常能写出流畅的散文,但在基本算术上却很吃力,而且对现实的把握太少,以至于很容易造出这样的句子,例如“一些专家认为,吃袜子的行为有助于大脑摆脱作为大脑的改变状态”。” 然而,粗略地看一下最近的头条新闻,你不会发现这些问题中的任何一个。
这里的次要情节是,人工智能领域最大的研究人员团队不再出现在学术界,同行评审出现在企业中。与大学不同,企业没有公平竞争的动力。他们没有将引人注目的新论文提交给学术审查,而是通过新闻稿发表,引导记者关注方向并回避同行评审过程。我们只知道公司想让我们知道的。
在软件行业,有一个词形容这种策略:“demoware”,即设计用于演示的软件看起来不错,但在现实世界中不一定足够好。通常,演示软件会变成汽化软件vaporware (即仅有营销作用、不实际落地) ,以震惊和敬畏的方式宣布以阻止竞争对手,但最终不会发布成为实际应用。
不过,这些行为总会使得公司自身自食其果。被热捧的AI 可能会经历一个预期破灭的冬天。产品太多,比如无人驾驶汽车、自动化放射科医生和通用数字代理,已经过演示、宣传——但从未交付过。目前,投资资金不断兑现承诺。但如果不解决不可靠和无法应对异常值的核心问题,投资就会枯竭。我们可能会在机器翻译、语音和物体识别方面取得坚实的进步,但对于所有过早的炒作来说,其他方面的进展太少了。取而代之的是“智能”城市和“民主化”医疗保健,我们将留下具有破坏性的深度伪造和排放大量碳的耗能网络。
尽管深度学习提高了机器识别数据模式的能力,但它存在三个主要缺陷。具有讽刺意味的是,它学习的模式是肤浅的;它产生的结果很难解释;结果很难在其他过程的上下文中使用,例如记忆和推理。正如哈佛大学计算机科学家 Les Valiant 指出的那样,“[前进] 的核心挑战是统一……学习和推理的公式。” 如果你甚至不真正了解停车标志是什么,就无法与举着停车标志的人打交道。
目前,我们陷入了“局部最低限度”,公司追求的是基准而不是基本理念。当前的工程实践远远领先于科学技能:这些部门专注于使用他们已经拥有的知之甚少的工具进行小的改进,而不是开发具有更清晰理论基础的新技术。这就是基础研究仍然至关重要的原因。AI 研究社区的很大一部分(比如那些大喊“游戏结束”的人)甚至没有看到这一点,好吧,令人心碎。
想象一下,如果某个外星人仅通过俯视地面上的阴影来研究所有人类互动,并注意到,有些人比其他人大,所有的阴影在晚上都消失了。也许它甚至会注意到阴影以特定的周期性有规律地增长和收缩——而无需抬头看太阳或识别上面的三维立体世界。
人工智能研究人员是时候从浮华的、直接面向媒体的演示中抬起头来,提出有关如何构建可以同时学习和推理系统的基本问题了。
编译来源:https://www.scientificamerican.com/article/artificial-general-intelligence-is-not-as-imminent-as-you-might-think1/