万书网 > 心理哲学 > AI的25种可能 > 斯图尔特·罗素

斯图尔特·罗素



Stuart  Russell

斯图尔特·罗素是加州大学伯克利分校的计算机科学教授、史密斯-扎德工程学讲席教授。他与彼得·诺维格(Peter  Norvig)合著了《人工智能:一种现代的方法》(Artificial  Intelligence:  A  Modern  Approach)。



布罗克曼谈斯图尔特·罗素

计算机科学家斯图尔特·罗素和埃隆·马斯克、史蒂芬·霍金、迈克斯·泰格马克以及其他许多人一样,坚持认为,我们应该慎重创造超人类水平甚至人类水平的智能,也就是通用人工智能。这里面存在着潜在危险:这些智能程序的目的可能未必与人类设计的目的一致。

他早期的研究主要致力于把“有界最优性”(Bounded  Optimality)这一概念理解为对智力的正式定义。他开发出理性元推理技术,“简单地说,就是那种你希望能够尽快提高最终决定的质量的计算”。他致力于概率论和一阶逻辑的统一,为《全面禁止核试验条约》提供全新的、更为有效的监测系统,同时还致力于解决长期的决策问题。他对最后一个主题的陈述常以“生命:在20万亿个动作中打赢”为标题。

他非常关注自主武器的持续发展,如杀伤力极强的微型无人机,这些无人机极有可能变为大规模杀伤性武器。他起草了写给奥巴马总统的信,信中汇集了世界顶尖的40名人工智能研究者的意见,这封信促成高级别美国国家安全会议的召开。

他目前的工作主要是建造他所说的“可证明有益的”人工智能。他希望通过“将明确的不确定性输入系统”来确保人工智能的安全性,这种不确定性是指人类程序员的目的具有不确定性。这种方法将彻底打乱当前人工智能的研究。

在过去20多年里,学过计算机科学课程的人一定都听说过斯图亚特的名字。他与人合著了人工智能领域的权威教科书,估计有500多万英语读者。



诺伯特·维纳在《人有人的用处》一书中提出了许多问题,其中对当今人工智能研究者来说最重要的问题就是:人类将自己的命运交给机器掌握的可能性。

维纳认为,在不久的将来,机器的能力太有限,无法控制全球。相反,他认为,机器和像机器一样的控制系统将掌握在人类精英手中,绝大多数人类将沦为“齿轮、杠杆和棍子”。展望更远的未来,他指出给这些具有超高能力的机器确定明确目的,有相当的难度。他说:

生活中有一些更简单、更显然的真理,比如瓶子里发现有个魔鬼,最好的办法就是让他待在那里;比如渔夫为他的妻子祈求许多恩惠,最终却又回到原点;再比如假设你可以实现三个愿望,那你要非常小心地许愿。

其危险显而易见:

除非我们事先检查了机器的行为规律,完全清楚它的行为是按照我们能接受的原则进行的,否则让机器决定我们的行为,那就太不幸了。另一方面,像神灵这样的可以学习、可以根据其学习做出决定的机器,绝不会被迫做出人类本该做出的决定,也绝不会做出人类可接受的决定。

10年后,看到阿瑟·塞缪尔(Arthur  Samuel)设计的西洋跳棋博弈程序可以比它的设计者下棋下得好得多,维纳在《科学》杂志上发表了《自动化的一些道德和技术后果》(Some  Moral  and  Technical  Consequences  of  Automation)。在这篇文章中,他的观点更加清晰:

如果为了达到目的,我们使用一个无法有效干预其操作的机械装置……我们最好确信我们让机器拥有的目的就是我们真正想要的目的。

在我看来,这就是近年来埃隆·马斯克、比尔·盖茨、史蒂芬·霍金和尼克·波斯特洛姆等观察家提出的超级人工智能存在风险的根源。



将目的输入机器


人工智能研究的目标是了解智能行为背后的原理,并将这些原理注入机器中,使其可以表现出这样的行为。在20世纪60年代和70年代,主流的智能理论是指逻辑推理的能力,包括为实现特定目的设定行动计划的能力。最近,大家就理性主体的思想达成了一致,理性主体可以感知并采取行动,以求最大限度地发挥其预期效用。逻辑规划、机器人学和自然语言理解等子领域都属于这个一般范式中的特殊情况。人工智能领域已经纳入概率理论来处理不确定性,纳入效用理论来定义目标,纳入统计学习以使机器适应新的环境。这些进展使人工智能与其他学科建立了强有力的联系,这些学科建立在相似的概念上,包括控制理论、经济学、运筹学和统计学等。

在人工智能的逻辑规划和理性主体视角中,机器的目的,无论是以目标的形式,还是效用函数、奖赏函数(如强化学习)的形式,都是外生的。用维纳的话说,这就是“赋予机器以目的”。事实上,人工智能领域有一个信条,即:人工智能系统应该拥有一般目的,也就是说,它能够接受一个输入的目的,然后实现这个目的;人工智能不应该有特殊目的,也就是隐含在它的设计中的目的。例如,自动驾驶的汽车应该接受输入的目的地,而不是有一个固定的目的地。但,汽车的某些“驾驶目的”是固定的,例如它不应该撞到行人。这个目的直接建构于汽车的驾驶程序之上,不是外显的,毕竟现在没有一台“自动驾驶汽车”“知道”行人不想被撞到。

赋予机器目的,使它能够根据明确的计算程序来优化它的行为,这似乎是一个不错的方法,可以确保“机器按照我们可接受的原则行动”。但是,就像维纳警告我们的那样,我们需要赋予机器正确的目的。这可以称之为迈达斯国王的问题:迈达斯得到了他想要的,凡是他所接触到的东西都会立刻变成金子,但很快他就发现这是一个灾难,他喝的水变成了黄金,吃的食物也变成了黄金。用专业术语表示赋予正确的目的就是“价值对齐”。如果不能“价值对齐”,我们可能会无意中赋予机器与我们自己的目标完全相反的目标。为了尽快找到治疗癌症的方法,人工智能系统可能会选择将整个人类作为豚鼠进行实验。为了解决海洋酸化,它可能会耗尽大气中的所有氧气。这是系统优化的一个共同特征:目标中不包含的变量可以设置为极值,以帮助优化该目标。

然而,无论是人工智能还是围绕目标优化的其他学科,如经济学、统计学、控制理论、运筹学等,都无法确定究竟什么是“我们真正想要的目的”。相反,这些学科假定我们只是简单地把目标赋予机器。目前人工智能的研究主要是研究机器实现目标的能力,而不是如何设计那些目标。

史蒂夫·奥莫亨德罗(Steve  Omohundro)提出了一个更大的难题,他观察到智能实体必须靠行动来保护自己的存在。这与自我保护的本能或其他任何生物学概念无关,而只是因为如果实体死亡,它就无法实现自己的目的。按照奥莫亨德罗的说法,一个有开关功能的超级智能机器,会采取某些行动使开关失效。(2)艾伦·图灵本人在1951年英国广播公司第三电台的谈话节目中,把这样的机器看成人类的救赎。因此,未来我们可能面临这样的情景:我们无法预知这些超级智能机器的行动,它们不完全明确的目标与我们自己的目标相冲突——为了实现这些目标而要生存下来的动机非常强大。