万书网 > 心理哲学 > AI的25种可能 > 人工智能的风险

人工智能的风险




我通过尤德考斯基的博客接触到了一个革命性的信息,这个博客迫使我安排了在加利福尼亚的见面。信息是:人工智能的持续发展会造成宇宙规模的变化,这个失控的过程可能会杀死每一个人。要避免这种结果,我们需要投入大量额外的努力。

在与尤德考斯基会面之后,我做的第一件事就是试图使我的Skype同事和密切合作者对他的警告感兴趣。但我失败了,他们并不感兴趣。这个信息太过疯狂,太不入主流。它的时代还没有来到。

后来我才知道尤德考斯基并不是最初的持有这种异议、说出这个特别真相的人。2000年4月,太阳微系统公司的联合创始人、首席科学家比尔·乔伊(Bill  Joy)在《连线》(Wired)杂志上发表了一篇长篇评论文章,题目是《为什么未来不需要我们》(Why  the  Future  Doesn't  Need  Us)。他警告说:

我们已经习惯于日常生活中充满了科学突破,但还没有学会接受这样一个事实:21世纪最引人注目的技术,如机器人技术、基因工程和纳米技术等,对人类造成的威胁不同于以前科技所带给人类的。具体地说,机器人、生物工程人和纳米机器人具有共同的危险因素:它们可以自我复制。一个机器人可以变成很多个,然后很快失控。

很显然,乔伊的这番评论引起大家的愤怒,但却没起到什么作用。

然而,更让我吃惊的是,有关人工智能风险的信息几乎与计算机科学领域同时出现。艾伦·图灵在1951年的一次演讲中说:“一旦机器思维的方法开始出现,它很快就会超越我们人类微不足道的能力,这似乎非常可能发生……因此,在某种程度上,我们应该预期机器能够掌握控制权。”(24)大约10年后,他在布莱切利园的同事I.  J.古德写道:“第一台超智能机器是人类最不需要做的一项发明,因为机器要足够温顺,才能够告诉我们如何控制它。”(25)实际上,在《人有人的用处》一书中,我一共找到6处维纳暗示的“控制问题”(Control  Problem)的这个或那个方面。比如:“像神灵这样的可以学习、可以根据其学习做出决定的机器,绝不会被迫做出人类本该做出的决定,也不会被迫做出人类可接受的决定。”显然,那些最初发布人工智能风险信息的唱反调的人就是人工智能先驱自己!



进化的致命错误


对于为什么控制问题是真实的,而不是科学幻想,存在许多论据,有些挺复杂,有些则不那么复杂。请允许我提供一个例子来说明问题的严重性:

在过去的10万年里,整个世界一直处于人脑管理之中。这里说的“世界”指地球,但是这个论点也可延伸到太阳系,甚至可能延伸到整个宇宙。智人的大脑是最复杂的未来形成机制,有些人甚至称之为宇宙中最复杂的物体。最初,我们没有将它们用于生存和部落政治之外的其他领域,但现在它们的影响力已经超过了自然进化。地球已经从生产森林发展到生产城市。

正如图灵所预言的,一旦我们拥有超人类的人工智能,也就是前文所说的“机器思维的方法”,人类大脑的管理时代就将结束。环顾四周,你见证了千百年来人类大脑管理的最后几十年。这种想法只会让人们停顿一下,然后他们又回到把人工智能当作另一种工具的思路上。一位世界顶级的人工智能研究人员最近向我坦白说,得知我们不可能创造出相当于人类水平的人工智能,他感到非常欣慰。

当然,开发出相当于人类水平的人工智能可能还需要很长时间。但我们有理由怀疑情况并非如此。毕竟,相对而言,进化这种盲目而笨拙的优化过程,只要出现了动物,就没花多长时间便创造出人类水平的智能。或者以多细胞生命为例:对于进化来说,让细胞粘在一起,似乎比从多细胞生物中创造出人类要难得多。更不用说,我们的智力水平会受到诸如产道宽度这样怪诞因素的限制。想象一下,这就相当于,人工智能开发者的研究工作被叫停,只是因为他无法调整电脑上字体的大小!

这里有一个有趣的对称性:在塑造人类时,进化创造出一个系统,这个系统至少在许多重要维度上比进化本身拥有更强大的计划性和优化性。我们是第一个了解到自身是进化产物的物种。此外,我们创造出许多人工制品,如无线电、枪支、宇宙飞船等,这些人工制品是进化不可能创造出来的。因此,我们的未来将取决于自己的决定,而不是取决于生物进化。从这个意义上说,进化已经沦为其自身控制问题的牺牲品。

我们只能希望在这个意义上我们比进化更聪明。当然,我们确实更聪明,但这样就够了吗?我们即将找到答案。



目前局面


此时此刻,在图灵、维纳和古德最初发出警告半个多世纪之后,在像我这样的人开始关注人工智能风险10年之后,我们开始讨论这个问题。我很高兴看到我们在这个问题上取得了很大进展,但我们肯定还没有完全解决这个问题。虽然人工智能风险不再是一个禁忌话题,但人工智能研究者们还没有充分认识到这个风险的严重性。人工智能有风险还没成为常识。我现在听到了一些谨慎言论,比如“我不关心超级智能人工智能,但在自动化程度提高方面存在一些真正的伦理问题”,或者“有人研究人工智能风险是好事,但这不是眼下我们关心的问题”,甚至还有听起来很合理的言论,“这些虽然都是小概率的情况,但它们非常有可能影响我们,这值得我们关注”。

不过,就消息传播而言,我们正接近临界点。最近,对2015年两次大型国际人工智能会议参会的人工智能研究人员进行调查,结果发现,40%的人认为来自高度发达的人工智能的风险要么是“一个重要问题”,要么是“该领域最重要的问题之一”。(26)

当然,我们可以肯定,有一些人永远不会承认人工智能有潜在的危险。否认人工智能风险的人通常都有经济或其他的务实动机。其中一个主要动机是公司利润。人工智能是有利可图的,即使在没有盈利的情况下,它至少也是一个时髦的、前瞻性的行业,你的公司未来会与之相连。因此,许多否认人工智能风险的观点是公司公关和法律机制的产物。在某种非常真实的意义上,大公司追求自身利益,没有人性,而这些利益可能与任何为他们工作的人的利益不一致。正如维纳在《人有人的用处》一书中所指出的:“当人类这一原子不是以完全负责任的人类,而是作为盖子、杠杆和棍子被编织进一个使用他们的组织时,组织的原料是不是血肉之躯就无关紧要了。”

另一个对人工智能风险视而不见的强烈动机是人类的好奇心。“当看到一些技术上会带来甜头的事情时,人们会想都不想只管去做,只是在技术成功之后才会争论该拿这个技术怎么办。人们就是这样对待原子弹的。”罗伯特·奥本海默(J.  Robert  Oppenheimer)如是说。杰弗里·欣顿可以说是深度学习的发明者,他最近就人工智能风险回应了奥本海默的这番话:“我可以给你们一般性的论据,但事实是,这个发明的前景太美好了。”

不可否认,现代社会几乎所有那些我们认为理所当然的美好事物之所以能够出现,都要归功于创业精神和科学好奇心。然而,我们需要认识到进步未必一定会带给我们一个美好的未来,这很重要。用维纳的话说就是:“我们可以不把进步当作伦理原则来相信,而只把进步当作事实来相信。”

从根本上说,在所有企业负责人和人工智能研究人员愿意承认人工智能风险之前,我们没有等待的奢侈机会。想象一下,你坐在一架即将起飞的飞机上。突然有消息称,40%的专家相信飞机上有炸弹。此时,飞行跑道已经准备好,我们并不想坐在那里等待其余的60%的专家下结论。