万书网 > 心理哲学 > AI的25种可能 > 站不住脚的1001个理由

站不住脚的1001个理由




对于这种论点,有些人,主要是那些人工智能领域的研究人员,提出了反对意见。这些反对意见反映出一种自然的防御反应,也许还反映出对超级智能机器的能力缺乏想象。但仔细想想,这些观点一个都站不住脚。下面是常见的观点:

◎  不用担心,我们只需把开关关上。(3)一说到超级人工智能会给我们带来的风险,往往局外人就会第一个想到这件事,就好像超级智能实体永远不会想到这件事一样。这就好比说人类败给“深蓝”或“阿尔法围棋”的可能性微乎其微,因为我们只需一步接一步地走对棋就行了。

◎  根本不可能出现达到人类水平甚至超人类水平的机器人。(4)这是人工智能研究人员的一种不寻常的说法,因为从图灵起,他们一直在回避哲学家和数学家的这种说法。虽然没有证据支持,但这种说法似乎认为,如果有可能创造出超级人工智能,那将存在重大的风险。就好像一个公共汽车司机,车上是全体人类,他说:“是的,我正朝悬崖驶去,事实上,我正在加速!但是相信我,还没等我们到那里,汽油就会用完!”这种说法很愚蠢,它在赌人类缺乏创造力。我们以前这样赌过,但输了。1933年9月11日,著名物理学家欧内斯特·卢瑟福(Ernest  Rutherford)满怀信心地说:“任何希望从这些原子转变中获得能量的人都在痴心妄想。”1933年9月12日,利奥·西拉特(Leo  Szilard)发现了中子诱发的核链式反应。几年后,他在哥伦比亚大学的实验室证实了这样的反应。正如他在回忆录中所写:“我们把一切关闭,回到家。那天晚上,我脑海中非常确定,世界正走向悲伤。”

◎  现在担心它为时过早。到底该什么时候担心人类可能要面对的这些严重问题,这不仅取决于问题发生的时间,还取决于制定和实施避免风险的解决方案所需的时间。例如,如果我们探测到在2067年将有一颗大型小行星与地球相撞,我们会说“现在担心它为时过早”吗?如果我们预计由于气候变化会在21世纪末发生全球性灾难,现在采取行动阻止它还为时过早吗?不早!相反,可能是为时已晚。我们无法预测什么时候会有达到人类水平的人工智能,但是,像核裂变一样,它可能会比预期的时间来得早。关于这一论点,还有另一种说法,就像吴恩达所说的:“这就像担心火星上会人口过剩。”这是一个类比:它说明这种风险不仅很容易控制,而且距离我们太过遥远,不仅如此,从一开始,我们甚至不太可能会尝试把数十亿人迁徙到火星上。但是,这一类比是错误的。我们现在已经投入巨大的科学技术资源来创造越来越有能力的人工智能系统。一个更贴切的类比应该是我们欲把人类迁往火星,但却没有考虑到,我们一旦到达,该呼吸什么、喝什么或吃什么。

◎  无论如何,达到人类水平的人工智能并不是真的很快就会出现。例如,斯坦福大学的《人工智能百年报告》告诉我们:“与大众媒体对人工智能的神奇的预测相反,研究小组发现我们没有理由担心人工智能眼下就会对人类造成威胁。”这一论点扭曲了我们担忧的原因,我们并不是担心这种威胁迫在眉睫。尼克·波斯特洛姆在他2014年出版的《超级智能》(Superintelligence)一书中写道:“人工智能是否即将有重大突破,或者我们可以精确地预测什么时候会有这样的突破,这并不是本书要探讨的内容。”

◎  你只是一个卢德分子。这么说很奇怪,因为如此定义的话,卢德分子将包括图灵、维纳、明斯基、马斯克和盖茨在内的那些在20世纪和21世纪对科技进步做出最杰出贡献的人。(5)这个称呼也说明大家完全误解了这种担忧的性质和原因。这就好像说,如果他们指出人类有必要控制裂变反应,我们就要指责核工程师是卢德分子一样。一些反对派还使用“反人工智能分子”这个术语,这相当于称核工程师为“反物理学分子”。我们理解和预防人工智能会带来的风险,其目的是确保我们能够得到益处。例如,波斯特洛姆写道,成功地控制人工智能将带来“一种文明的轨迹,使人类能充满同情地、快乐地使用宇宙的馈赠”——这并不是悲观的预测。

◎  任何足以带来麻烦的机器都非常聪明,它们有适当的利他目标。(6)(通常,这种观点有一个前提,即智力更高的人常常更有利他主义目标,这一观点可能与持这种观点的人的自我认知有关。)这一论点与休谟的“应然与实然”和G.  E.摩尔(G.  E.  Moore)的自然主义谬误有关,这意味着,由于机器有智慧,那么鉴于它自己的世界经验,在某种程度上它会觉察到什么是正确的。这让人无法相信。例如,我们不会在棋盘和棋子的设计中认识到“将军”的目标;因为同样的棋盘和棋子可以作为自杀棋,或者还可以开发出许多其他游戏。再举个例子:在波斯特洛姆的想象中,人类被一个假定的机器人灭绝,这个机器人把地球变成回形针的海洋,我们人类会觉得这个结果很悲惨,可是吃铁的氧化亚铁硫杆菌却兴奋不已。谁会说这个细菌做错了吗?人类赋予机器固定的目标,这并不意味着它会自动认识到那些不属于目标的事物对人类来说也是重要的。机器最大化实现目标很可能会给人类带来问题,但根据定义,机器不会将这些问题识别为问题。

◎  智能是多维的,“所以比人类更聪明”这句话没有意义。(7)这是现代心理学的主流思想,也就是说智商没有完全展现出人类拥有的不同程度的认知能力。智商确实是衡量人类智能的一种粗略手段,但对于目前的人工智能系统来说,智商毫无意义,因为人工智能在不同领域的能力是毫无关联的。谷歌搜索引擎不会下棋,而深蓝无法回答搜索查询,我们如何比较谷歌搜索引擎和深蓝的智商?

◎  这些都没有支撑这一论点,也就是“因为智能是多方面的,所以我们可以忽略超级智能机器带来的风险”。如果“比人类更聪明”这一概念没有意义,那么“比大猩猩更聪明”也毫无意义,因此大猩猩不需要害怕人类;但很显然,这么说当然站不住脚。在所有相关的智能维度上,一个实体比另一个实体更有能力,这在逻辑上是可能的,不仅如此,一个物种会对另一个物种的生存造成威胁,即使前者无法欣赏音乐和文学,这也是可能的。