万书网 > 心理哲学 > AI的25种可能 > 迈克斯·泰格马克

迈克斯·泰格马克



Max  Tegmark

迈克斯·泰格马克是麻省理工学院物理学家、人工智能研究者、未来生命研究所所长、基础问题研究所的科学主任。著有《穿越平行宇宙》(Our  Mathematical  Universe)和《生命3.0》(Life  3.0:  Being  Human  in  the  Age  of  Artificial  Intelligence)。

注:迈克斯·泰格马克的著作《生命3.0》中文简体字版已由湛庐文化策划,浙江教育出版社出版。——编者注



布罗克曼谈迈克斯·泰格马克

几年前,经暴胀宇宙之父阿兰·古斯(Alan  Guth)的介绍,我有幸结识了迈克斯·泰格马克。迈克斯·泰格马克与阿兰·古斯是麻省理工学院的同事。迈克斯是一位杰出的理论物理学家和宇宙学家,他现在最关心的问题是创造通用人工智能会给人类带来的生存危机。4年前,迈克斯与扬·塔里安和其他人共同创办了未来生命研究所,该研究所自称是“一个推广组织,致力于确保未来最强大的技术会造福于人类”。在伦敦的一次图书推广活动期间,他正在筹划未来生命研究所。他承认参观完伦敦科学博物馆,看完博物馆里陈列的人类科技成就后,在地铁站流下了眼泪。所有这些令人印象深刻的进步难道都将归于一场空吗?

未来生命研究所的科学顾问委员会包括埃隆·马斯克、弗兰克·维尔切克、乔治·丘奇、斯图尔特·罗素和牛津大学哲学家尼克·波斯特洛姆。尼克曾梦想过一个思想实验,这个实验常常被引用。该实验里有一个明显是善意的通用人工智能,它只是按照命令行事,却把世界变成了一个只有回形针别无他物的地方。该研究所赞助了关于人工智能安全问题的会议(2015年在波多黎各,2017年在阿西洛玛),并在2018年发起一次奖金竞赛,竞赛重点放在能够最大限度地发挥通用人工智能的社会效益的研究上。

虽然有时外行人会认为迈克斯有些危言耸听,但就像弗兰克·维尔切克一样,迈克斯相信,在一个极大受益于通用人工智能的未来世界,如果我们人类做出努力,就可以使得人类物种不被排斥在外。



尽管关于人工智能将如何以及何时对人类产生影响存在很大争议,但从宇宙的角度来看,情况更加清晰:在地球上进化出的不断发展技术的生命正不计后果地快速使自身变得过时。这让我感到尴尬,因为如果我们敢于走上一条更加雄心勃勃的道路,我们就能创造出令人惊叹的机遇,让人类达到前所未有的繁荣。

我们的宇宙诞生138亿年后,开始有了自我意识。在一颗蓝色的小小行星上,我们宇宙中微小的有意识的部分已经发现,他们曾经认为是存在的总和的东西原来只是更为宏伟事物中的一小部分:太阳系位于有1000亿个其他星系的宇宙中的一个星系里,这些星系排列成复杂的星系群、星系团和超星系团。

意识是宇宙的觉醒,它把我们的宇宙从一个没有自我意识的机械的僵尸转变成一个包含自我反省、美丽、希望、意义和目标的有生命的生态系统。如果这种觉醒从未发生过,我们的宇宙将毫无意义,它只是一个巨大的空间浪费。如果因为一些宇宙灾难或自我造成的不幸而使我们的宇宙永久地回到睡眠状态中,它将再次变得毫无意义。

不过,事情也可能会变得更好。我们还不知道人类是否是宇宙中唯一的天文爱好者,甚或是第一个天文爱好者,但我们已经非常了解我们的宇宙,知道它有可能达到比迄今为止表现出来的更高的唤醒程度。像诺伯特·维纳这样的人工智能先驱已经告诉我们,进一步唤醒宇宙处理和体验信息的能力并不需要数以万年计的额外进化,而可能只需要人类科学几十年的创造力。

我们可能就像你今早从睡梦中醒来时所经历的第一丝自我意识,预示着当你睁开眼睛完全醒来时,会有更多的自我意识。也许超级人工智能会使生命遍布整个宇宙,繁衍数十亿或数万亿年——也许这之所以能实现,是因为在这个星球上,在我们的有生之年,我们所做的那些决定。

又或者因为某些我们自己造成的灾难,人类可能很快就会灭绝。这些灾难是由于我们的技术力量增长太快,以至于我们没有足够的智慧去掌控它。



关于人工智能社会影响的争论


许多思想家把超级智能这个概念贬低为科幻小说,因为他们认为智能是一种神秘的东西,只能存在于生物有机体,尤其是人类中,他们还认为这种智能从根本上限制了今天的人类能做什么。但是,从我作为物理学家的角度来看,智能只是由四处移动的基本粒子所进行的某种信息处理,没有任何物理定律表明人类不能制造出在任何方面都比我们具有更高级智能的机器,这种机器能孕育宇宙生命。这表明,我们仅仅看到了智能的冰山一角,存在这么一种惊人的可能性:也许我们能释放出自然界中所蕴藏的全部智能,利用它来帮助人类繁荣发展,或挣扎求生。

其他人,包括本书中的一些作者,不赞成创造通用人工智能这种至少能够像人类一样完成任何认知任务的实体,不是因为他们认为这在物理学上不可行,而是因为他们认为人类很难在不到一个世纪的时间里完成此举。由于最近的科技突破,在专业的人工智能研究者中,这两种不赞成的观点都只有少数人支持。人们强烈希望在一个世纪内实现通用人工智能,预测中值显示我们只需几十年的时间便可实现。根据最近一项由文森特·米勒(Vincent  Müller)和尼克·波斯特洛姆对人工智能研究者所做的调查,结论是:

研究结果揭示了专家们的观点,超过50%的被调查者认为人工智能系统可能在2040—2050年达到总体人类能力,并且有90%的可能性在2075年实现。在达到人类能力之后,它将在2年(10%的被调查者认为)到30年(75%的被调查者认为)之后实现超级智能。(18)

从数十亿年的宇宙角度来看,究竟30年还是300年后实现通用人工智能几乎没什么区别,所以让我们把重点放在含义上,而不是时间上。

一开始,我们人类发现了如何用机器复制一些自然过程,制造出我们自己的热、光和机械马力。渐渐地,我们意识到自己的身体也是机器,神经细胞的发现模糊了身体与心灵之间的界限。最后,我们开始建造机器,它不仅能超越我们的肌肉,还能超越我们的大脑。在许多狭隘的认知任务领域,从记忆、算术到玩游戏,我们人类已经在机器面前黯然失色,而在更多的领域,从开车到投资再到医疗诊断,机器正在超越我们人类。如果人工智能团队成功地实现其创建通用人工智能的初始目标,那么,人类在所有认知任务中将完败于人工智能。

这引出许多显而易见的问题。例如,会有什么人或什么物控制通用人工智能控制地球?我们应该控制超级智能机器吗?如果答案是否定的,我们能确保它们理解、接受并保留人类价值观吗?正如诺伯特·维纳在《人有人的用处》一书中所说的:

如果我们让机器决定我们的行为,除非我们事先审查过它的行为规律,并充分知道它的行为将按照我们可接受的原则进行,否则我们就有祸了!另一方面,可以学习、可以根据其学习做出决定的机器,绝不会被迫做出人类本该做出的决定,也不会被迫做出人类可接受的决定。

谁是“我们”?谁来判定什么是“可接受的决定”?即使未来的力量决定帮助人类生存和繁荣,但如果做什么都不需要我们,那我们如何才能找到生活的意义和目的?

在过去几年,关于人工智能的社会影响的争论有了巨大的变化。2014年,很少有人公开谈论人工智能的风险,即便有,也往往被驳斥为卢德式的杞人忧天,原因在于两个逻辑上不相容的理由:

通用人工智能被过分夸大,至少在下个世纪并不会出现通用人工智能。

通用人工智能可能会出现得更早,但实际上它已被确保是有益的。

今天,关于人工智能的社会影响的讨论无处不在,关于人工智能安全和人工智能伦理的研究工作已经走进公司、大学和学术会议。人工智能安全研究的争议立场不再是提倡它,而是放弃它。2015年波多黎各人工智能会议(主题是帮助主流人工智能保持安全)的公开信只是含糊地谈到保持人工智能有益的重要性,而2017年阿西洛玛人工智能原则会议却具有真正的意义:会议明确地提到了递归式自我改进、超级人工智能和现存的风险。业界领袖和来自世界各地的1000多名人工智能研究人员均在公开信上签署了名字。

尽管如此,大多数讨论还只是限于狭义人工智能的短期影响,更广泛的团体对通用人工智能可能很快给地球上的生命带来的戏剧性变化关注有限。为什么会这样?