万书网 > 心理哲学 > AI的25种可能 > 乔治·丘奇

乔治·丘奇



George  M.  Church

乔治·丘奇是哈佛医学院罗伯特·温思罗普遗传学讲席教授,哈佛大学-麻省理工学院健康科学技术教授,与艾德·里吉西(Ed  Regis)合著有《再创世纪:合成生物学将如何重新创造自然和我们人类》(Regenesis:How  Synthetic  Biology  Will  Reinvent  Nature  and  Ourselves)一书。



布罗克曼谈乔治·丘奇

在过去的10年里,在新科学发现如何塑造我们的生活这一方面,基因工程已经赶上了计算机科学。基因工程师乔治·丘奇是读写生物学革命的先驱,是这一新思想领域的核心人物。他认为人体是一个操作系统,工程师取代了传统的生物学家,将有机体拆下的部件(从原子到器官)重新安装,就像在20世纪70年代末,电气工程师把电路板、硬盘驱动器和显示器等组装在一起,安装成第一台个人电脑。乔治创建了个人基因组项目,并担任该项目的负责人,该项目提供世界上唯一的关于人类基因组、环境和特征数据的开放信息,推动了DNA族谱业的发展。

美国前总统奥巴马2013年发起了“脑计划”(全称“推进创新神经技术脑研究计划”),乔治·丘奇在奠定该计划的基础方面发挥了重要作用。该计划旨在帮助改善人类大脑,使之大部分维持我们存在的功能不需要(有潜在危害的)人工智能的帮助就能实现。“这可能是因为一些‘脑计划’项目使我们能够建立更符合我们的道德规范、能够像人工智能一样完成高级任务的人脑。”乔治说,“迄今为止最安全的途径是让人类去完成那些他们想委托给机器的所有任务,但我们在这条超级安全的道路上走得并不坚定。”

最近,媒体在讲述CRISPR起源时,忽略了是乔治率先利用CRISPR酶(以及比CRISPR更好的方法)来编辑人类细胞基因。

对于通用人工智能的未来形式,乔治表示乐观,正如下面的文章所言。但同时,他也从未忽视人工智能的安全问题。关于这个问题,他最近发表评论说:“在我看来,人工智能的主要风险不在于我们是否能够从数学角度上理解它们的想法,而在于我们是否能够教给它们符合道德规范的行为。人类几乎不能教给彼此符合道德规范的行为。”



1950年,诺伯特·维纳的这本《人有人的用处》处于对未来的展望和猜想的最前沿,该书宣称:

像神灵这样的可以学习、可以根据其学习做出决定的机器,绝不会被迫做出人类本该做出的决定,也绝不会做出人类可接受的决定。……不管我们把决定权委托给金属机器,还是委托给那些血肉机器,不管这些机器是当局、大实验室、军队还是公司,……天色已晚,善与恶的选择已敲响了我们的大门。

但这是他的那本书的结尾,这个结尾让我们的心悬了近70年,这个结尾不仅没有给我们解决方案和禁令,甚至连一个清晰的“问题声明”都没有。从那时起,关于我们的机器会带来威胁这样的警告便层出不穷,甚至还通过电影,如《巨人:福宾计划》(Colossus:  The  Forbin  Project,1970年)、《终结者》(The  Terminator,1984年)、《黑客帝国》(The  Matrix,1999年)、《机械姬》(Ex  Machina,2015年),把这一危险警告传递给大众。但现在是时候用全新的观念对这一警告进行重大更新了,这个新观念主要集中在我们的“人权”和我们的生存需要上。

通常人们的关注点主要集中在机器人方面的“我们VS.他们”、纳米技术方面的“世界末日”或生物学方面的“克隆的单一培养”。按照当前的发展趋势可以推断:如果我们能制造或种植几乎任何东西,并能设计出符合我们需要的安全性和有效性,会怎么样呢?任何由原子排列而生的会思考的生物都可以获得任何技术。

或许,面对一种前所未有的心智多样性,我们应该减少对“我们VS.他们”的关注,而应更关注所有有意识者的权利。我们应该利用这种多样性来最小化威胁全球的生死风险,比如超级火山的爆发和小行星撞击地球。

但我们应该说“应该”吗?(免责声明:在这种情况下以及其他许多情况下,当一个技术专家描述了一条社会道路“可能”、“将要”或“应该”发生时,这并不一定等同于作者的偏好。它可以反映出警告、不确定性或独立评估。)机器人学家吉安马科·维卢乔(Gianmarco  Veruggio)和其他人自2002年以来便提出机器人伦理学问题。自2006年以来,英国工业贸易部以及兰德公司下属的未来研究所提出了机器人权利问题。



是VS.应该


人们常说科学应关注“是”,而不是“应该”。史蒂芬·杰伊·古尔德(Stephen  Jay  Gould)的“诺玛理论”认为,事实必须与价值观完全不同。同样,1999年美国国家科学院的《科学与创造论》(Science  and  Creationism)一书指出,“科学和宗教分属两个不同的领域”。我和进化生物学家理查德·道金斯(Richard  Dawkins)以及其他人都对这一划分提出批评。在“为了实现Y,我们应该做X”的框架下,我们可以讨论“应该”。那么Y应该是一个高优先级的目标,它不一定需要通过民主投票来设定,但可能要通过达尔文的进化论来设定。价值体系和宗教的兴衰、多样化、分化和融合,就像有生命的物种一样:服从选择,适者生存。最终的“价值”,或者说“应该”,是留下来的基因和模因。

很少有宗教说我们的肉体和精神世界之间没有联系。我们有记录在案的奇迹。教会教义与伽利略和达尔文之间的冲突最终得以解决。信仰和伦理在我们的物种中广泛存在,我们可以使用科学的方法,包括但不限于功能性磁共振成像、精神药物、问卷调查等对这种信仰和伦理进行研究。

实际上,我们必须要解决道德规范问题,这些规范应该内置在日益智能化和多样化的机器里,供这些机器学习或选择。我们有一系列的电车问题。在多少人排队等候死亡的情况下,计算机才应该决定将运动的电车撞到一个人身上?归根结底,这可能是一个深度学习的问题,在这个问题中,要把大量的事实和意外事件数据库考虑进来,其中一些似乎根本不符合现有的道德规范。

例如,计算机可能推断,如果不移动这个电车就不会死的那个人是一个被定罪的恐怖分子累犯,身上携带有会造成世界末日的病原体,或者他是现任美国总统,或者是一系列更为复杂的事件的一部分。如果这些问题描述中的一个似乎是自相矛盾或不合逻辑的,可能是电车问题的作者已经调整了天平两端的重量,使得犹豫不决不可避免地发生了。

或者,可以使用错误指示来操作系统,这样错误模式就不会引起关注。例如,在电车问题上,几年前当行人可以进入铁轨时,甚至在那之前,当我们投票决定把更多的钱花在娱乐上而不是公共安全上时,就已经做出了真正的道德决策。那些一开始听起来很怪异,很令人不安的问题,比如“谁拥有新的心智,谁为自己的错误买单”,就和规定谁拥有公司,谁为公司的罪行买单的完善法律一样。



顺滑的通道


我们可以通过声称某些情况不会发生来(过度)简化道德规范。技术挑战或不可跨越的警戒线都令人安心,但现实是,一旦利益似乎超过了风险,即使是短暂地稍稍超过一点儿,警戒线就会移动位置。就在1978年世界首例试管婴儿路易斯·布朗(Louise  Brown)诞生之前,许多人担心她“可能是个小怪物,在某些方面,可能是畸形”。但今天关于体外受精,很少有人有这种担心。

什么技术使多重感知变得更加容易?这不仅仅是用大型计算机执行深度机器学习算法。我们已经能让啮齿类动物在各种认知任务中表现得更好,还能表现出其他相关的特征,比如坚持以及低焦虑。这是否适用于那些智力接近于人类的动物?有一些动物在镜子试验中展示出自我识别能力,如黑猩猩、倭黑猩猩、猩猩、一些海豚、鲸鱼,以及喜鹊。

甚至那条人类操纵人类的警戒线也显示出位置移动或完全断裂的迹象。全世界有超过2300项经批准的基因治疗临床试验正在进行中。特别是在全球人口快速老龄化的背景下,其中的一个主要医学目标是治疗或预防认知能力下降。对认知能力下降的治疗方法包括通过药物、基因、细胞、移植、植入物等增强认知能力。这些治疗方法将用于未来的不时之需。体育竞赛规则,如禁止使用类固醇或促红细胞生成素,不适用于现实世界中的智力竞赛。对认知能力下降治疗的每一点进展都在发挥作用,为将来做好准备。

人类利用人类的另一个前沿领域是“大脑器官”。我们现在可以加速发展生物学。通常需要几个月时间才能发生的过程,现在在实验室通过使用正确的转录因子配方在4天内就能发生。我们能创造出这样的大脑,它具有越来越高的保真度,能分辨出生来具有认知能力异常的人,如小头畸形。现在,由于增加了早期成功中缺失的适当的血管系统(静脉、动脉和毛细血管),人工大脑器官超过了以前的亚微升限制,可能超过现在的1.2升现代人脑,甚至超过大象的5升大脑或抹香鲸的8升大脑。