万书网 > 心理哲学 > AI的25种可能 > 阿莱克斯·彭特兰

阿莱克斯·彭特兰



Alex  "Sandy"  Pentland

阿莱克斯·彭特兰是麻省理工学院东芝讲席教授、媒体艺术与科学教授、人类动力学与连接科学实验室和媒体实验室创业计划主任,著有《智慧社会》(Social  Physics)一书。

注:阿莱克斯·彭特兰的著作《智慧社会》中文简体字版已由湛庐文化策划,浙江人民出版社出版。——编者注



布罗克曼谈阿莱克斯·彭特兰

阿莱克斯·彭特兰倡导了他所谓的“社会物理学”,他对建立强大的人类-人工智能生态学很感兴趣。同时,他也对决策系统的潜在危险充满担忧,在这种决策系统中,数据实际上占据了主导地位,而人类的创造力则被置于次要地位。

他认为,大数据的出现给了我们重铸文明的机会:“我们现在可以真正开始研究社会互动的细节以及它们如何发挥作用,我们不再局限于市场指数或选举结果等平均值。这是一个惊人的变化。能够看到市场和政治革命的细节,能够预测并控制它们,这种能力就像是普罗米修斯之火,它可以给我们带来光明,也可以给我们带来灾难。大数据将我们带入了一个有趣的时代。”

在康涅狄格州华盛顿举行的小组会议上,他承认读到诺伯特·维纳的反馈思想时“感觉就像在浏览我自己的想法”。

“在维纳之后,人们发现或关注这样一个事实,也就是确实存在无法预测的混沌系统,”他说,“但如果你看看人类社会经济系统,就会发现有很大比例的差异是可以解释和预测的。……今天我们的数据来自各种数字设备和我们所有的交易。数据化的事实意味着在人类生活的大部分方面,甚至几乎是各个方面,你都可以实时衡量事物。拥有有趣的计算机和机器学习技术,就意味着你可以用以前从未尝试的方法来建立人类系统的预测模型。”



在过去的半个世纪里,关于人工智能和智能机器人的思想主导了人类与计算机之间的关系。部分原因是讲述人工智能和机器人的故事很容易,部分原因是计算机早期的成功(38)和大量的军事资助。早期广泛的控制论把人类当作较大的反馈和相互影响系统的一部分,这种控制论现在慢慢从公众意识中消失了。

然而,在接下来的几年里,控制论的愿景慢慢成长,悄悄过渡,到了现在这个“空中”阶段。现在大多数工程学科的最新研究均以由能量流动驱动的动态反馈系统为框架。甚至人工智能正在被重铸为人-机“顾问”系统,而军方也开始大规模资助该领域的研究——这或许比无人机和独立的人形机器人更让我们担忧。

但是,随着科学和工程学的立场角度更像控制论,很显然,即使是控制论的愿景也太小了。控制论最初是以个体的嵌入性为中心,而不是以个体组成的网络的涌现性为中心。这不足为奇,因为网络数学直到最近才出现,所以之前不可能对网络行为进行定量研究。现在我们知道,除了在某些特定的简单案例中之外,对个体的研究无助于理解整个系统。人们认为“混沌”以及后来的“复杂性”是系统的典型行为,这种理解预示了该领域的最新进展,但现在我们已经远远超越这些统计理解。

我们开始能够分析、预测甚至设计复杂异构网络的涌现行为。现在,关联个体的控制论观点已扩展到包含关联个体和机器的复杂系统,我们从这个更广泛的观点中获得的见解与从控制论观点中获得的见解有根本不同。对网络的思考类似于对整个生态系统的思考。你将如何引导生态系统朝着一个好的方向发展?“好的方向”是什么意思?这样的问题超出了传统控制论思维范畴。

也许最令人震惊的是人类已经开始使用人工智能和机器学习来指导整个生态系统,包括人类的生态系统,从而创造人类-人工智能生态系统。现在,一切都变得“数据化”,我们可以测量人类生活的大部分方面,慢慢地,便可以测量生活的所有方面。这一点,再加上新的、强大的机器学习技术,意味着我们可以用以往做不到的方式来建立这些生态系统的模型。众所周知的例子是天气和交通预测模型,这些模型可以扩展到预测全球气候、规划城市增长和更新。我们现在已经有了人工智能辅助的生态学工程。

对于像我们这样的社会物种来说,人类-人工智能生态系统的发展也许是不可避免的。数百万年前,早在人类进化的早期,我们就开始社交。为了生存,为了增强体质,我们开始互相交流信息。为了分享抽象复杂的思想,人类学会了写作。最近为了加强我们的沟通能力,我们又开发了计算机。现在我们正在开发生态系统的人工智能和机器学习模型,分享这些模型的预测,通过新的法律和国际协议,共同塑造我们的世界。

我们生活在一个史无前例的历史时刻,可用的大量人类行为数据和机器学习的进步使我们能够通过算法决策来解决复杂的社会问题。很显然,通过更公平、更透明的决策,这种人类-人工智能生态有机会发挥积极的社会影响。但是,我们也会面临“算法专制”的风险,“算法专制”指未经选举的数据专家管理世界。我们现在做出的选择也许比20世纪50年代人工智能和控制论诞生之时我们所面临的那些选择更加重要。这些问题看起来很相似,但事实并非如此。我们已经沿着这条路走了这么多年,现在研究的范畴更广大。它不仅仅是人工智能机器人与人类个体的较量。它是人工智能对整个生态系统的指导。

◆◆◆

我们怎样才能创造一个良好的人类-人工生态系统,一个不是机器社会,而是一个机器和人都能像人一样生活在其中的网络文明,一个具有人类感受的文明?我们不想小心谨慎,只谈论机器人和自动驾驶汽车。我们想谈谈全球生态系统。想谈谈天网这样的问题。但是,如何才能让天网成为与人类结构有关的东西呢?

首先要问的问题是:使当前的人工智能运作的是什么魔法?哪里犯了错,哪里做得对?

这个好魔法要有一个叫作信度分配函数的功能。你所能做的就是利用“愚蠢的神经元”,即微小的线性函数,在一个大的网络中找出哪些神经元在工作,然后加强这些神经元。这种方法是将一组随机的交换机连接在一个网络中,通过给它们有关哪些工作哪些不工作的反馈,使它们变得智能。这听起来很简单,但其中涉及一些复杂的数学问题。这就是使当前人工智能运作的魔法。

不好的一点是,因为这些小神经元很愚蠢,所以它们学到的东西不具有普遍性。如果一个人工智能看到了它以前没有看到的东西,或者世界发生了一些变化,那么这个人工智能很可能会犯下一个可怕的错误。它绝对没有上下文的概念。在某种程度上,这种人工智能并非是诺伯特·维纳最初的控制论观点,因为它不会联系背景;它只是一个小白痴学者。

但是想象一下,你把这些限制搬走:想象一下,你使用的不是哑神经元,而是嵌入了真实世界知识的神经元。也许这些神经元不是线性神经元,而是在物理中起作用的神经元,然后你试图让它去适应物理数据。或者你可能输入大量有关人类以及人类如何相互作用的信息,也就是人类的统计数据和特征。

当你添加这些背景知识,再加上一个好的信度分配函数时,你就可以获取观测数据,再使用信度分配函数来加强那些带来良好答案的功能。其结果是一个能非常完美工作的人工智能会进行归纳总结。例如,在解决物理问题时,通常只需要几个噪声数据点就可以得到对一个现象的完美描述,因为你正在输入的是关于物理如何工作的知识。这与普通人工智能形成巨大反差,普通人工智能需要数百万个训练示例,而且对噪声非常敏感。通过添加适当的背景知识,人工智能便可获得更多的智能。

与物理系统的情况类似,如果我们让神经元了解很多关于人类如何相互学习的知识,那么我们就可以非常准确有效地检测人类时尚,预测人类的行为趋势。这种“社会物理学”之所以起作用,是因为人类的行为既取决于文化的模式,也取决于理性的个人思考。这些模式可以用数学方法描述并用于做出准确的预测。

信度分配函数的概念加强了神经元之间的联系,这是目前人工智能的核心。如果你让那些小神经元变得更聪明,人工智能就会变得更聪明。那么,如果我们用人代替神经元会发生什么呢?人类有很多能力。他们对这个世界了解很多,他们能够以一种充分的、人性化的方式感知事物。如果你有一个由人组成的网络,你可以加强那些对你有帮助的联系,减少那些无益的联系,那么会发生什么?

这开始听起来像是一个社会或一个公司。我们都生活在人类的社交网络中:因做了似乎对每个人都有帮助的事情而得到鼓励,也因做了不被欣赏的事情而灰心丧气。这种人类人工智能应用于人类问题就产生了文化。强化人与人之间有益的联系、惩罚无益的联系也正是构建社会结构的过程。一旦你意识到你可以使用这个通用的人工智能框架,创建一个人类人工智能,问题就变成了:怎样做才是正确的?这个主意安全吗?这个想法疯了吗?

我和我的学生们正在研究人类是如何做出决策的,我们庞大的数据库中包括金融决策、商业决策和许多其他决策。我们发现,通常人类做出决策的方式与人工智能信度分配算法相似,这种方法可以使社群变得更智能。这项研究工作有一个特别有趣的特点,那就是它解决了进化中的一个经典问题,也就是群体选择问题。这个问题的核心是:在进化过程中,考虑到繁殖靠的是个体,那么我们如何选择文化?你需要的是选择最好的文化和最好的群体,同时也选择最好的个体,因为它们是传递基因的单位。

当你这样思考这个问题并阅读数学文献时,你会发现有一种通常来说最好的方法可以做到这一点。它被称为“分布式汤普森抽样”,这是一种数学算法,用于从一组可能的具有未知回报的行为中选择可以使预期回报最大化的行为。这其中的关键是社会抽样,社会抽样是一种将证据结合使用的方法,可以同时进行探索和开发。它具有不寻常的特性,对个人和团体来说都是最佳策略。如果你把这个群体作为选择基础,然后要么消灭这个群体要么使之强化,那么你同时也选择了成功的个体。如果你选择的基础是个体,每个个体都做对他或她有益的事情,那么这对团队来说无疑也是最好的事情。利益与效用的结合让我们对于文化如何适应自然选择这个问题有了真正的洞察力。

社会抽样,非常简单,就是环顾四周,观察那些像你一样的人们的行为,找到大家的喜好,如果你觉得不错,那么你也这么做。思想传播具有这种驱动社会抽样的大众化功能,但个体的接受则在于需要了解这种思想如何对个体起作用,这是一种反思的态度。当你把社会抽样和个人判断结合起来,就会得到更好的决策。这太不可思议了,因为现在我们有了一个数学公式,可以用人工智能技术处理计算机神经元的方式来处理人类问题。考虑到经验越来越多,这种方法可以把人们聚在一起以做出更好的决定。

那么,在现实世界是怎样的呢?我们为什么不一直这样做呢?嗯,人们很擅长这件事,但也有一些方法可以让它疯狂。其中一个办法就是广告、宣传或“假新闻”。有很多方法可以让人们以为某个东西很受欢迎,但其实不然,这就破坏了社会抽样的效用性。只有当你得到的反馈是真实的时候,你才能使人类群体变得更聪明,使人类-人工智能更智能。这必须以每个人的行为是否对他们有用为基础。

这也是人工智能机制的关键。它们所做的就是分析它们的表现是否正确。如果是,加一;如果不是,减一。我们需要真实的反馈来使这个人类机制运作良好,需要有好办法来了解其他人在做什么,以便我们能够正确评估受欢迎程度,以及这个选择正确与否的可能性。

下一步是为人类建立这个信度分配函数,有了这个反馈功能,我们就可以建立一个良好的人类人工生态系统,也就是一个智能组织和一种智能文化。在某种程度上,我们需要复制一些早期的观点,比如美国人口普查就是因这样的观点而产生的。美国人口普查试图找到每个人都能认同和理解的基本事实,以便知识和文化能够真实地传播,同时社会抽样也更真实有效。

我们可以解决在许多不同的情景中建立准确的信度分配函数的问题。例如,在公司中,可以使用数字身份证来显示谁与谁有联系,这样我们就可以每天或每周评估与公司结果相关的联系模式。信度分配函数关心的是这些联系是对解决问题有帮助,还是会带来新的解决方案,然后信度分配函数会强化有用的联系。当你定量地得到反馈时(这很困难,因为大多数事情是不能定量测量的),组织内的生产力和创新率都可以得到显著的提高。例如,丰田“持续改进”的方法就以此为基础。

接下来尝试在更大规模上做同样的事情,我称之为建立数据信任网络。你可以把它看成一个像互联网一样的分布式系统,但是它能定量测量,能传递人类社会特质,就像美国人口普查能告诉我们人口数量和预期寿命一样。根据联合国可持续发展目标中规定的数据和衡量标准,我们已经在几个国家大规模部署了信任网络的原型。

展望未来,我们将如何通过构建人类-人工智能使人类更加智能化呢?这样的未来包括两个方向。一个是我们可以信任的数据,这些数据已经被广泛的社群审查过,这些数据的算法是已知的和可以监控的,就像我们完全信赖人口普查数据一样,至少我们相信它们是近似正确的。另一个是公正地以数据为导向对公共规范、政策和政府进行评估,这要基于描述当前情况的可信数据。第二个方向依赖于可信数据的可用性,因此才刚刚开始开发。可信的数据加上对规范、政策和政府的以数据为导向的评估,共同创造出一个信度分配函数,它可以提高社会的整体健康度和智能化。

在创建更大的社会智能的时候,假新闻、宣传和广告都会阻碍这一进程。幸运的是,信任网络给了我们一条前进的道路,让我们能够建设一个更能抵抗回声室效应、一时狂热以及疯狂行为的社会。我们已经开始开发一种建立社会测量的新方法,以帮助治愈在社会中看到的一些疾病。我们使用的是来自所有信息源的开放数据,鼓励人们在一个精心设计的数学框架中对所选择的事物进行公平的描述,这种数学框架可以消除回声,消除那些试图操纵我们的企图。