万书网 > 心理哲学 > AI的25种可能 > 人工愚蠢

人工愚蠢




希托·史德耶尔(Hito  Steyerl),一位创作纪录片和实验电影的艺术家,她认为当我们思考人工智能对社会的影响时,有两点我们应该牢牢记住。首先,她说,人们常常高估了所谓的人工智能,而且“智能”这个名词具有误导性;为了准确表达这一点,她使用了“人工愚蠢”这个词。其次,她指出程序员现在正在通过图像使不可见的软件算法清晰可见,但是为了更好地理解和解释这些图像,我们应该使用艺术家的专业知识。

史德耶尔使用计算机技术多年,她最近的作品探索了监控技术、机器人和一些计算机游戏,如关于数字图像技术的How  Not  to  Be  Seen(2013年)和在保持平衡的艰难任务中训练机器人的HellYeahWeFuckDie(2017年)。但为了解释她的“人工愚蠢”概念,史德耶尔提到了一个更普遍的现象,如现在广泛使用的推特机器人,在我们的谈话中她指出:

利用推特上的大量推手来左右民意、改变流行观点过去是,现在仍然是选举中的一个常用工具。这是一个非常非常低级的人工智能。它只有两到三行指令,一点儿也不复杂。然而,这种我称之为人工愚蠢的东西所带来的社会影响,却对全球政治意义重大。

众所周知,这种技术在2016年美国总统大选前以及英国脱欧公投前不久的许多自动推特帖子中均出现过。如果像这些机器人一样的低级人工智能技术已经影响到我们的政治,另一个紧迫的问题就出现了:“未来更先进的技术究竟会有多强大?”



看得见的/看不见的


艺术家保罗·克利(Paul  Klee)经常说艺术“使不可见的可见”。在计算机技术中,大多数算法在后台工作,我们看不见;在日常使用的系统中,我们仍无法接触到它们。但是最近在机器学习中出现了有趣的可视性回归。人工智能的深度学习算法处理数据的方式已经通过谷歌的DeepStream等应用程序得以展现,在该应用程序中,计算机模式识别过程实时可视。这个应用程序演示了深度学习算法如何尝试将动物形态与任何给定输入匹配。还有许多其他的人工智能可视化程序,都以它们各自的方式“使不可见的可见”。在史德耶尔看来,公众对这些图像的普遍感知困难在于,他们不加批判地将这些视觉模式视为机器过程的现实和客观表述。谈到这种可视化的美学,她说:

对我来说,这说明科学已经成为艺术史的一个分支。……现在很多抽象的电脑模式,看起来就像是保罗·克利或者马克·罗斯科(Mark  Rothko)的画作,或者艺术史上其他抽象大师的作品。它们之间唯一的区别,在我看来,就是当前的科学思想把这些电脑模式看成现实表现,几乎就像纪录片图像一样,而在艺术史上,对不同类型的抽象的理解是非常细微的。

她所寻求的是深刻理解计算机生成的图像以及生成图像所使用的不同美学形式。显然这不是以追求某种美学传统为明确目标的。在与史德耶尔的对话中,计算机工程师迈克·泰卡(Mike  Tyka)解释了这些图像的功能:

我们想要了解黑盒子里的秘密,正是这种需求启发了深度学习系统,尤其是视觉系统。这些系统的目标是将这些过程投射回现实世界。

然而,这些图像具有美学意义和价值,必须加以考虑。可以说,虽然程序员使用这些图像来帮助我们更好地理解程序的算法,但我们需要艺术家的知识来更好地理解人工智能的美学形式。正如史德耶尔所指出的,这种可视化通常被理解为对过程的“真实”再现,但是我们应该注意,必须批判性、分析性地看待它们各自的美学及内涵。

2017年,艺术家特雷弗·帕格伦(Trevor  Paglen)创建了《视觉机器》(Sight  Machine)项目,使这些不可见的人工智能算法可见。在这个项目中,他拍摄了克洛诺斯四重奏的实况表演,并用各种计算机软件程序处理这些图像。这些软件程序包括人脸检测、目标识别,甚至导弹制导程序。他将这些算法的结果实时地投射到舞台上方的屏幕上。通过演示不同的程序如何诠释音乐家的表演,帕格伦表明,人工智能算法总是取决于价值和兴趣集,并会显现和重复这些价值和兴趣集,因此我们必须批判性地质疑它们。算法和音乐之间的明显对比也提出了一个问题,也就是技术与人类感知之间的关系。