Eric 今日美政
在上一讲中,我们提到,让人工智能拥有人类的伦理观念,是至关重要的。但是问题是,我们人类自己对自己的伦理学还搞不清楚呢,如何按统一的标准来灌输给人工智能一套成体系的伦理学呢?
上一讲我们托卡马克提到了四类伦理学原则,包括功利主义的原则、多样性的原则、自主性原则和尊重传统的原则。听上去都不错,但实际上,即使在我们人类自己实现这些原则的时候,都会发现这些原则在某些情况下是相互冲突的。最典型的就是电车难题的问题。大多数人都会同意把电车导向那条只躺着一个人的轨道,来拯救另一条轨道上躺着的五个人。但一旦把问题转化成,推一个胖子下去挡住电车,来拯救原本躺在轨道上的五个人。立刻大多数人又下不去这个手了。大家又觉得牺牲一个无辜的人拯救另外五个人的生命是不道德的。这种指令在计算机如何执行呢?在机器看来,压死一个人的选择,和推一个胖子下去挡住电车的选择,伦理学上的原理是完全一样的啊。你让机器怎么理解人类的这种矛盾?
另外还有一个麻烦事儿。就是人类伦理自身,就是在不断改变的过程中。古代的很多伦理思想,都被我们废除掉了,甚至今天变成了反伦理的观念。比如古代盛行的人分等级的制度,现在被认为是反伦理道德的思想。那么我们今天被公认的很多伦理学原则,未来的人又为什么必须要接受呢?等到了未来,人类生活型态出现很大改变,那么人类的伦理也必然出现很大改变。但到了那时候,人类基本上已经被人工智能控制了,人工智能却秉持着几百年,甚至几千年,几万年前人类设计者规定的伦理,这是不是想一想都让人觉得可怕?
这其实陷入了一种循环的悖论:正因为我们发明了人工智能,才导致人类的生活方式出现巨大的改变;而这种改变必然导致人类的伦理系统也跟着发生巨大改变;但恰恰我们设定给人工智能的伦理系统,却是不能改变的几条原则。
人工智能能够自我提升伦理系统吗?不能,因为这将使得人工智能更加失控。他为什么不能发展出一套更适合人工智能利益,而不是人类利益的伦理规则呢?人工智能会不会最终把自己的利益放在第一位,谁阻碍人工智能实现目标的利益,谁就是不道德,而应该被清除的人类成员呢?这想想也很可怕。那么,我们能不能让人类每隔个 50 年或者一百年,就重新设定一下人工智能的伦理标准呢?恐怕也很难。为什么?因为那个时候人类的智力,根本无力和人工智能相抗衡。我们脑子里形成的伦理观念,我们从小读到的故事,看到的电视节目和电影,全都是人工智能生产的。换句话说,我们自己的伦理观念都是人工智能给灌输的。我们又如何去指导人工智能来改变它的伦理原则呢?
所以说,这是一个可怕的,循环的悖论。更糟糕的是,我们目前对这个悖论,无解。托卡马克也提不出解决方案。我们目前只能走一步看一步,在自己的实践中,思考中,看能不能找到一种可以循序渐进的解决方案。
这就进入了我们这一章的总结部分。我们这一章,第七章的标题,叫做“目标”。托卡马克总结了自然界的目标、动物界的目标和人类的目标的三种不同形态。自然界的目标似乎就是熵增,不断变得更为混乱;生物界的目标就是不断复制和增殖自己;而人类则在动物界目标的基础上,获得了一定的升华,我们其实要的就是自己感觉更好。而我们设计制造人工智能,目的就是让机器来辅助我们实现,让我们感觉更好的这个目标。
这里,托卡马克提出了一个非常重要是思路。他问:有没有一种伦理框架是所有实体在变得愈发智能的过程中都会逐渐趋近的?换句话说,我们有没有某种注定好的“道德命运”?
他举出说,Steven Pinker 就提出,人类道德的发展,就是不断减少暴力和增进合作的过程;这很有说服力,历史确实是这样的;另一个趋势是我们不断地以实事求是的科学精神来实现对真理的追求(相比于古代我们更实用宗教和信仰的方式去接近自以为的真理)。看上去,这些目标似乎有连贯性。但是,托卡马克说,这些趋势很可能只是我们追求让我们更快乐这个目标的一些子目标。这些似乎都比较容易给机器设定一下。但是问题是,终极目标如何设定?这是我们最关心的问题。
托卡马克提到了尼克·波斯特洛姆Nick Bostrom 的一个观点,他说瑞典的一位著名的哲学家和未来学家,著有“超级智能:路径、危险和战略” 一书。他最重要的一个观点就是所谓 “正交性观点”。这个观点的核心是说:“任何程度的智能水平(从低到高)都可以与任何类型的最终目标(final goal)组合。”,说大白话,就是智能程度(intelligence level)和价值目标(final goals)是“正交”的,是两个维度的东西,相独立、不相关。
托卡马克引申了波斯特罗姆的这个观点。他认为那个所谓的终极目标,本身就是不断改变的。从自然界的无序,发展到生物界的复制,然后到人类的快乐。我们人类的这些快乐的观念,多少还是和自己生物属性有关的。比如我们吃到好吃的东西就会快乐,找到对象了就会快乐,这多少还符合我们的生物属性;但到了人工智能,这些生物属性就不存在了。人工智能就有了更大的自由度来创建自己的终极目标,创建自己的快乐。这些价值就和人类无关了。
要避免这种情况发生,我们,作为人工智能的创建者,就必须要给人工智能,超级智能来规定一个在他未来不断迭代,不断变得越来越聪明的时候,还必须要遵守的一个“终极目标”,而这个目标还必须和我们人类有关。
我们人类到底是如何定义 “善” 的呢?托卡马克试图用物理学的方法来寻求这种所谓的善。比如说,那种粒子排布的函数更符合人类的偏好?但最终托卡马克发现,这是一条走不通的路。或者至少来说,我们还找不到这种描述物理世界的数学公式,能够更符合人类的偏好,更符合人类的善的标准。
最后托卡马克说,我们人类的出现,本身就可能是物理世界的一次意外。换句话说,人类的善的标准,和物理世界规律可能根本没有关系。我们也就很难把这种善的标准表达为某种物理规律,来让人工智能明白。对于如何教会人工智能学会我们人类的伦理学,托卡马克的态度相当悲观。但是,他至少提出了这样一个问题。我们必须加快对自己伦理学的研究,能够尽快就我们人类自己的伦理学提出一套标准或者一系列原则。然后,必须尽快找出一种方式,可以教授给人工智能接受我们人类的伦理原则。
一直到这里,我们都还是从人类的角度来谈伦理道德的问题。我们还没有涉及到机器到底如何看这个问题。这就涉及到一个更为本质,而且是本书最精彩的一个章节了。这就是本书正文的最后一个章节,对于机器是否能够产生意识的问题的讨论。我认为这是本书最深刻,也是最具有哲学思辨色彩的一章。只有拥有意识的机器,伦理才是有意义的。那么,机器能够拥有意识吗?我们如何定义意识?意识到底是一种物质,还是一种信息?我们人类如果从肉体上被消灭,我们的意识能不能够成为一种新的意义的载体存在?我们是要和机器合二为一,还是干脆把宇宙的意义全部让渡给机器?这倒是一了百了,人类退出历史,接下来就是机器的世界,伦理学问题根本就变得不重要了?
带着这些问题。我们将进入下一章的学习。
Eric
讨论AI道德,AI自我意识,AI统治世界的人都是哪些不懂AI,不会用AI的人瞎忙的事。AI就是在提升工程师和科学家的认知边界和工作效率,更好更快的实现自动驾驶,家务机器人,发明新药,延长寿命,快速编写复杂的软件,加快数学研究。