Eric 今日美政
在上一节中,我介绍托克马克对人工智能在计算机领域中的应用,以及这些应用可能带来的安全担忧。托克马克在这一章中,主要是阐述人工智能对计算机科学、法学、军事和经济的影响。我们接下来,就开始讲人工智能对法学的影响。
如果我们谈的是广义的法律,那么从人类一开始有社会,甚至猴子的社会中,都是存在法律的。猴群中就有明确的一些行为禁忌,每一个猴子都必须遵守,否则就会受到猴群社会的惩罚。人类部落社会,甚至一个家庭中,也有调节成员关系的一些大家默认的法则。当要进行合作的人群越来越大的时候,需要调节的利益越来越多的时候,法律就诞生了。而随着生活关系,生产关系,商贸关系,国际合作等等方面越来越复杂,法律就变得极其复杂。到今天,我们普通人谁都不可能完全理解法律条文。处理法律,成了专业人士的事儿。这就是为什么成为律师的要求标准越来越高,法官的要求标准则更高的原因。
但是,我们在说的法律,本质上不就是一些基于一些简单的基本利益,基于一些基本逻辑的命令行吗?如果单从这一点来看,处理法律纠纷,简直就是为人工智能量身定做的一件工作啊。
人类在执行法律的时候,还可能有偏见,还可能受自己情绪的影响。托克马克在书中举了个例子,法官在肚子饿(用餐时间之前)的判决,统计上来看,就会比用餐后更加严厉。每个具体案例可能不同,但统计数据不会说谎。因此法官的判决也会受自己身体内环境的影响,会受自己情绪的影响。但我们不是都希望有一个公正的判决吗?那么机器,人工智能来担任法官,是不是一个更好的选择呢?
人工智能情绪非常稳定,而且能够处理的资料和信息的量,也不是人类可以比拟的。人工智能可以使用之前几百年的判例,来寻找人类判决相似案件的规律,然后按照这种规律,加入现实中新的变量,来考虑更公正,更符合法律规定的判决。更不要说,人工智能处理案件的效率,恐怕要比人类高出上万倍,甚至几十万倍。
看上去是一个不错的解决方案。但是,这里遇到了一个巨大的问题,甚至是我们可能无法翻越的问题,这就是伦理问题。
有一个问题托卡马克是在这一小节的后半段讲的,我把它提前到这里来讲,我觉得这样的安排可能更有利于我们理解我们人类自己,是如何的自大,而这种自大,是阻碍人工智能更深地进入我们的生活的主要障碍。
托卡马克提到,每年在美国因交通事故而丧生的人数,是 32 万人左右。假如人工智能汽车可以把交通事故死亡率降低一半,每年 16 万人,你猜会发生什么?少死了 16 万人,但汽车厂商不会收到 16 万封感谢信,而是会收到 16 万起官司的起诉书。看上去似乎匪夷所思,但这就是人类,人类的伦理上基于人类情感的。我们从情感上,就是可以接受我们自己开车犯错误撞死人,但不能接受机器控制下的汽车撞死人。
同样的例子我们也可以用在司法上。我们可以接受人类的法官对我们自身行为的裁决。我们能接受人工智能通过计算,来对我们进行裁决吗?
你可能会说,人工智能的程序不也是人自己设计的吗?说到底还是人在自己裁决自己啊。不对,这可能是一个对人工智能很大的误解。传统的计算机程序,确实是人类程序员设计的。但最新的基于神经网络深度学习的人工智能,计算机内部的程序逻辑,其实是我们人类不知道的。传统计算机程序本质上就是一台机器,你设计它做什么,它就做什么,所以传统计算机程序达到的是设计人自己的目的;但人工智能不同,人工智能更像一个“人”。或者更准确地说,更像人类培养的一个孩子。我们可以教会他做很多事情,甚至可以给他设置很多规矩,但具体他如何做选择,他内部的行为逻辑是什么样的,我们会越来越失去线索。换句话说,我们其实不知道人工智能是如何做出决策的,越往后发展,越是这样。从这个意义上来说,我们可以说人工智能是拥有自己的 “人格” 的。如果我们让人工智能来做法官,做判决,那么我们实际上就是把人类的公平裁决,让给了一个非人类的 “人格” 来裁判。如果我们明白这一点,还有多少人同意让人工智能来做我们的法官呢?
另外,还有信息隐私问题。隐私越不被保护,人工智能能够获得的信息就越多,就越可能做出公平裁决;但隐私如果不被保护,我们会不会有一种奥威尔 1984 里提到的那种 “电眼随时在监视你” 的感觉呢?
再讲深一层。我们所要的公平,真的是公平吗?还是说,还有其他隐性的标准?更糟糕的是,这些隐性标准,在人类社会是不能被说出来的。举个现实的例子来说。按照公平原则,学习好的,各方面发展都优秀的孩子,就是应该被更好的大学接受,对吧?但问题是,社会又需要考虑种族多元性的问题。华裔和犹太人的孩子学习很好,但即使华裔家长和犹太人家长,都恐怕不愿意看到好大学里全部都是华裔孩子或者犹太人的孩子。这会带来更大的社会问题。我们修改一下人工智能裁决的程序,让人工智能也考虑一下种族问题,可以吗?在目前的法律框架下,这又是不行的。因为种族多元化只能在一种大家都不说破的情况下实现。对弱势种群的优待,本身就是一种种族主义,一种逆向的种族主义,但种族主义是不能直接拿来用的,不能说破的。不能说破,不能明文表达的东西,人工智能能理解吗?我们的大学做录取裁决的时候,我们可以用各种理由来掩饰我们真实达到的目标。但是,人工智能如果也学着人类的样子来做这种掩饰,我们能相信吗?别忘了,我们不会因为自动驾驶导致车祸率下降,而承认自动驾驶的安全性的。
托克马克还举了一个例子。美国有些地方开始试验用人工智能来判断被假释的犯人再次犯罪的概率有多大,因此来决定是否假释他们。但一段时间之后,人们发现,因为黑人的犯罪率更高,人工智能通过学习,“合理” 地降低了对黑人罪犯的假释率。结果这导致很多人批评人工智能有种族歧视。我估计这时候的人工智能可能是一头雾水。你们不就是要我判断假释的人犯罪概率吗?我根据事实,判断了,结果你们说我种族歧视?窦娥都没有我冤枉啊。
托克马克在这个小节中没有讲上面那么多,这里多半是我自己的思考。但我觉得这是一个非常复杂,非常难以解决的问题。我们如何来绕开这样一个伦理问题呢?伦理问题有一个特点,就是如果能有立竿见影的好处,那么伦理问题是容易被突破的。比如生物技术上的长生不老返老还童,甚至人体自身的基因改造,我相信这些方面的伦理问题是比较容易解决的。但是社会公平这种问题,几乎很难找到一个能说服人的,甚至是立竿见影的优劣。这个方面的伦理问题,可能就不太好突破了。
接下来托克马克还提到,在法律方面,更会存在计算机安全方面的问题。一旦计算机被黑客入侵,人工智能可能做出错误判决,把一个无辜者关入牢房,这可不是闹着玩的。还有,人工智能如果可以参与裁决,那么能不能直接参与立法呢?这又是一个重大的挑战。托克马克之后还会提到这个问题,这里就不多说了。
最后,托克马克在这一节中还提到,立法监管人工智能,是需要立刻被提上议程的。这里,马斯克的一句话说得非常好,他说,“当下我们需要政府做的,不是监管,而是洞察。” 政府中需要有真正懂人工智能的立法者和行政人员。我们前面提到的自动汽车驾驶的问题。政府应该尽快颁布对人工智能汽车驾驶中出现的问题,甚至事故的裁决标准。需要公布不同品牌不同设计的自动驾驶,出事故的比例有多高。高事故比例的自动驾驶,保险费就会因此上升,反过来倒逼汽车厂商做出更为谨慎的安全设计。
人工智能在法律方面的运用,很可能是一种渐进的模式,会有越来越多的尝试,正如我们之前尝试让人工智能来判断犯人假释的问题一样。人工智能可能会开始参与一些经济案件,一些民事案件。我们可以在这些尝试中,逐步解决人工智能是否能当法官,甚至立法者的问题。
托克马克在这里开始了脑洞模式。他说,如果人工智能都开始拥有自己的保险了,那么他们是否也可以为我们理财呢?这就是说,人工智能就会开始拥有自己管理的财产了。如果他们开始有财产,那么他们是否能拥有选票呢?这些听起来有点天方夜谭。但我们仔细想一想,我们的经济,甚至政治,都离不开一种东西,叫 “公司”,而公司本身,已经不是人类实体了。公司比任何一个员工都强大,公司拥有自己的生命。但是,很奇怪的,我们都接受了公司对社会的影响。
今天这个话题,在托克马克的书中,所占篇幅并不长,我加入了大量自己的思考。不可否认的是,人工智能真是一个非常迷人的话题。这是因为人工智能将会给我们带来一个全新的世界,一种全新的人类组织架构。这里面,我们需要思考的问题,太多了。
Eric
之前看《流浪地球2》有一个情节,AI给男主提出了一个生活选择上的建议,这个建议对男主来说是最优解,但是男主暴怒了,因为AI忽略了感情因素,这个建议对一个人来说太冷酷。
我觉得AI在未来的发展方向是作为一个工具为人类服务,人类不会接受AI为自己“做主”,做那些重大决定(规划旅游路线什么的小事除外),作为一个人类让一个另一个物种来给自己做重大决定,生理和心里都接受不了。AI能给人类做的决定,会是来自另一群人类的强制安排,比如政府出新规,某种程度的民事案件就完全交给AI了,作为老百姓只能被迫接受AI给你做主。
最后聊几句我最近在AI方面的体验,最近在学着玩Unreal 5引擎,搜索了一下目前和这个引擎可以配套的AI软件,发现了个强大的骨骼动画制作软件,Cascadeur,有手行……我时常老觉得,AI作为一个工具来说,它最可怕的是把人与人之间的技巧瓶颈瞬间抹平,以骨骼动画来说,一个人需要很多年学习和经营积累才能获得这个技巧,在Cascadeur面前变得一文不值,一个有好技术的动画师月薪要2万多人民币(可能还不止),但Cascadeur包年只要99美元……
目前我们是受不了的。但慢慢地,我们可能会发现,AI 为我们做的决定,比我们自己的直觉判断更靠谱,我们会不会慢慢就接受了呢?您提到的在就业方面 AI 对我们的挑战,托克马克很快就要讲到了,敬请期待。