“如果电影《终结者》里的情况真的发生了呢?”在无数的电影和科幻小说中,机器人(或人工智能)取代人类的例子屡见不鲜,这也潜移默化地塑造了人们对未来方向的认知。但是,有人会问
“如果电影《终结者》里的情况真的发生了呢?”在无数的电影和科幻小说中,机器人(或人工智能)取代人类的例子屡见不鲜,这也潜移默化地塑造了人们对未来方向的认知。
但是,有人会问,既然人类可以按照规律合作共存,为什么人工智能不能按照规则行事呢?就执行阿西莫夫的机器人三定律吧!
机器人三定律
艾萨克·阿西莫夫(Isaac asimov,1920-1992)不仅是生物化学教授,也被称为科幻小说“三巨头”之一。20世纪中期,他创立了“机器人三定律”,并假设严格遵守三定律可以从根本上杜绝机器人兵变。“机器人三定律”如下:
1.第一定律:机器人在目睹人类个体遭受危险时,不得伤害人类个体或袖手旁观。
2.第二定律:除非命令与第一定律相反,否则机器人必须服从人类给它的命令。
3.第三定律:机器人应该在不违反第一、第二定律的情况下,尽可能地保护自己。
但是熟悉编程的人都知道,计算机是从0开始计数,而不是从1开始计数(MATLAB除外,本文不讨论)。Computerphile提到了“第零定律”(保护的对象是指全人类,而不是个人):
第零定律:机器人必须保护人类的整体利益不受伤害。
这些规律看起来没多大区别,因为都是从小说《我,机器人》里整理出来的。
注意:这些定律没有区分“机器人”(机械体)和“人工智能”(机械脑)。因为阿西莫夫口中的“机器人”其实指的是“智能人形”。
既然人类在20世纪50年代就制定了这些规则,为什么我们仍然害怕AI?是什么让埃隆·马斯克和斯蒂芬·霍金把AI归为人类生存的头号威胁?总之,阿西莫夫的机器人三定律是行不通的。
三法的漏洞
回到正题,出于对阿西莫夫三大定律的忠实讨论和探讨,假设足够聪明到可以应用三大定律的机器人确实存在,并且可以将三大定律应用到现实世界中(虽然只是阿西莫夫叙述体系的定律),那么现在就有一个技术问题:如果三大定律用英文表达,这个AI机器人只能处理中文吗?退一步说,就算这个机器人是美国制造的,我们怎么知道它是不是真的懂三大定律?所以我们要做以下两件事:
1.翻译三定律;
2.尽可能使用不同的语言(穷尽所有语言,包括像拉丁语和机器二进制语言这样的死语言)来传达三大定律的话背后的意思。
对于人类来说,这两点密切相关;但是对于机器来说,这两者是很不一样的。第一点是用不同的目标语言创建相应的句子字符串,第二点涉及理解这些字符串。
比如只做前者就像让不懂西班牙语的人唱Despacito。他们可能发音准确,但根本不知道歌词的意思。光是后者就像知道为什么,却不知道怎么表达。心里有千沟万壑,总是无言以对。
幸运的是,近年来,自然语言处理(NLP)领域取得了显著进展。对于第一个任务,长期记忆神经元可以用于序列到序列的翻译。此外,谷歌在2019年5月发布了Translatotron,这是一个端到端的语音转换翻译模型。至于第二个任务,Word2Vec就够了。Word2Vec可以把相关的单词画在一起,获得句子的语义。绘制过程如下:
从单词中推导出意思和关系。
的确,现在机器可以理解人类语言。但是还有很多事情他们做不到,比如理解成语。Spillthe beans是英语中比喻性的习语,意思是“让猫从袋子里出来”。但是机器不能翻译比喻性的成语。它可以从字面上把spillthe beans翻译成“溢出的豆子”。假设机器按照正确的顺序翻译成法语,就会变成“jeterles haricots”。就算听起来没那么美妙,也明显是断章取义。
大胆设想一下:如果若干年后,机器可以翻译比喻性成语,那么AI机器人理解三大定律的技术难题就迎刃而解了,我们就可以高枕无忧了?不要妄下结论。更有意思的是后来。
当阿西莫夫提出三大定律时,他无意中将其建立在人类确切知道如何划定道德界限的假设上。但事实真的是这样吗?
比如第一定律中“人”和“伤害”这两个词的定义是什么?在14世纪,奴隶几乎被视为牲畜,而不是“人”。现在,胎儿的人权已经成为一个热门话题。如果孕妇将来因为身体状况一旦分娩将面临非常高的死亡风险,那么她的AI医生是否应该建议她堕胎?别忘了,虽然孕妇流产后存活的机会更大,但她出生后的生命价值并不亚于母亲。所以不管做什么决定,这个AI医生都会“伤害”一个“人”。
接下来的选择是人类自己都无法认同的——想到丹·布朗的小说《地狱》,把第零定律运用到它身上,一个机器人得知,如果按下它面前的按钮,一半的人类会立刻消失,但人类这个物种却可以延续几个世纪;如果你不按下按钮(也就是“袖手旁观”),50年后地球上将出现人口过剩,人类将会灭亡。这个机器人应该做什么?如果是你,你会怎么选择?
结论
阿西莫夫的机器人三定律是人们应对机器人反叛威胁的一种尝试。机器人遵守三大定律的技术障碍是我们目前还不能让它们真正理解定律。但真正的问题在于哲学和道德方面,即我们认为,给定一个模棱两可的约束,机器人可以服从并思考人的想法,即使人类自己也无所适从。即使我们表达清楚了,在考虑了这些法律的各种潜在影响后,我们的法律在机器人眼里也可能变成这样一句话:“随便,做好你的工作就行。”