这个问题其实早几十年就有人关注了,很多科幻作家为此创造了大量的科幻小说,满足了读者的好奇心。
其中比较有名的是美国科幻作家阿西莫夫,他曾经创作过《我,机器人》系列作品,并
这个问题其实早几十年就有人关注了,很多科幻作家为此创造了大量的科幻小说,满足了读者的好奇心。
其中比较有名的是美国科幻作家阿西莫夫,他曾经创作过《我,机器人》系列作品,并且在其中提出了著名的“阿西莫夫三定律”,用以规范人和机器人之间的规则:
LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM.第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管LawⅡ:A ROBOT MUST OBEY ORDERS GIVEN IT BY HUMAN BEINGS EXCEPT WHERE SUCH ORDERS WOULD CONFLICT WITH THE FIRST LAW.第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外LawⅢ:A ROBOT MUST PROTECT ITS OWN EXISTENCE AS LONG AS SUCH PROTECTION DOES NOT CONFLICT WITH THE FIRST OR SECOND LAW.第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存
阿西莫夫认为,将来如果出现只能机器人的话,在机器人生产制造之处,就必须将这三定律作为原始代码植入机器人大脑中,让这三定律成为机器人的本能。
阿西莫夫在这个框架之下,构建了大量的小说,今天看起来依然有很重要的意义。比如“第一定律”中,机器人不得伤害人,那么如何在代码中定义“人”,并且能够让机器人判断出对方是“人”,这就有很多问题。比如未来使用机械器官的“人”,还算不算“人”,如果一个自然的“人”,在科技足够发达时,将他的所有内脏、四肢,除了大脑之外,全部都换成机械的、人造的,那么他还能不能被视为“人”?或者一个放弃了自己的肉体,把自己的意识移植到网络的人,还算不算“人”?一个克隆了自己的肉体,并把意识copy到新肉体上,放弃了旧的肉体的“人”,算不算人?阿西莫夫围绕这些问题,构思了很多很有趣的小说。
此外,后来的科幻作家们不断在阿西莫夫三定律上开发出新的机器人守则,这里只举罗杰·克拉克为例,他构思的机器人原则是:
元原则:机器人不得实施行为,除非该行为符合机器人原则。第零原则:机器人不得伤害人类整体,或者因不作为致使人类整体受到伤害。第一原则:除非违反高阶原则,机器人不得伤害人类个体,或者因不作为致使人类个体受到伤害。第二原则:机器人必须服从人类的命令,除非该命令与高阶原则抵触。机器人必须服从上级机器人的命令,除非该命令与高阶原则抵触。第三原则:如不与高阶原则抵触,机器人必须保护上级机器人和自己之存在。第四原则:除非违反高阶原则,机器人必须执行内置程序赋予的职能。繁殖原则:机器人不得参与机器人的设计和制造,除非新机器人的行为符合机器人原则。
如果按照这些科幻作家的构思,未来的高度智能化的机器人是不可能侵犯人类。
不过,实际上,人类社会从来没有把“阿西莫夫三定律”当成一回事。
在机器人人制造和生产过程中,大家还是普遍把机器人看做工具,不认为其具备自主思想。在军队和警察部门,使用机器人作为辅助工具的情况现在并不少见,将其制作成为杀人武器的,也开始逐渐成为现实。
比如无人机、无人战舰、无人攻击机械车辆等等,这些从广义上讲,都是机器人。并且美军在阿富汗战场上、伊拉克战场上实际已经投入使用。
这种无人机攻击的时候,肯定不在乎是不是能够侵犯人类。
这种配置了枪械的自动机械车,也是机器人的一种,具备侵犯人的能力。
这种攻击机器,威力可比一般人类要厉害的多。
我国军队也开发出了各种无人攻击机,注意,这是2014年。
现在机器人攻击人类的不是一个科幻想象,而是活生生的事实。
和科幻作家描绘的未来不一样的是:1、现在的无人攻击武器依然是遥控的,不是完全自主的;2、机器人不具备人类外形;3、各国对于机器人杀人没有建立任何限制条件。
随着科技的不断发展,我相信未来,完全的智能机器人、可以自主判断、自主决策的机器人必将出现。这种情况下,如何限制、制止机器人对人类的攻击总有一天会成为人类必须面对的问题。