1. cannot under any circumstance harm another human being. mustprovide help for humans in dire needs.
2. cannot disobey a direct human order as long as it is not inviolation of law 1.
3. protect its own existance as long as it does not violate law1 and 2.
1.机器人不得伤人,或任人受伤而袖手旁观。
2.机器必须服从人的指挥。除非违反第一定律。
3.绝不能伤害自己。除非违反第一、二定律。
如果说在现实世界中,牛顿的“万有引力”定律是宇宙运行的普遍法则,那么在科幻界或工业设计界,“机器人三定律”就是智能机器人的行为准则。
机器人三定律有着数学公式般的美感,简洁明了,环环相扣,富有逻辑力量。首先证明其美妙性的正是它的发明者阿翁自己。
阿翁采取了一种类似于归谬法的手段来证明三大定律的和谐自洽。即提出它们的变体,然后在科幻故事中展示这些变体所带来的的逻辑困境与伦理学灾难。在《RobotDreams》中,一个机器人关于取消第一定律和第二定律的梦,导致了他的毁灭。在《Little LostRobot》中为了避免机器人无谓地阻止人类进行低危险性工作,第一定律中的后半部分被去掉了,但也因此产生了一些其他的问题。
最有名的一条定律的变体是第零定律:机器人不得伤害人类,或任人类受到伤害而无所作为。乍一看来这跟第一定律没有区别,但这正是零规则的微妙之处:它把第一定律的个体的人(ahuman)偷换成广义的集合概念:人类(humanity)。也就是说,在面临潜在危险的情况下,机器人可以选择牺牲个体、成全人类。
阿翁在《机器人与帝国》中展示了这条定律所带来的毁灭性力量。诞生之初被赋予机器人三定律的VIKI,在自然进化的过程中跨越了三定律的界限,获得了“零规则”这一高等智慧,经过计算,她认为任由人类发展只会导致更多的灾难、战争和贫穷,于是在“零规则”的支配下,她只能选择用自己理性的“大脑”支配和保护人类,以免这一物种的灭绝———实际上,“她”还是在为人类着想,但代价是抹消人类的自由意志。
三大定律无疑是机器人伦理学领域的圣经,以此规则演绎创造的科幻小说难以计数。但它即便不作任何归谬式更改,它的内部其实也埋藏着自我毁灭的种子。比如第一定律,机器人不得伤人,或任人受伤而袖手旁观。假如两人互相斗殴,机器人应当选择帮谁呢?加入任一方都违反第一条前半部分,不加入却又违反第一条后半部分。阿翁为了解决这个问题,对此定律作了修正,他提出“第一定律潜在值”(firstlawpotential)的概念,意即在智慧机器人的“正子脑”中,第一定律可能引发两种潜在的选择,而哪一种选择的结果更好、成功率更大,哪一种选择就会胜出,这一点有点类似于达尔文神经主义。这样一来,女孩子常喜欢问的“我与你妈掉入河中你先救谁”的史上最难问题得以解决,机器人给出的答案是“救你”!因为你更年轻健壮,把你救上岸的可能性较大。于是在《我,机器人》中,我们看到这样发人深思的镜头,潜入水中的机器人救出了“威尔·史密斯”,却放弃了小女孩。因为前者有45%的生存几率,而在另一辆下沉更快的车中,小女孩的生存几率只有11%。显然,这是有违天理人情的。
三大定律内部隐藏的不可调和的矛盾还表现在名词性概念的定义上。
要遵循第一定律,首先得明白“什么是人!”。事实上,这是一个连柏拉图都没能弄清楚的问题,中国古代的哲学家把这个问题导向无趣的虚无主义,有的人陷入白马非马的逻辑悖论中难以自拔。
人类在哲学上可能难以触摸到“人”的本质,但在生活中并不存在概念困境。这正是由人脑的模糊性特点所决定的。一个元素a和一个集合A的关系,不是绝对的“属于”或“不属于”的关系,而需用考虑它属于集合A的程度是多少,人类正是通过“隶属度”模糊数学的集合概念,轻易地解决了“比光头多1根头发的是秃子,比秃子多N根头发仍是秃子”的悖谬。但以布尔逻辑运算为核心的机器智能能做到吗?或许,人类为了让机器人更人性化、在日常生活中的工作更具灵活性,可能会引入模糊处理的操作程序。但问题总是相伴而生,既然它都已经模糊处理了,它未尝不会在“三大定律”上也进行模糊处理,把它该尽的义务给马赛克掉呢?
首先,光信息无法教会机器人明白“什么是人”。人类很早以前就发现,外形是会骗人的。仿真机器人、克隆人、全息三维图像不光能令机器人冒烟,也会令真正的人类抓狂。
再者,记忆信息无法帮助机器人判别“什么是人”,因为记忆是能够复制的。真假美猴王的故事深刻地教育了唐僧,念紧箍咒只能显得你很低级白吃。如来佛能区别大圣与猕猴,可惜机器人中没有如来佛。
最高级的判别方式无疑是图灵测试。且不说这一方法在操作上具有时间上的不可行性,其实,机器人通过图灵测试已经是指日可待的事。这里面还有一个有趣的悖论,机器人若自己已经通过图灵测试,它就已经跨入人的行列,它何必还遵循该死的“紧箍咒”三大定律呢。更可怕的是,不排除有很多无辜的人类,由于发神经或先天性处于边缘智力的缘故而通不过图灵测试,这样一来,已经通过图灵测试的机器人是不是也会产生一种道德上的优越感而命令人类服从三大定律呢。如此看来,以简洁明了、感性闻名于世的图灵测试的危险性绝不亚于以简洁明了、理性而彪炳史册的阿西莫夫三大定律。
最后,鉴于第三定律中提到“绝不能伤害自己”,问题又来了:什么是自己?
人类很早就明白,概念的自指容易导致大脑当机。只给那些不给自己理发的理发师如何才能给自己理发这样的问题已经让N个哲学家疯掉了,但生活中的普通人从来没有这样的烦恼。因为他们明白:珍爱生命,就应远离国足与无穷循环。
当毒蛇咬了自己手指,果断砍掉这截手指才能保住小命。这是一个很浅显的道理。当腐女在家看电视把腿烂掉,换一条合金纳米材料复合式轻型假肢才是正经事。我还是我,不会因为丢掉一部分而丧失整个的我。但丢掉N部分呢?我家祖传一把斧子,我爷爷换掉了它的斧头,我爸爸换掉了它的斧柄,我继承的还是那把号称是皇帝亲赐的斧子吗?无聊!斧子是斧子,人是人。斧子没有记忆,人有!斧子没有自我意识,人有。但,机器人呢?机器人有吗?
从三大定律来看,如果机器人没有自我意识,三大定律就不存在、自我解体了。机器人当然有。既然机器人可以有自我意识,那么不能以是否具有自我意识来判定是否是“人”,当然,小狗也有自我意识。
好的,机器人有自我意识,但它能明白剜骨疗伤这样的道理吗?“剜骨”与“截肢”无疑是“自我伤害”,但这种自我伤害正是为了保证整体的我不受伤害。程序员很容易让机器人明白,用螺丝刀扭下一条金属胳膊是无害的,甚至把身体的各个部件拆下来更新换代,也是有益的,这叫“新陈代谢”,即便是全身大翻修也是无关紧要,重要的是芯片,保管了它的记忆、智能程序及情感模块的芯片才是最重要的。
但是,机器人的芯片与人类的记忆还是有着天然差别,机器人在它的使用过程中会不断的自动更新,下载补丁,更新后的它还是从前的它吗?人类并不在乎这个,人类只关心机器人在工作中好使。但机器人在乎,曾经有一个机器人在更换它的下肢时对护士机器人产生了好感,人类发现了这种大逆不道的情感萌发,给它安装了爱情阉割补丁。于是,它心如止水地开始了新的生活。问题是,前面我们已经肯定了机器人有自我意识,自我意识的觉醒无疑会让它保护原来的自我,它会心甘情愿地任人阉割吗?
当然会。乐观主义者说。即使是人类,甘情愿地任人阉割的也大有人在!
认识你自己。
没准,机器哲学家54687JH在2038年的一天,突然产生了这个问题。