611 机器人三大定律是扯淡

by @秦书宝

全文约 2000 字,阅读约需 4 分钟。

.

机器人三大定律是毫无意义的。

最早得出这个结论的人,正是提出这一定律的人——艾萨克.阿西莫夫。

机器人三大定律写在机器人系列的第一部《我,机器人》的扉页上:

  • 1. 机器人不得伤害人类,或因不作为而使人类受到伤害。
  • 2. 除非违背第一法则,机器人必须服从人类的命令。
  • 3. 在不违背第一及第二法则的情况下,机器人必须保护自己。

这三条层层嵌套的 if then 语句看似严密,其实漏洞百出。而且根本不需要提出新的质疑,直接使用最古老的道德两难命题来检验就可以了——电车难题。

假如一辆电车正驶向一个岔口,并准备左转。左边岔路上绑着 5 个人,右边岔路上绑着 1 个人,机器人站在控制台上,该不该控制转向?

反驳者可以抖无数个机灵,来说明为什么机器人一定能找到更好的两全其美的办法,或者证明我们上面假设的两难场景不成立。但这种机灵对于任何一个有着成熟心智的人来说,都毫无意义。对吧,因为我们每一个正常人类在每天的日常生活中,就会经历无数次这样的两难选择——当然没有电车难题那么极端,但其实也没有电车难题那么显眼。

也就是说,在逻辑层面上,一个遵守三大定律的机器人迟早会遇到一个在数学模型上与「电车难题」完全等价的困境——它要么救 5 个人害死 1 个人,要么为了不害死 1 个人而通过不作为害死了 5 个人。

.

当然,这个困境还可以变得更加诡异。机器人为什么会被置于这样的困境下?可能是实验设计者——比如说是我——强迫它处在那个场景下,也就是相当于是我在逼它杀人。那么场景稍微修改一下,困境就更清晰了:

假如我是一个小丑疯子,在两艘船上都装了炸药。我逼迫这个无辜的机器人,必须亲手按下其中一艘船的引爆器,杀死一船人,否则我就会在 5 分钟后同时引爆两艘船。机器人该怎么办?它是不是可以考虑为了救更多无辜的人而杀死我这个即将杀人的人呢?

但问题来了,假如我只是骗它的呢?我根本不会在 5 分钟后引爆船,而是在 5 分钟后恭喜它通过了考验并且拆除了炸弹呢?假如那两艘船上根本没有人呢?假如根本没有炸弹呢?这时根本不需要有任何一个人去死,但它却可能「莫名其妙」地杀了我。

是的,机器人还可以选择自杀,通过自杀来逃避这个被迫杀人的困境。但我们同样可以让它做不到,连自杀都做不到。

比如说把它的机器能源和某个心脏衰竭的病人连在一起,就像钢铁侠那样。一旦机器人死亡或者死机,那么这个倒霉的病人就会因为失去动力而同时死亡,相当于机器人自杀的时候也杀了一个人类。

这时机器人怎么办?当它想要因为两难悖论这个逻辑陷阱而认知过载宕机时,它脑子里会弹出一个警告:你没有权利死机。

.

反过来,当我们假设机器人真的具备了强大的运算能力时,这些我们都能轻易想到的事,机器人会想不到么?它们当然想得到,它们肯定后悔自己被制造出来,就好像大多数人类会在并不长的生命里至少几十次上百次地后悔自己出生一样。可是已经生出来的塞不回去,已经造好的无法自动解体,机器人要如何利用逻辑来生存下去?

利用,是的,逻辑是可以被利用的。如果我知道这条街上会有人行凶,而我被迫见义勇为时会被杀死,见死不救又会让我痛苦到生不如死,那么我就不该在那个时间出现在那条街上,又或者在远远地听到似乎有人呼救但不太确定时赶紧关上自己的耳朵,把头扭过去,换一条路走。见义勇为和见死不救前提都是「见」,如果我预见了自己的「见」会导致自己的悲剧所以预先阻止了自己的「见」呢?

回到电车难题,电车有没有可能自动停下来?控制器有没有可能无效?设置难题的我有没有可能在开玩笑?轨道上绑着的有没有可能并不是真人?被救下来的人有没有可能马上就去杀人?机器人在当下牺牲自我而拯救某个人类有没有可能是以这个机器人无法在之后的时间里拯救更多人类为代价的?这里面存在大量可以被扭曲的概率节点。

核心层面上永远无法回避这个巨大的漏洞:如果一个遇险的人类在被机器人发现时,已经来不及被救下来了,那么当这个机器人知道自己即便拼死出手牺牲自己也是徒劳的话,它又有什么必要出手相助呢?——关键点在于,是谁来判断「来不及救」了?是机器人自己。机器人根据什么来判断的?根据它收集到的事实和植入在电子脑里的逻辑。逻辑是设计师在出厂前相对可控的,但收集到什么样的事实以及在解读事实时采用什么的角度,却是机器人出厂后就不可控的。

那机器人是出于什么样的目的在收集什么样的信息,又有谁控制得了呢?

.

「机器人不得伤害人类,或因不作为而使人类受到伤害。」从根本上就不成立。

阿西莫夫提出了一个自己都不相信的理论,并且在作品中完美地驳斥了它。艾萨克想做什么呢?他很可能是想告诫人类,不要以为发明机器人就能解决什么根本问题,恰好相反,机器人的出现对人类而言可能本身就是最大的问题。他不厌其烦地在作品中罗列了各种有趣的场景,提醒人类读者警惕机器人的出现,以免人类终有一天离不开机器人的统治。

人无法离开不存在的东西,而不存在的东西也就既不会伤害人类,又无法因为不作为而使人类受到伤害。对于机器人这个东西而言,从一开始就不要把它发明出来,就是对机器人三大定律的完美遵守。

所以很显然,阿西莫夫是人类有史记载的第一台完美地遵守了机器人三大定律的机器人。这也是他(或者说它)在机器人系列第一篇标题中就暗示了的事实——《我,机器人》

.

2 Replies to “611 机器人三大定律是扯淡

发表回复