曹小灵的回答
听到机器人杀人,我想到的就是科幻大佬阿西莫夫的机器人三定律:
机器人不得伤害人类,或坐视人类受到伤害;
机器人必须服从人类命令,除非命令与第一法则发生冲突;
在不违背第一或第二法则之下,机器人可以保护自己。
其实这个定律后面还有一个补充,是阿西莫夫在1985年《机器人与帝国》里面增加的零号法则:
机器人不得伤害整体人类,或坐视整体人类受到伤害
零号法则是凌驾于一号定律之上的,比如一个邪恶天才科学家研发了一种毁灭人类的病毒,那机器人就能出于整理人类的利益,遵守效用最大化的规则,把科学家嫩死。
但这一切的前提,都是机器人具备了高度的智能,能进行高度的自我判定。
而这个智能,是现在达不到的。
最简单的例子,机器人要知道什么是整体人类利益,也要知道什么叫伤害人类。
抽烟,绝对是伤害个体,机器人看到一巴掌把烟给打飞。
房地产开放商,某种意义上也算是伤害整体人类了,过度发达的话严重拖累经济嘛,那是不是机器人可以开杀。
这些,都是科学幻想里面的场景,只有在科技发展到一定程度以后机器人具有了自主智能,才需要设定这些束缚。
有些更严谨一点的科幻电影,还会再增加法则。
比如机器人不能自主决定制造新的机器人,因为新的机器人可能会突破内嵌在核心里面的各种法则。
而旧金山这个机器人,说直白一点,就和我们平日里面开的车,战场上的无人机差不多。
是人类力量的一种衍生,也有一些智能控制系统,比如定速巡航和自动维持高度,但掌控权还是操作在人类手上的。
扣扳机的是人,而不是机器智能。
好吧,其实枪某种意义上也是机器,只是长得不像人而已。
现在旧金山给出的操作模式是,在极端情况下,可以让机器人身上带着爆炸物,过去来个砰。
这还真没有什么特别的。
就像警方遥控操作警车,开过去撞死犯罪分子差不多。
还是那句话,只要不是机器人自主决定,那所有的讨论只是限制在「使用什么样的工具」上。
是允许极端情况下警察使用机器人杀人,而不是允许机器人在极端情况下杀人,主体应该是很明确的。
2015年的时候,德国有个大名鼎鼎的机器人杀人案。
这才有意思。
在德国大众汽车的一个工厂,一个技术员在和同事安装调试一台机器人。
然后机器人突然就伸手一拳打在技术员胸口,接着抓起来摔在一块金属板上,死了。
精彩的是,这技术员其实是站在安全笼里面的,他的同事反而站在外面,屁事没有。
有种定点清除的感觉。
那事后肯定要调查嘛。
一调查,大众说机器没问题,没有技术故障。
琢磨了半天,给了一个非常模棱两可的说法,说可能是技术员在调试程序的时候,意外触动了某些工作程序,机器人在指令驱动下做了一些动作,这些动作恰好释放在了技术员身上,看上去就像是攻击状态一样。
总结一下就是人为失误,自己把自己弄死了。
毕竟这个杀人的机器人并没有自主意识,都是程序驱动的,而程序没有自主进化变成天网。
现在的讨论,更多的还是集中在这口子能不能打开上。
警方对于暴力犯罪都是有工具使用要求的,不能对方拿枪你用RPG去轰。
哪怕是战场上,达姆弹和化学武器也是理论上被禁止的。
这是工具层面的讨论。
更进一步就是这种战场风格的工具,是否适合使用在平民身上。
战场无人机,察打一体,没人觉得有问题,甚至被认为是未来大趋势;但如果有天警方说我们也用带着弹头的无人机来巡逻,感觉就有点怪怪的。
这是授权层面的讨论。
至于人道不人道的,我感觉反而比较次要。
被警方一枪爆头还是被警用机器人拎着炸弹过来炸死,好像差不多。