终结
“终结者”
实际上,“杀人机器人”远远不止是人们想象中的像《变形金刚》中的钢铁巨人们,它是一个更加宽泛的概念。无人驾驶坦克,无人飞机,无人舰艇,甚至是一些电磁武器,只要是通过程序设定,能够对外界进行感知并进行攻击的武器,都可以被称为“杀人机器人”。而这些,都已经在现代战争中得到应用。也就是说,机器人早就开始杀人了。美军大量采用的无人机,每年就炸死数百人,其中包括很多无辜平民。
值得庆幸的是,目前这些“杀人机器人”,“杀人”这一最后程序的启动,还是要人类的控制。但在未来,随着技术发展,可能使机器人具备自行作出杀人决断的能力。也就是说,武装机器人一旦启动,可自主选择攻击目标,无需人类进一步干预就能杀死敌人。
然而,机器人不是人类,它不应该被赋予决定人类生死的权利。在战场上,战地指挥官需要负责任,但机器人没有道德力量去承担责任。缺乏人性的武器系统无法区分军人和平民,在分不清状况的情况下自主攻击人类,会造成严重伤亡。此外,一些电脑病毒也会对机器人造成严重影响。
从冷兵器到热兵器,到电磁武器到机器人,人类的“杀人技术”在不断进步,随着战争变得越来越自动化,我们必须扪心自问,我们把自己的责任交付给机器能走多远,我们的底线在哪里?
1944年,著名科幻大师阿西莫夫在机器人短篇集《我,机器人》中,首先提出了《机器人三大定律》,其中第一条就是:“机器人必须保护人类的整体利益不受伤害。”
然而在好莱坞电影中,这一定律从未实现,从《终结者》到《变形金刚》,各种高科技机器人相互厮杀甚至杀人的场面屡见不鲜。
在科幻电影中,机器人的滥杀主要有三种原因。一是某台中央电脑产生邪恶意识,从而操控其控制下的机器人发动对人攻击,如《我,机器人》《终结者》等都是如此;二是机器人本身由于故障或病毒或自主意识产生了反抗乃至屠杀制造者的思想,如《变形金刚》。还有更多的情况,则是野心家或幕后集团刻意造出了杀人机器人,只不过,有时他们反过来失去对机器人的控制而已。
相比科幻电影,现实中机器人滥杀无辜的可能性远不止这些。有智能的机器也是机器,是机器就有出故障的可能,而且智能化越高,出故障风险越大。而且,比机器更可怕的是操作机器的人。即使软硬件不出故障,也可能因为操作者的疏忽大意造成误伤。
科幻情节中,机器人开始杀人意味着世界末日的来临。设想在不远的将来,我们真得面临着像好莱坞大片那样的情景,浩浩荡荡的机器人大军反过来对人类进行“屠杀”的时候,我们是不是该反思现在所做的一切?
(据央视)