4月13日至17日期间,该人权观察将在联合国日内瓦总部提交这项报告,提出禁止“全自动化武器”的考虑,并表示像杀人机器人这类的全自动化武器有极大的危险:他们可以不受人类的控制,“随心所欲”的选择攻击目标。想象一下,在人和机器人的冲突中,机器人杀了人,没有人会被追究责任。那些程序员、制造商和军事人员都能逃脱被完全自动武器造成的非法死亡和受伤的责任。人权观察指出,这类杀人机器人暂时还不存在,但“快速的高科技正朝在那个方向发展”,是引起他们关注的直接原因。
该报告的主要作者,人权观察的高级武器部研究员Bonnie Docherty表示:没有责任,就没有对犯罪者的威慑,也不会洗刷受害者的冤屈,更没有社会对责任方的谴责。一个完全自动化武器所犯的罪行,可能会上升到战争罪行的高度。但受害者将不会看到有人受到这些罪行的惩罚。这种情况会被称为“事故”或“意外”,轻描淡写地掩盖对人类的致命伤害。考虑到为受害者伸张正义的时候会遇到的重重阻碍,这就是亟待禁止全自动化武器的原因。
人权观察表示,如果一个军事指挥官或运营商部署机器人故意犯罪,他们当然会被追究责任。但他们也会以也不能预见自动机器人的非法攻击和无法阻止它的袭击为借口,来逃避责任。但责任差距只是完全自动武器产生消极影响的一部分。该组织还质疑:在战场上让机器决定人的生死,这一做法是否符合道德标准?
编辑:张海云