触景无限 | 前端智能感知全球引领者

Menu

新闻资讯 > 新闻详情

现代战争商业化背后,禁止杀手机器人已来不及

专家呼吁在机器人技术和人工智能领域禁止“机器人杀手”(又名“致命自动武器系统”),对此,有一种回应是:你不应该早点考虑这个问题吗?

包括特斯拉的首席执行官埃隆·马斯克在内的116位专家都在呼吁这一禁令。他们说,“我们不久就采取行动。”“一旦灾难之源被打开,就很难关闭。”但是,这种系统已经存在,比如由BAE和其他公司开发的“无人驾驶的作战飞机”塔拉尼斯”,或者由三星制造的部署在韩国边境的自动SGR-A1哨兵枪。自动驾驶坦克已经开始运行,而人类对致命无人机的控制只是程度的问题。

现代战争商业化背后,禁止杀手机器人已来不及马斯克

然而,机器人杀手实际上陪伴我们的时间跟机器人一样长。1920年卡雷尔·恰佩克(Karel apek)的戏剧RUR(罗莎的通用机器人)让我们认识了这个词(在捷克语中意思是“劳动者”)。他的仿人机器人由同名公司制造,用于工业工作,反抗和屠杀人类。从电视剧《神秘博士》到电影《终结者》,他们一直都在这么做。机器人电影以及故事几乎没有好的结局。

如果机器人的末日不降临的话,马斯克和他的联名签署人提出的问题就很难想象了。即使我们只知道其中一台机器将会失灵,而欧美妮消费者产品的警察机器人在机器战警中将会带来混乱的后果。

这样的暗示似乎可以让人想到一个致命的严肃话题。关于机器人世界末日的故事可能并不完全是开玩笑的,尽管它们利用了人类根深蒂固的恐惧,但这些故事终究是娱乐。不过,对于这样一场辩论来说,要接受科幻电影所讲的东西,实在太容易了。随之而来的暗示是,只要我们避开那些真正糟糕的技术,一切都会好起来的。

就像法律专家们认识到的那样,这些问题会变得更加复杂。一方面,他们更加担心也更加着急的是机器人的道德问题;另一方面,他们关注的是现代战争的本质及其商品化。

我们如何使自主技术系统变得安全,有职业操守呢?避免机器人对人类造成的伤害是在艾萨克·阿西莫夫导演的电影《I,Robot》中探索出的问题所在,这组短篇故事集非常有哲理,因此阿西莫夫的三个机器人定律有时会被人们讨论——就好像它们有牛顿的三种运动定律一样。具有讽刺意味的是,阿西莫夫的故事主要是这种积极的定律如何被环境所破坏。

在任何情况下,道德问题都不可能轻易地被制定为“一刀切”的原则。历史学家尤瓦尔·赫拉利指出,无人驾驶汽车将需要一些规则来决定如何应对不可避免的或者可能致命的碰撞:机器人试图拯救谁?尤瓦尔·赫拉利说,我们可能将会得到两种模式:利己主义者(优先考虑司机)和利他主义者(这把别人放在第一位)。

现代战争商业化背后,禁止杀手机器人已来不及

尤瓦尔

在2012年人权观察组织的一份关于杀手机器人的报告中,有一些科幻的偏见。报告称:“区分恐怖的平民和危险的敌人需要士兵去理解人类行为背后的意图,这是机器人做不到的。”此外,“机器人不会受制于人类情感和同情,这可以为杀戮平民提供重要的检查。”但是,第一个说法是对信仰的陈述——机器人用生物识别技术难道不能比一个使用本能的受惊士兵做出更准确的评估吗?至于第二种说法,你会认为:有时候当然会。其他时候,战争地区的人们肆意强奸和屠杀。

这并不是要反驳报告中对自动机器人士兵的恐惧,我也恐惧。相反,它让我们回到了关键问题,这不是技术问题,而是战争。

我们对战争道德的敏感度已经是武断的了。人权观察表示:“完全自主武器的使用引发了严重的问责问题,这将侵蚀另一种固有的平民保护工具。这是一个公平的观点,但不可能在任何一致的伦理框架下适用,而核武器在国际上是合法的。”此外,无人机战争、士兵提升技术和不能被分解的“人机大战”的定律之间还有一个连续性。

现代战争商业化背后,禁止杀手机器人已来不及

自动化军事技术的问题与战争本身的变化本质密切相关。在这个恐怖主义和叛乱的年代里,战争不再有开始或结束、也不再有战场或军队:正如美国战略分析家安东尼考斯曼所说:“现代战争的教训之一就是战争不再被称为战争。”无论如何,这都不像是诺曼底登陆。

战争总是使用最先进的技术,“杀手机器人”也一样。你可以肯定的是有人从中获利。

现代战争商业化背后,禁止杀手机器人已来不及

无论如何,让我们试着抑制我们最糟糕的冲动:把犁头打成刀剑,告诉国际军火贸易他们不能制造杀手机器人就像告诉软饮料制造商他们不能生产橙汁一样。

来源:网易智能

选自:The Gardian

编译:网易见外智能编译平台

审校:韩茹雪