您的位置:首页>智东西 >

环球消息!杀手机器人对战争的未来意味着什么?

来源:芯片观察  

你可能从电影和书籍中听说过杀手机器人、屠宰机器人或终结者--官方称之为致命自主武器(LAWs)。而超级智能武器横行的想法仍然是科幻小说。但是,随着人工智能武器变得越来越复杂,公众对缺乏责任感和技术故障风险的担忧也在增加。

我们已经看到所谓的中立人工智能是如何做出性别歧视的算法和无能的内容审核系统的,主要是因为它们的创造者不了解这项技术。但在战争中,这些类型的误解可能会杀死平民或破坏谈判。

例如,一个目标识别算法可以被训练为从卫星图像中识别坦克。但是,如果用于训练该系统的所有图像都以坦克周围的士兵编队为特征,那该怎么办?它可能会把穿过军事封锁线的民用车辆误认为是目标。


(资料图片)

我们为什么需要自主武器?

由于全球超级大国建造和使用日益先进的武器的方式,许多国家(如越南、阿富汗和也门)的平民遭受了痛苦。许多人会认为它们造成的伤害多于好处,最近的一次是指2022年初俄罗斯入侵乌克兰的事件。

在另一个阵营中,有人说一个国家必须有能力保护自己,这意味着要跟上其他国家的军事技术。人工智能已经可以在国际象棋和扑克上胜过人类。它在现实世界中的表现也超过了人类。例如,微软声称其语音识别软件的错误率为1%,而人类的错误率约为6%。因此,军队正在慢慢地把缰绳交给算法,这并不令人惊讶。

但是,我们如何避免将杀手机器人加入我们希望从未发明过的一长串东西中呢?首先:了解你的敌人。

美国国防部将自主武器系统定义为。"一种武器系统,一旦启动,就可以选择和攻击目标,而不需要人类操作员进一步干预"。

许多战斗系统已经符合这一标准。无人机和现代导弹上的计算机拥有的算法可以探测目标,并以远比人类操作员更精确的方式向其开火。以色列的 "铁穹 "是几个主动防御系统中的一个,可以在没有人类监督的情况下攻击目标。

虽然是为导弹防御而设计,但铁穹可能会意外杀人。但这种风险在国际政治中被认为是可以接受的,因为铁穹在保护平民生命方面通常有着可靠的历史。

也有设计用于攻击人的人工智能武器,从机器人哨兵到在乌克兰战争中使用的闲逛的神风无人机。LAWs已经在这里了。因此,如果我们想影响致命性武器的使用,我们需要了解现代武器的历史。

以色列导弹防御系统。

“伤亡人数……在经历了十多年的历史性减少之后,在过去七年里一直高得令人不安。2021 年也不例外。这一趋势主要是自 2015 年以来观察到的冲突和简易地雷污染增加的结果。平民代表了大多数记录的受害者中,有一半是儿童。”

尽管 ICBL 尽了最大努力,但有证据表明俄罗斯和乌克兰(渥太华条约的成员)在俄罗斯入侵乌克兰期间使用了地雷。乌克兰还依靠无人机引导炮击,或者最近依靠无人机引导对俄罗斯基础设施的“神风敢死队袭击”。

我们的未来

但是更先进的人工智能武器呢?阻止杀手机器人运动列出了 LAW 的九个关键问题,重点是缺乏问责制,以及随之而来的杀戮的内在非人性化。

虽然这种批评是有道理的,但出于两个原因,完全禁止法律是不现实的。首先,就像地雷一样,潘多拉魔盒已经打开。此外,自主武器、法律和杀手机器人之间的界限非常模糊,很难区分它们。军方领导人总能找到禁令措辞中的漏洞,偷偷将杀手机器人作为防御性自主武器投入使用。他们甚至可能在不知不觉中这样做。

我们几乎肯定会在未来看到更多支持人工智能的武器。但这并不意味着我们必须换个角度看。更具体、更细致的禁令将有助于让我们的政治家、数据科学家和工程师承担责任。

例如,通过禁止:

黑盒人工智能:除了输入和输出之外,用户对算法一无所知的系统

不可靠的人工智能:测试不当的系统(例如前面提到的军事封锁示例)。

而且你不必成为 人工智能专家就可以对 LAW 有看法。随时了解新的军事 AI 发展。当你读到或听说人工智能被用于战斗时,问问自己:它合理吗?它是在保护平民的生命吗?如果没有,请与致力于控制这些系统的社区合作。我们一起有机会阻止 AI 弊大于利。

战争的规则

国际协议,如《日内瓦公约》,规定了冲突期间对待战俘和平民的行为。它们是我们控制战争方式的少数工具之一。不幸的是,美国在越南和俄罗斯在阿富汗使用化学武器,证明这些措施并不总是成功的。

更糟糕的是,关键参与者拒绝签字。国际禁止地雷运动(ICBL)自1992年以来一直在游说政治家禁止地雷和集束弹药(在大范围内随机散布的小型炸弹)。1997年,渥太华条约包括禁止这些武器,122个国家签署了该条约。但美国、中国和俄罗斯并不买账。

《2022年地雷和集束弹药监测报告》显示:自2015年以来,地雷每年至少使5000名士兵和平民受伤和死亡,2017年多达9440人。

关键词: 人工智能 智能武器 攻击目标

最新文章