网站图标 美妙的工程

一个杀人机器人在没有接到指令的情况下追捕了一个目标

在这个时代,如果有什么东西不应该是自动的,那就是武器化无人机。那里有太多可能出错的地方。人工智能在大多数情况下都能工作,但它并不可靠,尤其是在像这样的关键情况下。2020年3月发生的一起事件证实了这一说法,当时一架致命的武器化无人机在没有任何人类输入的情况下追捕一个人类目标。

在利比亚政府军与利比亚国民军的哈利法·哈夫塔尔领导的军事派别发生冲突时,一架kargu2型四轴飞行器开始完全自主地瞄准一个人。无人机瞄准了一名试图撤退的哈夫塔尔士兵。该事件的细节来自联合国安理会利比亚问题专家小组的一份报告。

报告称,哈夫塔尔的无人机在撤退时被以自主模式操作的kaguu -2无人机“追捕”。报告称,这种模式不需要人工控制,而且非常有效。土耳其的kagu -2无人机是一种致命武器,设计用于不对称战争和反恐行动。无人机可以被指挥在撞击时引爆。

该报告详细说明,“致命自主武器系统被设计成不需要操作人员和弹药之间的数据连接就能攻击目标:实际上,这是一种真正的‘发射、忘记和发现’能力”。该报告称,这可能是无人机首次在没有具体指令的情况下攻击人类。

当你读到关于自动无人机的文章时,你会想到一些担忧。比如它们在目标识别方面有多准确?如果他们误解了某人怎么办?错误发生的频率是多少?我不认为拥有自动武器无人机的好处超过了危险和风险。

英国国防智库的杰克·沃特林(Jack Watling)表示,皇家联合军种研究所(Royal United Services Institute)告诉记者,“这并不表明自动武器不可能监管。但它确实表明,讨论仍然是紧迫和重要的。技术不会爱游戏ayx体育等着我们。”