在2022年2月俄乌冲突发生后,第18空降军的人工智能工程努力有了新的紧迫性。奥卡拉汉、坦普尔和来自该军总部的其他270人已被派至德国的一个军营,占用了原先的一个球馆作为指挥中心。他们许多人的屏幕上运行的是“梅文智能系统”。
奥卡拉汉和坦普尔拒绝透露五角大楼正在如何使用梅文之类的人工智能系统支持乌克兰。但因所谈论主题的敏感性而要求匿名的知情人士称,美国一直利用卫星情报和梅文智能系统向乌军提供俄军装备的位置信息,后者随后以卫星制导导弹对这些目标实施攻击。其中一名知情者说,协助基辅也有助于五角大楼大大提高使用人工智能工具的熟练程度——并且更有把握地预测在战争中可以如何使用这些工具。
不过,摩尔、奥卡拉汉及其他官员迫不及待地承认,他们的人工智能系统还有很长的路要走,并且无法超越人类的决策能力。
另外一些担忧则更为基础性。随着美国及其盟友开始依赖人工智能系统,敌人可能试图通过污染训练数据或扰乱软件更新来暗中破坏。算法会随着时间推移而失去准确性,而且由于它们的决策过程是模糊的,它们比其他军事技术更难测试。所有这一切都意味着就在战场上使用人工智能而言,指挥员将不得不判断军事需要和更广泛的背景是否让失误风险变得可以接受。混淆波涛与军舰是一回事——它充其量只会导致导弹无害地坠入大海,而利用人工智能瞄准某块附近有平民的拥挤的陆上战场则是另一回事。
尽管算法系统存在局限,但美国已表示打算扩大它们的自主性。国防部去年曾下达指令要求指挥和操作人员就武力的使用行使“适度的人类判断”,暗示官员们可能认为有人类的监督就已足够,而不再需要人类去做决定。
对于担心任由机器决断杀戮的后果的活动人士来说,这是一个严重的危险信号。阻止杀手机器人运动组织称,美国目前的承诺“完全达不到”充分的保障。
|