滚动新闻

调节军事人工智能将是困难的 这是前进的道路

对于运行着世界上最强大的军事力量的官员而言,投资用于监视,战斗管理或自动武器的人工智能(AI)系统毫无疑问。大多数分析师认为,人工智能将成为国家安全的关键技术。但是随着美国和其他国家建立更好的AI,它们最终可能会迫使紧张的对手甚至盟友采取可能增加武装冲突风险的步骤。落后的AI可能会建立自己的军队,改变其核态,甚至使他们的核武库处于更高的警戒状态。

如果国际社会不能正确地管理军事AI的发展,扩散和使用,那么国际和平与稳定将受到威胁。各国政府采取行动还为时过早。最大的问题是,这样做的正确工具是什么。目前,政府谈判人员应该着重建立信任的努力,而不是草拟国际条约的过程缓慢。他们应该考虑一些有助于苏联和美国阻止核战争的相同机制。这些建立信任措施可能是减少军事AI带来的风险的关键。

为什么条约不能解决问题。军备控制界的官员喜欢推动国际商定的法规,例如具有法律约束力的条约来应对军事风险;这些具有最大的规范能力。但是,有三个原因使追求与禁止生物武器,化学武器和杀伤人员地雷的AI条约相似的AI条约具有挑战性。

首先,要用条约的语言掌握军事上的人工智能及其风险绝非易事。人工智能是一个模糊的技术领域,专家们本身仍然对它是什么和不是什么有不同意见。知觉也会随着时间而改变。人们在1980年代认为AI是当今的标准软件技术。如果军控界对军事人工智能实行一揽子规定,它将面临重大的概念和政治障碍。

为了使他们的任务更轻松,条约谈判者可能会尝试并专注于针对更具争议性的军事AI应用的法规,例如自主武器系统或核指挥与控制要素。但这甚至都不容易。自2013年以来,联合国谈判人员一直在就致命的自动武器进行辩论,但对于这些武器是什么以及如何使用它们仍未达成共识。实际上,政府尚未阐明军事AI大部分应用的用例。

其次,政府谈判人员可能需要数年甚至数十年才能就AI军备控制条约达成协议。鉴于AI技术的发展速度很快,官员们可能会发现,任何国际谈判的最终结果都不符合技术现实,并且一开始就过时,尤其是在条约基于技术特征的情况下。

开发大多数AI技术的私营部门已经不愿参与军事AI的监管工作,这可能是出于公共关系方面的考虑。许多公司回避参加联合国致命的自动武器辩论。

第三,新军备控制协议的政治前景令人沮丧。随着俄罗斯,中国和美国之间的紧张关系加剧,很难想象这些国家在军事AI方面进行了许多建设性的讨论。

前进的道路?幸运的是,军备控制谈判人员拥有比正式辩论和国际商定法规更多的工具。他们还可以寻求其他流程和降低风险的措施,以识别和缓解军事AI可能带来的各种风险。

在很大程度上,各国可以通过创造性地使用冷战期间军备控制界提出的一系列建立信任措施,来有效地减轻风险。例如,美国和苏联有定期对话,在核紧张局势期间帮助他们进行沟通的热线电话以及旨在增进相互了解和信任的科学合作计划。

建立信任措施(以共享信息或进行对话的形式)是解决AI提出的概念性问题并制定协作降低风险计划的极有价值的工具。它们可以帮助外交官和从事军备控制和战略问题的其他官员创建通用词汇表,对技术的状态和轨迹有共同的了解,并可以相互理解军事AI应用带来的风险。

建立信任的活动,例如与专家相互交流的会议或科学合作计划,可以帮助军备控制界不仅关注技术发展,而且还可以使私营部门和学术界的专家参与确定降低风险的措施。这些活动也非常适合讨论狭窄的技术问题,例如可以确保AI安全的测试方法,否则这些安全问题可能难以在基于条约的军备控制论坛中解决。

世界各国政府可以将建立信任活动作为开启政治上僵持的多边军备控制程序的关键,例如近十年来联合国关于致命性自主武器的辩论。对于世界主要军事大国而言,缺乏相互信任是他们在AI上实现军备控制目标时面临的最大障碍。信息共享,专家会议和其他对话可以帮助他们更好地了解彼此的能力和意图。

人工智能是一种无形的技术。能力很容易被高估或低估。通过建立信任措施,政府可以更有把握地确定挑战的类型,不仅挑战者及其盟友采用人工智能。

最终,建立信任的过程(如所谓的“第一,1.5和2轨”对话)(例如,一次国际学术会议)可能会帮助各国对什么才是负责任使用军事AI达成共识。一些国家正在努力鼓励良好行为规范。例如,美国邀请盟国讨论AI的道德使用。同样,北约也启动了鼓励其成员就一系列道德原则达成一致的程序。几个欧洲国家已经呼吁欧盟成员国就负责任地使用新技术,特别是人工智能,启动战略进程。

还有一些对话过程旨在促进竞争对手(尤其是美国,俄罗斯和中国)之间的讨论。这些都是无价的,因为它们为来自这些国家的专家提供了一个机会,可以在非政治化的背景下讨论在军事上使用AI的国际商定限制的可能性。

军备控制界必须对军事AI的风险做出反应,但至少在目前,追求专门条约可能不是正确的方法。建立信任的对话和活动可能为各国政府提供更敏捷,更有效的方式,也为首先创造了许多此类技术的相关公司和学术计划提供了一致的意见,并共同努力确定具体的降低风险的措施。最终,这些对话可以构成一项甚至多项监管工作的基础,而这些工作可以基于关于军事AI的负责任行为的商定规范。