-页1.webp)
近日,兰德公司(RAND Corporation)发布了一份名为《The Artificial General Intelligence Race and International Security》的报告,该报告深入探讨了在追求人工通用智能(AGI)的过程中,尤其是美国和中国之间的竞争动态如何塑造国际安全和稳定。报告指出,随着人类接近发展AGI的技术能力,领先AI国家之间的竞争可能会加剧,尤其是在更广泛的中美战略竞争背景下。报告中包含了来自人工智能技术、国际关系和国家安全领域的专家观点,它们共同认为传统的军备控制措施不适合AGI,并提出了如“AI卡特尔”等新型治理模式,以区分军事和民用AI应用。这份报告提供了对AGI竞赛及其对国际安全潜在影响的深刻见解,对于理解当前和未来全球安全环境中的关键问题具有重要价值。
-合1.webp)
人工智能竞赛和国际安全的未来
随着人类逐步接近开发通用人工智能(AGI)的技术能力,美国和中国等领先人工智能(AI)大国之间的竞争可能会加剧。这种竞争不仅涉及经济利益,还关乎国家安全。报告《The Artificial General Intelligence Race and International Security》深入探讨了AGI竞赛对国际安全和稳定可能产生的影响。
报告指出,AGI的发展可能会增加国家间的不安全感和误判风险。在AGI到来之前的“前AGI区域”,各国可能对对手的能力和意图存在深刻的不确定性,这可能成为误判的肥沃土壤。例如,Sarah Kreps认为,主要危险不是AGI的到来,而是在AGI到来之前的技术模糊不清时期。在这个时期,国家可能会错误估计对方的能力或意图。如果AGI的发展更快、更透明,实际上可能通过改善预测、减少误解和创造稳定预期来增强战略稳定。
然而,Miles Brundage警告说,AGI竞赛的无节制速度本身就是危机。激烈的竞争激励公司和国家在安全和保障方面走捷径,这已经在商业领域显现出来。随着AI能力的进步,走捷径的后果也可能升级,从部署有缺陷的消费产品到可能导致灾难性的安全失败。Brundage预测,到2027年,AI将能够完成大多数经济价值高的基于计算机的任务,这也会大幅降低网络战争和生物武器发展的门槛。
James Fearon则认为,AGI不太可能推翻核时代的基本逻辑:相互对大城市的毁灭性打击的脆弱性。AGI不太可能使一个国家能够可靠地对一个核武器对手发动“辉煌的首次打击”,也不可能创造出对核攻击的完美防御。因此,即使一个国家拥有巨大的AGI驱动的经济和常规军事优势,也无法安全地入侵一个拥有核武器的对手。
报告还讨论了AGI对军备控制的挑战。传统军备控制对AGI来说并不适用,因为AI的民用和军事应用深度集成且往往功能相同。因此,建立一个监管、监控和核查机制将需要侵入性地了解国家军事和经济秘密。Jane Vaynman和Tristan A. Volpe提出,与其试图控制AI本身,治理工作应该集中在执行其军事应用的可区分性上。这将通过一个“人工智能卡特尔”来实现,由领先的国家和公司组成,建立和执行共同的标准,如可验证的水印、独特的硬件或特定的安全协议,使军事AI系统可观察并与民用AI系统区分开来。
这些观点提供了一个深刻的战略难题:速度对稳定性的影响。如果存在一个国家级AGI竞赛,它会像Kreps建议的那样更快地发生更稳定,还是应该优先考虑谨慎,以牺牲主动权为代价,认识到Brundage识别的固有危险?
另一个问题是实际能力和感知能力之间的关系。即使Fearon是对的,AGI不会颠覆核时代,AGI的感知力量将如何塑造国家行为?威慑是一种心理现象,正如Mueller建议的那样,对新能力的信仰可能与能力本身一样不稳定。
最后,国家和公司之间的竞争或合作也是必须考虑的问题。无节制的竞争是不可避免的,还是有机会实现Vaynman和Volpe提出的选择性、合谋治理?Vaynman和Volpe指出,对手有共同的利益,防止战略环境陷入不透明、不可验证的死区。
文章的灵感来自于报告《The Artificial General Intelligence Race and International Security》。这篇文章仅对报告内容进行了总体介绍,除了这份报告,还有一些同类型的报告也非常有价值,推荐阅读,这些报告我们都收录在同名星球,可以自行获取。
以上为节选样张,关注公众号【蝉鸣报告】回复领取PDF完整电子版(无广告)。
【蝉鸣报告】每日更新最新硬核报告,覆盖产业报告、全球化、经济报告、趋势等全领域。
蝉鸣报告(原爱报告知识星球)







