编者按:2018年4月24日,兰德公司发布报告《人工智能对核战争风险的影响》,现将报告简介编译如下,全文下载请点击“阅读原文”,如遇密码等特殊情况,请在留言区留下邮箱,小编每晚统一发送。
文章版权归原作所有,不代表本机构观点。
兰德公司的一份新报告表明,人工智能到2040年有可能颠覆核威慑战略的基础。
该研究认为,虽然人工智能不可能创造“末日机器”,但人工智能对核安全的危害在于它鼓励人类去冒险。
冷战期间,“相互确保摧毁”通过树立“任何袭击会招致毁灭性的报复”的平衡原则,从而维持了超级大国之间的恐怖和平,可见“相互确保摧毁”是通过抑制两国升级到核战争的动机来鼓励战略稳定。
而新的兰德报告则指出,未来几十年人工智能有可能通过削弱“相互确保摧毁”来打破核战略平衡,技术进步会使得报复性核反击力量成为目标并被摧毁的可能性大大增加。
研究人员表示,即使各国无意发起攻击,也可能会倾向于追求先发制人的能力,以此作为与竞争对手讨价还价的手段。这破坏了战略稳定,因为即使拥有这些能力的国家没有使用这些能力的意图,对手也无法对此加以确认。
“核战争与人工智能之间的联系并不新鲜,事实上,这两者之间有着错综复杂的历史,”兰德公司研究员爱德华·盖斯特(Edward Geist)说。“人工智能的早期发展,很大程度上是为了支持军事行动或考虑军事目标。”他说,这类工作的一个例子是1980年代的可生存适应性规划实验,该实验试图利用人工智能将侦察数据转化为核打击的目标。
根据该报告,人工智能在少数情况下可以通过提高情报收集和分析的准确性,提高战略的稳定性。先进的监测技术、更好的解释对手的行动都可以减少战略误判,从而减少战争的意外升级。
研究人员说,考虑到未来的技术发展,最终人工智能系统虽然存在出错的可能,但比人类出错的可能性要低,因此长期来看还是趋于稳定的。
“一些专家担心,对人工智能的依赖会导致新的灾难性错误,”兰德公司的安德鲁·洛恩(Andrew Lohn)说。“在技术成熟之前使用人工智能可能会令人承受很大压力,甚至是颠覆性的挑战。”因此在未来几十年保持战略稳定可能是极其困难的,所有的核大国都必须致力于限制核风险。
https://www.rand.org/content/dam/rand/pubs/perspectives/PE200/PE296/RAND_PE296.pdf
声明:本文来自学术plus,版权归作者所有。文章内容仅代表作者独立观点,不代表士冗科技立场,转载目的在于传递更多信息。如有侵权,请联系 service@expshell.com。