点击蓝字
关注我们
海外智库观察
近年来,随着人工智能技术的快速发展,部分国家已经开始尝试将人工智能作为辅助国家战略博弈的新工具,应用于兵器推演、辅助外交决策、参与舆论分析等众多领域。2021年,美国国务卿安东尼·布林肯(Antony Blinken)提出了美国外交的现代化,并强调外交人员应增强在新兴技术领域的能力和专业知识,来促进外交转型;美国国务院发布了《2024-2025财年企业人工智能战略:通过负责任的人工智能加强外交》,提出了安全地利用的人工智能基础设施、培育拥抱人工智能的文化、确保人工智能负责任应用和创新的目标。如何发挥人工智能的工具性,使其更好地服务国家战略竞争,已经成为大国竞争的前沿问题。对此,本期智库观察选择美国战略与国际研究中心和大西洋理事会的两篇智库报告,以期更为深入的剖析人工智能作为一种工具在促进外交现代化和决策分析领域的优势。
Center for Strategic and International Studies,CSIS
将生成式人工智能工具与兵棋推演相结合将为外交决策提供多元化的参考
首先,作者强调了兵棋推演在美国战略分析中具有重要地位,同时指出了当前由美国政府主办的兵棋比赛存在着成本高、透明度低且夸大推演结果的问题。兵棋推演作为决策制定的试验田,通过模拟和发展预设的冲突场景与战争相关的假设和战略,为专业分析人员和决策者创造了一个可以评估权衡从战术选择到军队设计等方面的环境,既有助于塑造和指导决策者的认知,也能够提高公众对于相关问题的意识。然而,兵棋推演本质上是对现实模拟,无法对未来做出准确预测,其关键价值在于提供一个权衡各要素并进行分析决策的平台。当前,由美国政府主办的的现代兵棋推演比赛成本高昂、所使用的数据来源不透明,从而使从政府到民众都对兵棋推演得出结果的客观性产生怀疑。因此,作者提出,应当发挥人工智能工具的作用,将其应用于兵棋推演中,从而降低成本和做出更加准确的战略分析。
其次,作者阐释了造成兵棋推演成本高昂的两个因素,以及利用人工智能的益处。其一,传统的兵棋推演采用真人互动的模式。对此,作者建议分析人员利用生成式人工智能和大语言模型创建博弈角色,并使用经过调整的数据集训练博弈模型以代表不同的利益群体。这不仅可以有效地模拟不同利益群体在不同场景下的反应情况,从而使推演的结果更加可靠;还能够降低了成本,减少了参与者原先可能花费的费用。同时,兵棋推演的时间还将大大缩短,设计团队可以进行多轮推演博弈并收集到更多的关于决策过程的数据。其二,研究团队往往花费较长时间创建与现实情境相仿的情境和模拟的“世界格局”,而初始情境的错误设置会限制参与者的选择和影响参与者做出决策的方式,甚至可能导致“所有的道路都通往战争”。对此,作者建议兵棋推演的设计者利用包括Midjourney和DALL在内的生成式图像和文本降低成本,并创造多个可能出现的情境。研究人员还可以“定制”数据集并创建博弈参与者的复合体,并编写一系列不同初始条件的情景,从而为评估战略创造更大的空间,并揭示不同情境假设下,产生最大优势的方法和手段。此外,作者还指出了当前兵棋推演的报告缺乏方法论的问题,即报告仅仅呈现按照顺序列出的行动和反应,而缺乏对于这套反应背后因果机制的解释,因而在实践中难以完全复制。针对这种情况,作者建议未来利用生成式人工智能构建的兵棋推演应当设定一个科学的规则,并提炼出逻辑顺序,阐明对手在完全信息和不完全信息的情况下如何制定决策及其原因,并进行压力测试。
最后,作者指出,当前的生成式人工智能产品为降低兵棋推演的成本和提高战略分析的严谨性提供了可行方案,因此,作者呼吁国防部门开展行动:首先,支持类似“全球信息主导实验(Global Information Dominance Exercise)”的演习,其次,各军种应着手对较低层级的非涉密的人工智能展开测试;第三,加强对军事专业人员与大模型如何更好合作的研究;最后,对包括数据科学、停机学、研究方法和红队行动实践课程在内的军事专业教育进行广泛的改革,从而推进生成式人工智能在兵棋推演中的应用。
其次,作者强调了对人工智能相关的风险和挑战保持理性和清醒的认知的重要性,其风险主要集中于信息空间、技术自身的局限性和数据伦理等方面。首先,生成式人工智能可能被用来放大虚拟信息或错误信息,使外交人员参与公共外交的环境变得混乱和复杂。由于生成式人工智能的低成本和可访问性降低了虚假信息活动的准入门槛,导致一些深度伪造视频可能生成误导性的内容被发布在社交媒体上并被大量传播,因而生成式人工智能可能被恶意者利用扭曲信息环境,导致对美国外交人员的暴力行为和对美国的负面影响。其次,生成式人工智能其自身存在局限性,也具有潜在的负面外部性。由于个人层面的外交对外交人员的技能和心理素质有着较高的要求,因而外交人员不能全然依赖人工智能,还应认识到个体的感知在外交中同样具有重要性。一方面,尽管人工智能工具能够快速提炼关键信息,但外交人员更应培养对问题的全面理解和对追溯一手资料来源的意识;另一方面,尽管生成式人工智能是促进沟通的工具,但过于依赖人工智能可能会导致外交人员忽略细节或出现翻译不准确的问题,尤其是在高风险的外交对话中,要求美国国务院与技术专家和专业译者共同使用人工智能以提高准确性。第三,作为生成式人工智能的关键组成部分,数据对于外交人员理解一个国家的民众如何思考、感知和理解世界至关重要,而缺乏伦理规范的数据则会带来巨大风险。例如,非法或在不道德地情况下收集获取的数据可能引发不信任,以及数据集的透明度也会影响输出结果的可信度,外交官需要认识到某些数据集可能会产生偏见并对数据集及时修正。此外,美国国务院还应打开人工智能输出错误结果的“过程黑箱”,并改进模型,以避免重蹈覆辙。
[1]https://www.csis.org/analysis/it-time-democratize-wargaming-using-generative-ai
文章检索:周韫斐编译:朱奕霏、杨雨虹审核:王净宇排版:赵杨博终审:梁正、鲁俊群
清华大学人工智能国际治理研究院编上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG