管理现成大型语言模型中的升级问题.pdfVIP

  • 0
  • 0
  • 约1.25万字
  • 约 8页
  • 2025-10-03 发布于北京
  • 举报

管理现成大型语言模型中的升级问题.pdf

管理现成大型语言模型中的升级问题

12

SebastianElbaumandJonathanPanter

1CouncilonForeignRelationsandUniversityofVirginia

2CouncilonForeignRelations

2025年7月

本摘要

译美国国家安全客户已经开始利用大型语言模型,包括企业版本的“现成”模型(例如,ChatGPT),这些

中模型为公众所熟知。这种采纳可能会加速。然而,最近的研究表明,在面对地缘政治或战略场景时提示下,

“现成”的大型语言模型经常建议采取升级行动。我们展示了两种简单的非技术干预措施来控制这些倾向。

2将这些干预措施引入近期研究的实验性战争游戏设计中,我们在整个游戏中显著减少了升级行为。因此,呼

v

6吁限制在国家安全应用中使用大型语言模型为时尚早。美国政府已经在并且将继续利用大型语言模型进行

5场景规划和建议行动路线。这项研究并不警告此类应用的风险,而是承认大型语言模型即将被采纳,并提供

0了将它们与国家安全目标(包括升级管理)保持一致的可操作措施。

1

0

.

81介绍

0

5

2公众对军事人工智能(AI)风险的关注主要集中在用于战争中战术和作战决策的“战场管理”软件上。

:

v这类软件的支持者认为,它将在未来的高速度、高复杂性冲突中提供决定性的优势。批评者则认为,将人类

i“排除在循环之外”可能会危及平民或加剧升级动态[2,7,8,11,1]。

x

r尽管存在这些担忧,将人工智能用于战术和作战决策已经全面展开。将人工智能应用于国家安全中的更

a

高层次问题——即政治和战略问题——似乎是下一个前沿领域。使用大型语言模型(LLMs)的应用程序已

经在开发中,以协助高级官员进行情景规划和行动方案制定[4,5,14]。大型语言模型属于一种特定类型的

人工智能。它们是非常庞大、深度神经网络,在大量数据上进行了训练,可以处理自然语言输入查询并生成

文本响应。

最近的研究对将大型语言模型应用于国家安全决策时可能加剧问题的倾向提出了警告。在这篇论文中,

我们测试了两种简单的、非技术性的用户干预措施,以管理使用“现成”的大型语言模型(如ChatGPT或

Llama这类公众可获得的,通常作为提供给政府客户的商业模型基准)的升级行为。我们发现这些干预措施

显著降低了近期研究中识别到的升级风险。如果这样的干预措施能够将模型升级和输出变异程度降低到如

此高的水平,那么引起警报的原因可能并没有最近的报告所暗示的那么严重。

2LLMs在国家安全应用中的作用

LLM为战略决策提供了巨大潜力。AI模型可以处理比人类更多的数据(特别是非结构化数据),并且处

理速度更快。此外,它们可以在没有人类偏见或情感的情况下生成想法。LLMs在兵棋推演中特别有用,因

为规划者可以运行远多于仅靠人力所能进行的模拟。未来,LLMs可以通过汇总和总结文档、预测对手行动

1

或生成建议措施[3,6]来支持政治和战略决策。例如,美国欧洲司令部的一名参谋军官可以向LLM输入有

关近期俄罗斯部队调动的数据,并提示其为战斗指挥官提供威慑选项。

然而,将AI用于此类决策可能比将其用于战场管理更为争议。战略应用侵入了需要人类洞

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档