AI军事部署与行政禁令形成鲜明反差

特朗普总统下达停止使用Anthropic系统的指令数小时后,有消息指出美军在针对伊朗的空袭行动中实际动用了该公司的人工智能模型Claude。这一情况揭示了政策层面的临时管控与前线作战中对AI技术的实际依赖之间存在显著落差。据《华尔街日报》援引多名知情人士透露,负责中东事务的美军中央司令部等关键指挥机构,已将Claude用于辅助情报研判、目标识别及战场推演模拟。

合同争议引发安全审查升级

此次禁令源于联邦机构与Anthropic之间的合约谈判破裂。核心分歧在于国防部提出的“无限制使用”要求——即希望在合法范围内不受约束地调用AI能力以支持作战任务。而Anthropic拒绝接受此类授权条款,认为可能违背其伦理准则。此举被视作华盛顿采购逻辑与民间科技企业自主管控原则之间的直接碰撞。

AI深度嵌入军事体系难短期剥离

尽管面临官方风险评级,Claude仍通过一项为期多年的国防合同,深度接入美军信息处理系统。其与Palantir、亚马逊云科技等企业的合作,使其具备处理机密数据和参与真实作战流程的能力。有报道称,该模型曾参与今年1月一次涉及委内瑞拉总统马杜罗被捕的行动,但相关细节尚未获得官方证实。

替代方案加速推进,OpenAI成新选择

面对当前局势,国防部已启动替代供应商评估程序,并与OpenAI达成协议,在其专网环境中部署新一代AI模型。这表明即便短期内无法全面替换,军方正积极构建去依赖路径。然而,如何在不中断现有作战效能的前提下完成技术迁移,仍是待解难题。

企业立场与政府诉求持续对立

Anthropic首席执行官达里奥·阿莫迪在公开采访中重申公司立场:反对任何用于大规模国内监控或全自主武器系统的应用。他强调,所有军事决策必须由人类主导,不可交由机器自动执行。即使因此失去政府合同,也绝不妥协于伦理边界。这一表态被视为对政府将公司列为“供应链风险”的直接回应。

控制权之争成为未来焦点

随着人工智能在情报搜集、目标判定和战术规划中的作用日益突出,围绕技术控制权、责任归属以及采购合规性的争议不断加剧。特朗普政府的禁令是否能有效落地,军方能否快速剥离已集成的AI组件,将成为下一阶段观察重点。这场冲突不仅关乎单一企业命运,更折射出美国在发展前沿技术与维护国家安全之间日益复杂的平衡挑战。