OpenAI与五角大楼合作引发技术伦理争议

OpenAI本周末宣布已与美国国防部达成协议,在机密环境中部署其先进人工智能系统,标志着该公司与军方合作范围的显著扩展。该消息发布前不到24小时,特朗普政府将竞争对手Anthropic列入黑名单,指控其构成“供应链风险”,并要求联邦机构立即停止使用其技术产品。

合同措辞与伦理红线之间的张力

OpenAI在其博客中明确列出三项不可妥协的承诺:禁止用于大规模国内监控、独立引导自主武器系统,以及社会信用评分等高风险自动化决策。然而,实际合同条款并未以禁令形式呈现,而是采用“所有合法目的”的表述,强调系统可在符合法律、操作规范及安全监督的前提下使用。 这一措辞正是此前Anthropic拒绝接受的核心原因。尽管两者均声明坚守伦理底线,但开放性授权框架使实际限制取决于不断演变的法律解释与政策指令,而非由供应商单方面设定。

“合法”背后的模糊边界

在武器使用方面,协议规定:当现有法律或政策要求人类控制时,系统不得用于独立引导自主武器。然而,“人类控制”并非强制标准,而“适当程度的人类判断”则具有高度主观性。国防学者指出,省略“人在回路”一词是刻意为之,旨在保留行动灵活性。 同样,监控条款虽禁止“无约束的监控”,却允许受授权的活动,且援引《第四修正案》《外国情报监视法》及12333号行政命令。其中12333号命令被用于为境外监听美国人通讯提供依据,暗示某种形式的大规模监控可能在特定条件下被视作合法。

技术架构与现实影响的落差

OpenAI强调其系统为纯云端部署,无法实现边缘端致命决策闭环,构成实质技术屏障。但即便如此,系统仍可执行目标识别、行为分析与任务规划,这些功能属于杀伤链关键环节,结果不因部署位置而改变。 这种技术保障虽具说服力,但在实际应用中,其作用受限于整体作战流程设计,难以完全排除潜在滥用风险。

用户反弹与市场反应

面对争议,奥特曼在问答会上表示,若被要求从事违宪或违法行为,公司将退出合作。这一表态将底线锚定于“合法性”,而非基于自身伦理判断,与Anthropic坚持的“明确书面禁令”立场形成根本分歧。 此举引发强烈反弹。“QuitGPT”运动迅速发酵,截至周一已有超150万人参与抵制,包括取消订阅、分享反对内容及注册抗议平台。与此同时,Anthropic的Claude成为美国苹果应用商店下载量最高的免费应用,单日注册量创纪录。 名人效应加剧舆论传播,歌星凯蒂·佩里公开转发Claude定价页面截图。多平台用户记录退订过程,旧金山办公室外出现支持涂鸦,而OpenAI人行道亦遭粉笔攻击。部分员工曾联名支持Anthropic拒签决定,凸显内部分歧。

双重标准?伦理困境的真实图景

尽管“QuitGPT”运动塑造了鲜明对立叙事,但事实更为复杂。Anthropic本身也与Palantir、AWS建立合作,其模型已被用于涉及境外政权更迭的情报行动。这意味着,两家公司在国家安全领域的参与程度均非零,伦理瑕疵存在于双方实践之中。 真正引发关注的是二者对限制方式的选择差异:一个依赖法律框架与技术控制,另一个追求明确文本约束。公众通过订阅行为作出投票,反映出对透明度与可预测性的深层期待。

未来挑战:从合同到信任

此次事件揭示了一个核心问题:当人工智能深度嵌入国家权力结构时,企业如何定义其责任边界?仅靠技术隔离或法律合规已不足以重建公众信任。真正的考验在于,能否在保持合作的同时,建立可验证、可审计、可问责的治理机制。而这,远非一份合同所能解决。