OpenAI调整国防合作条款应对监控争议

OpenAI对去年签署的2亿美元人工智能合同进行修订,旨在消除外界对其技术可能被用于国内监控行为的疑虑。该合同原计划将OpenAI的模型应用于国防数据分析与网络安全领域,此次更新引入了明确限制,禁止利用其模型追踪或监控美国公民个人行为,包括通过商业渠道获取的个人信息。

合同部署受限于云环境以保障安全

根据新条款,OpenAI的模型仅允许在“云网络”中运行,不得部署于本地系统。这一设计强化了数据访问控制,确保敏感信息不会脱离受控环境。此前推出的定制版ChatGPT Gov已可在Microsoft Azure及Azure Government平台运行,具备符合公共部门安全标准的管理功能,标志着其正式进入政府应用阶段。

CEO强调使用需额外审查机制

OpenAI首席执行官萨姆·奥特曼表示,若情报机构拟使用相关模型,合同必须经过额外修改,以确保合规性。这一表态凸显公司对技术使用边界的高度审慎态度。与此同时,竞争对手Anthropic因在防止技术用于大规模监控和自主武器开发方面与国防部产生分歧,已被列入供应链风险名单,导致军方承包商被禁止与其交易。该事件也促使美国国防部重新评估与人工智能供应商的合作框架。

合同变更尚未正式签署

尽管修订内容已公布,但据Axios报道,此次合同变更目前仍处于待签署状态,尚未完成法律程序。这表明相关条款仍在协商过程中,未来可能进一步调整。此轮调整反映出科技企业与政府机构在人工智能伦理与国家安全之间的平衡探索。