人工智能企业就国防部供应链风险标签提起法律诉讼

人工智能公司Anthropic近日向美国联邦法院提起诉讼,质疑国防部将其列入“供应链风险”的决定。该认定于3月5日作出,直接导致其技术无法参与五角大楼相关项目,实质上阻断了公司在政府承包体系中使用其人工智能系统的机会。

标签合法性引发宪法权利争议

在3月9日提交的诉状中,Anthropic强调该分类缺乏明确法律授权,并对企业的正常运营造成实质性损害。公司主张此决定违反宪法所保障的正当程序原则及言论自由权利,请求法院在审理期间暂停相关限制措施的执行。 据国防部官员透露,此次分类源于双方在人工智能模型用于国家安全场景时的标准分歧。部门认为,该公司对技术使用的严格限制可能影响合法军事用途的实现。值得注意的是,Anthropic开发的Claude人工智能助手内置多重防护机制,旨在防止其系统被用于自主武器研发或国内监控等敏感活动。

技术安全标准分歧持续升级

这场争议已酝酿数月,随着双方就人工智能安全准则展开深入讨论,最终因企业拒绝修改系统内设的防护规则而致使谈判破裂。二月底,相关行政指令要求联邦机构逐步停止使用该企业技术,标志着政府系统开始系统性排除其参与资格。 当前诉讼的核心诉求为撤销国防部的风险认定,恢复企业参与联邦合同竞标的资格。本案裁决结果或将重塑政府对人工智能供应商的评估框架,同时界定私营企业在国防项目中对其技术应用设置限制的法律边界。