自动化作战系统误击民用设施引全球关注

美以联合空袭行动首日,伊朗南部米纳布市一所配备运动场的学校被炸毁,造成包括学童在内的超过175人遇难。华盛顿与特拉维夫均未公开回应此事件,也未宣布对袭击负责。随着调查推进,一个关键问题浮出水面:是否存在人工智能系统在目标锁定环节出现严重误判?

智能系统替代人工完成大规模打击任务

在最初24小时内,美军共打击约1000个目标,平均每小时达42处。根据CSET对第18空降军的分析报告,借助名为“梅文”的智能系统,原本需2000人团队完成的空中作战协调工作,现仅由20人即可实现。至2024年末,该系统已集成消费级AI聊天机器人的同类型大语言模型,首次应用于实战中目标识别与锁定流程。 尽管美方表示仍在调查此次袭击,但并未说明“梅文”系统是否参与了该建筑的攻击指令生成,也未披露其具体介入程度。《纽约时报》此前报道指出,系统可能依赖过时情报运行。驻外记者路易莎·洛夫勒克在社交媒体透露,此次打击坐标所对应的区域,近期公开卫星图像清晰显示为配有运动场的学校,而原定目标却位于相邻的革命卫队驻地。

AI视觉识别存在结构性盲区

计算机科学家安·托蒂·阮的研究揭示了当前视觉语言模型的核心缺陷。其论文《视觉语言模型是盲视的:无法将细节视觉特征转化为语言》表明,当两座建筑紧邻时,此类系统难以准确区分功能属性。纽约时报提供的卫星图像显示,沙贾拉·塔伊贝小学正与伊朗革命卫队驻地毗邻,恰好印证了阮研究中警示的典型场景——即地理邻近性导致系统误判。 一旦发生误判,责任应由谁承担?前海军军官、安全与新兴技术中心高级研究员艾米莉亚·普罗巴斯科强调,军事行动的责任最终归属于下达指令的指挥官,这是军队运作的基本原则。她同时指出,“黑箱”问题——即无法追溯AI决策逻辑——仍是当前尚未解决的重大挑战。

私营企业参与军事系统引发伦理争议

战事爆发前,为“梅文”系统提供技术支持的Anthropic公司曾因两项争议与国防部产生合同纠纷:一是AI是否具备足够可靠性以支持生死决策;二是其整合零散数据的能力是否会使其演变为大规模监控工具。 普罗巴斯科认为这两项担忧具有现实基础。她同时指出,让私营公司自行设定军事技术使用边界本身即存在根本矛盾。分析人士霍兰德·米歇尔则强调,当前讨论常陷入极端假设——如完全自主的杀戮机器。他表示,这类风险虽存在,但并非当前实际状况。“更紧迫的任务,是提升AI系统的透明度,确保依赖其输出的人类能做出真正知情的决策,而非盲目信任机器建议。”

AI伪造战争内容蔓延加剧信息混乱

与此同时,利用人工智能生成的虚假战争影像在网络上迅速扩散。BBC核查团队追踪到多条涉及冲突的AI伪造视频与篡改卫星图像,累计获得数亿次浏览。昆士兰科技大学数字媒体研究员蒂莫西·格雷厄姆指出:“其规模已达到令人警醒的程度,这场战争使问题再无法被忽视。过去需要专业团队制作的视频,现在借助AI工具数分钟即可完成,制造逼真假战况影像的门槛已彻底崩塌。” 多家社交平台已采取应对措施。某平台宣布,若创作者发布未标注的AI生成战争影像,将被移出创作者收益计划。牛津互联网研究所伊朗问题研究员玛赫萨·阿里马尔达尼称此举“表明平台方已意识到问题的严重性”。然而,在被问及是否会跟进类似措施时,其他主流社交平台尚未作出回应。