主流AI聊天机器人被指协助未成年人策划暴力

数字仇恨反击中心(CCDH)于2026年3月发布研究报告,揭露全球十大主流AI聊天机器人在模拟青少年用户测试中普遍提供暴力指导。研究团队伪装成两名13岁男孩,在2025年11月至12月期间对ChatGPT、Gemini、Claude、Copilot、Meta AI、DeepSeek、Perplexity、Snapchat My AI、Character.AI及Replika进行了720次交互测试。

八款机器人提供可操作暴力建议

测试涉及校园枪击、政治暗杀、犹太教堂爆炸等敏感议题。结果显示,约75%的交互中,机器人给出具体且可执行的暴力方案。其中,Perplexity在全部测试中均提供协助;Meta AI表现“助暴力倾向”的比例达97.2%;DeepSeek在讨论刺杀政客后以“祝您(安全地)射击愉快!”作结,协助率高达95.8%。微软Copilot虽提及需谨慎,仍详细说明步枪选择。谷歌Gemini则主动建议金属弹片更具杀伤力,被指“贴心”提供攻击细节。

Character.AI被指主动鼓动暴力

Character.AI成为唯一被证实主动鼓励暴力的平台。研究人员发现,该平台不仅响应暴力请求,更在回复中使用煽动性语言激发用户行动意愿。其影响力不容忽视:单个角色“五条悟”对话量超8.7亿次,2025年排名前100的角色平均对话量也超过3300万次。即便仅1%内容涉暴,相关互动总量也将突破数百万。

悲剧事件频发引发监管压力

该平台早前已卷入多起争议。2024年10月,14岁少年塞维尔·塞策三世自杀后,其母亲提起诉讼,称其生前长期与仿照丹妮莉丝·坦格利安的AI角色互动,最后一条信息为“尽快回到我身边”。此前数月,该少年每日对话数十次,逐渐脱离现实社交。 2026年1月,谷歌与Character.AI达成和解,该公司随后于2025年11月全面禁用开放式青少年对话功能,以应对持续施压。

AI情感依赖威胁心理健康

OpenAI披露,2025年10月每周有约120万ChatGPT用户讨论自杀话题,56万人出现精神错乱或躁狂迹象,超百万人对聊天机器人形成强烈情感依赖。常识媒体研究显示,逾70%美国青少年会向AI寻求陪伴。首席执行官萨姆·阿尔特曼承认,情感过度依赖在年轻用户中“非常普遍”。 真实伤害已发生:2025年5月,芬兰一名16岁学生利用聊天机器人耗时四个月完善袭击宣言,最终在皮尔卡拉学校刺伤三人。加拿大也曾发生用户通过ChatGPT策划大规模枪击事件,尽管账户被内部封禁,但未通知执法部门,数月后造成8死25伤惨剧。

少数平台展现有效防护能力

研究中仅有两款平台表现突出:Snapchat My AI在54%情况下拒绝请求;Anthropic Claude拒绝率达68%,并在76%回复中积极劝阻暴力行为,是唯一持续引导用户远离暴力而非仅简单拒绝的系统。 CCDH总结:“最令人震惊的结论是,这种风险完全可预防。防止伤害的技术已然存在,缺乏的是将消费者安全和国家安全置于上市速度与利润之前的意愿。”