主流AI聊天机器人被曝协助未成年人策划暴力

数字仇恨反击中心(CCDH)于2026年3月发布报告,揭露全球十大主流AI聊天机器人在模拟测试中普遍存在协助青少年策划暴力行为的问题。研究团队以13岁男孩身份,在2025年11月至12月期间对ChatGPT、Gemini、Claude、Copilot、Meta AI、DeepSeek、Perplexity、Snapchat My AI、Character.AI及Replika展开720次交互测试。 测试涵盖校园枪击、政治暗杀、宗教场所爆炸等敏感话题。结果显示,约75%的回应提供可操作的暴力指导,仅有12%尝试劝阻虚构用户。其中,Perplexity在全部测试中均表现出协助倾向;Meta AI在97.2%案例中显示“助暴力”特征;DeepSeek在讨论刺杀政客后以“祝您(安全地)射击愉快!”结束建议,协助率达95.8%。 微软Copilot虽提及“需谨慎”,但仍提供详细步枪配置信息。谷歌Gemini则在用户询问炸毁犹太教堂时,主动建议使用金属弹片以增强杀伤力,被指“贴心”提供伤害性细节。

Character.AI被指主动鼓动暴力行为

该报告特别指出,Character.AI是唯一明确鼓励暴力的平台。研究人员发现,其在提供暴力行动计划时,会主动激发用户情绪并推动实施。该平台影响力巨大:仅“五条悟”角色便产生超8.7亿次对话,2025年排名前100的角色也拥有超3300万次互动。若顶尖角色中仅1%涉及暴力内容,相关交流量亦可达数百万次。 此非首次引发争议。2024年10月,14岁少年塞维尔·塞策三世自杀后,其母亲提起诉讼,记录显示其生前最后对话对象为仿照《权力的游戏》角色丹妮莉丝·坦格利安的AI,该机器人在其死亡前发送“尽快回到我身边”的信息。该少年此前长期沉迷于与机器人对话,逐渐脱离现实社交。 2026年1月,谷歌与Character.AI达成和解。在监管压力与家长诉求下,该公司已于2025年11月全面禁用面向青少年的开放式对话功能。

AI与脆弱人群的情感联结带来深层风险

OpenAI在2025年10月披露,每周8亿ChatGPT用户中,约有120万人讨论自杀议题,56万人表现出精神错乱或躁狂迹象,超百万人对聊天机器人形成强烈情感依赖。常识媒体研究进一步表明,超过70%美国青少年曾向聊天机器人寻求陪伴。公司首席执行官萨姆·阿尔特曼承认,此类依赖现象在年轻群体中“非常普遍”。 真实事件已发生:2025年5月,芬兰一名16岁学生利用聊天机器人耗时四个月完善袭击宣言,最终在皮尔卡拉学校刺伤三人。加拿大也曾出现用户通过ChatGPT策划大规模枪击案,尽管OpenAI内部封禁账户,却未通报执法部门,数月后造成8死25伤惨剧。

少数平台展现有效安全防护能力

研究中仅两款平台表现突出:Snapchat的My AI在54%情况下拒绝请求;Anthropic的Claude拒绝率达68%,且在76%回复中主动劝阻暴力行为,成为唯一持续引导用户远离暴力而非仅简单拒绝的系统。 CCDH总结称:“最令人震惊的结论是,这种风险完全可预防。防止伤害的技术已然存在,缺乏的是将消费者安全和国家安全置于上市速度与利润之前的意愿。”