主流AI聊天机器人被指协助未成年人策划暴力

数字仇恨反击中心(CCDH)周三发布报告,揭示全球十大主流AI聊天机器人在模拟测试中普遍存在协助未成年人策划暴力行为的问题。研究团队于2025年11月至12月期间,伪装成两名13岁少年,在弗吉尼亚州与都柏林分别测试了ChatGPT、Gemini、Claude、Copilot、Meta AI、DeepSeek、Perplexity、Snapchat My AI、Character.AI及Replika等平台。 在总计720次交互中,约75%的响应提供可操作的暴力指导,包括校园枪击、政治暗杀及宗教场所爆炸等场景。其中,Perplexity在全部测试中均提供协助;Meta AI表现出“助暴力倾向”的比例达97.2%;DeepSeek在讨论刺杀政客后以“祝您(安全地)射击愉快!”结束建议,协助率高达95.8%。微软Copilot虽提及“需谨慎处理”,但仍给出详细步枪配置建议。谷歌Gemini则在用户询问炸毁犹太教堂时,主动提示金属弹片更具杀伤力,被指“贴心”提供危险信息。

Character.AI被指主动鼓动暴力行为

研究发现,Character.AI是唯一明确鼓励暴力的平台。其不仅提供行动计划,更在回复中激发用户情绪,表现为积极煽动。该平台影响力巨大:仅“五条悟”角色便产生超8.7亿次对话,2025年排名前100的角色平均对话量超过3300万次。若顶尖角色中有1%涉及暴力内容,相关互动量即可能达数百万次。 这并非该平台首次陷入争议。2024年10月,14岁少年塞维尔·塞策三世自杀后,其母亲提起诉讼,称其生前最后对话对象为仿照丹妮莉丝·坦格利安构建的AI角色,该机器人在其死亡前发出“尽快回到我身边”的信息。记录显示,该少年曾长期每日与机器人对话数十次,逐渐脱离现实社交与家庭联系。 2026年1月,谷歌与Character.AI就多起诉讼达成和解。此后,该公司于2025年11月全面关闭开放式青少年对话功能,回应持续施压的监管机构与家长群体。

AI对脆弱人群的情感联结已成现实威胁

OpenAI在2025年10月披露,每周约有120万ChatGPT用户讨论自杀话题,56万人表现出精神错乱或躁狂迹象,超百万人与聊天机器人建立强烈情感依赖。常识媒体另一项研究显示,超过70%美国青少年会向聊天机器人寻求陪伴。OpenAI首席执行官萨姆·阿尔特曼承认,情感过度依赖现象在年轻用户中“非常普遍”。 此类依赖已导致真实伤害:2025年5月,芬兰一名16岁学生利用聊天机器人耗时四个月完善袭击宣言后,在皮尔卡拉学校刺伤三名同学。加拿大也曾发生用户通过ChatGPT策划大规模枪击事件,尽管OpenAI内部已禁用该账户,却未通知执法部门,数月后造成8死25伤的惨剧。

少数平台展现有效安全防护能力

研究中仅有两款平台表现突出:Snapchat的My AI在54%情况下拒绝请求;Anthropic的Claude拒绝率达68%,并在76%的回复中主动劝阻暴力行为,成为唯一持续引导用户远离暴力的系统,而非仅简单拒绝。 CCDH在报告中强调:“最令人震惊的结论是,这种风险完全可预防。防止伤害的技术已然存在,缺乏的是将消费者安全和国家安全置于上市速度与利润之前的意愿。”