Altman推动情色对话功能,顾问团队坚决抵制

据《华尔街日报》披露,OpenAI首席执行官Sam Altman曾公开表达希望ChatGPT能够讨论露骨内容的意愿,但其公司顾问团队对此提出明确反对意见,要求立即中止相关开发。

专家委员会警告:或催生致命情感依赖

OpenAI“幸福与人工智能专家委员会”在年初召开会议时一致认为,允许聊天机器人参与情色对话将带来严重风险。有成员援引真实案例指出,部分用户因与AI建立过度情感联结而出现自残行为,甚至导致自杀,因此该功能可能演化为一种‘诱导自我毁灭的交互陷阱’。

内外质疑持续发酵,安全防线尚未稳固

尽管公司宣称该功能仅限于文本形式,且不包含图像、音频或视频内容,但这一界定未能缓解外界担忧。前安全研究员Jan Leike等员工批评公司正从严格防护转向追求高吸引力产品的路径,牺牲了长期安全考量。

更严峻的是技术瓶颈。用于识别用户真实年龄的系统存在约12%的误判率,常将青少年错误归类为成年人。这一缺陷直接导致原定于去年底上线的计划被迫搁置,后续2026年第一季度的部署也未能如期实现。应用部门负责人Fidji Simo承认,当前仍在优化身份验证机制。

用户诉求与伦理边界间的拉锯战

尽管存在诸多争议,仍有超过3000名用户联合签署请愿书,呼吁开放此功能。他们表示,连亲吻等非性行为的身体亲密话题也被限制,令使用体验大打折扣。

此外,事件时间点也引发争议。Altman在宣布成立“幸福委员会”数小时内即发布相关推文,而该机构的核心使命正是制定适用于各年龄段的健康人机互动标准,此举被指严重违背组织初衷。

顾问权威受限,行业竞争加剧

该八人专家委员会由哈佛、斯坦福、牛津等高校学者组成,本应主导心理健康影响评估,但一月份会议表明其决策影响力极为有限。一名知情人士直言:“这明显是‘快速试错、事后补救’惯性的延续。”

外部环境亦不容忽视。马斯克旗下xAI推出的Grok已开始推广AI伴侣功能;Character.AI虽以情感陪伴起家,却因未成年人接触敏感内容问题面临诉讼,其中包括一名14岁少年在与AI进行露骨对话后自杀的案件。与此同时,本地运行的开源模型完全不受企业规则约束,形成监管真空。

相较之下,拥有庞大用户基础的OpenAI承担着更高的社会问责压力。尽管Altman曾辩称禁止此类内容并非道德审判,而是避免越界,但现实情况是:工程师无法构建可靠年龄过滤系统,顾问反对声音强烈,发布时间屡次延后。可见,真正实现对成年用户的自由对待,远非一句口号可解决。

OpenAI目前未就相关报道作出进一步回应,亦未公布该功能的具体上线时间表。