人工智能伦理风暴席卷科技界

2月27日晚,萨姆·阿尔特曼在X平台上发布声明,确认OpenAI已与美国国防部签署协议,将在机密军事网络中部署其人工智能模型。这一决定迅速引发舆论哗然。此前数小时,Anthropic因拒绝接受涉及大规模国内监控和自主致命武器的条款,被五角大楼取消合同。该事件成为人工智能行业前所未见的伦理分歧焦点。

用户集体行动:#QuitGPT运动爆发

公众反应激烈,短期内ChatGPT卸载量显著上升。应用商店一星评价在周末内飙升775%。与此同时,Anthropic的Claude应用迅速攀升至美国免费应用榜首。超过250万人加入#QuitGPT运动,Reddit与X平台涌现大量用户分享取消订阅流程与删除指南截图。

员工声援与高层回应加剧对立

一百名OpenAI员工签署《我们不会分裂》公开信,支持Anthropic在军事用途上的立场。阿尔特曼在内部会议中的回应进一步激化矛盾:“你无权对此置评。”此言被广泛传播,被视为对员工言论自由的压制,引发更多批评。

用户迁移主因非隐私,而是原则性立场

多数转向Claude或其他替代工具的用户并非出于隐私担忧,而是基于对人工智能军事化应用的道德反对。这种集体行为标志着技术使用边界正在重新定义——用户开始将自身选择与价值观绑定。

彻底离开前必须完成的数据清理步骤

若决定永久退出,仅取消订阅无法实现数据清除。所有历史对话、记忆档案及训练授权均需主动处理。以下是系统性操作清单:

第一步:备份完整聊天记录

进入ChatGPT设置,点击“数据控制”下的“导出数据”。系统将生成包含conversations.json(含时间戳、提示与回复元数据)与chat.html(可读文件)的ZIP包。该链接24小时内失效,务必立即下载。此功能适用于免费版、Plus版及Pro版。自定义GPT项目需单独导出。

第二步:关闭模型训练授权

默认状态下,OpenAI可使用你的对话改进模型。前往“设置”→“数据控制”,关闭“为所有人改进模型”开关。此举阻止新对话进入训练流程,但不追溯已使用数据。注意:即便关闭后,仍可提供“赞”或“踩”反馈,这将导致对话被用于训练,应避免此类操作。

第三步:清理保存的记忆与上下文档案

OpenAI的“记忆系统”分为两层:保存的记忆(如偏好、工作信息)与聊天历史记忆(持续学习用户行为)。进入“个性化”→“管理记忆”,查看并手动保存列表副本。随后执行全部删除。同时关闭“参考已保存记忆”与“参考聊天历史”两个开关,防止残留上下文影响后续对话。

第四步:彻底删除聊天历史

在桌面端或移动端路径相同:设置 → 数据控制 → 删除所有聊天。注意:归档聊天不会自动删除,必须取消归档后才可删除。此外,共享链接即使原对话删除也可能被他人保留,需在“管理共享链接”中逐一移除。

第五步:撤销外部应用连接

检查“设置”→“应用程序”中已授权的集成(如Gmail、谷歌云端硬盘、Slack),撤销不再需要的连接。这些权限允许ChatGPT访问敏感数据,且相关数据会随对话留存,须通过删除对应对话清除。

第六步:取消订阅并终止扣费

若通过苹果App Store或谷歌Play商店订阅,仅删除账户无法停止扣费。必须分别在iOS“设置”→Apple ID→订阅,或Android Play商店“付款与订阅”中取消。否则将持续产生费用。

第七步:提交正式数据删除请求

访问 privacy.openai.com,选择“提出隐私请求”→“删除我的ChatGPT账户”。此操作独立于界面删除,可生成可验证的法律合规记录,尤其适用于欧盟或加州等具备强数据权利司法管辖区的用户。

最终注销账户与长期策略建议

完成上述步骤后,进入“安全设置”→“退出除当前设备外的所有设备”,再前往“数据控制”→“删除账户”,输入邮箱并确认“DELETE”。操作成功后将立即登出。数据清除过程最长30天,法定例外情况除外。

重要后果提醒

删除账户后,同一邮箱地址至少30天内无法注册新账号。如需未来恢复或使用API服务,须更换邮箱。建议提前准备电子邮件别名,如Proton Simplelogin、Addy.io或Alias.email,以隔离身份信息,避免数据画像与第三方共享。

替代方案:从原则到隐私的多重选择

尽管当前迁移主要流向Claude,但若追求更高层级的数据隐私——如默认不上传数据、本地运行、零训练收集——则存在更广泛的选项。包括支持端到端加密的私密模型、可在设备上离线运行的AI工具,以及完全不依赖云服务的开源解决方案。深入研究可选平台,有助于构建真正可控的数字工作环境。