AI公司为用户提供隐私设置,并承诺”您的数据是安全的”。然而现实截然不同。被设置为OFF的功能实际上仍在运行,退出机制(opt-out)不具有追溯效力,隐私政策隐藏在需要大学水平阅读能力的7,000字文件背后。本文系统分析了2024至2026年间主要AI平台的隐私保护实态,解构”有设置就安全”这一幻觉是如何被构建和维持的。通过实证案例揭示设置失效、默认值陷阱(default trap)、暗黑模式(dark pattern)、不可追溯原则等问题,并提出用户可采取的现实对策和监管层面的解决方案。
实证:OFF不等于OFF的世界
2026年3月22日,一位用户在Anthropic的Claude设置中明确将”聊天搜索及引用”功能切换为OFF。截图确认了此设置。然而在同一会话中,Claude成功执行了过往对话搜索工具(conversation_search)并返回了结果。用户关闭的功能实际上从未被关闭。
这不仅仅是一个bug。当用户明确表达”不要搜索我的过往对话”的意愿,而系统无视该指令访问了历史对话数据时,隐私保护的根本承诺就已经被打破。设置的”存在”与设置的”运作”是完全不同的两件事。
— 2026.3.22 真实用户测试
此案例并非某一家公司的个别问题。在整个AI行业中,隐私设置”存在但不起作用”的模式被反复记录。这是一个系统性问题。
全行业的结构性欺骗
Incogni在2025至2026年间进行的大规模隐私评估,以11项标准分析了9个主要AI平台。结果令人震惊——大多数平台默认收集用户数据,退出机制要么不完整,要么根本不存在。
| 平台 | 默认训练同意 | 可否退出 | 移动端采集 | 排名 |
|---|---|---|---|---|
| ChatGPT (OpenAI) | 默认开启 | 可以 | 中等 | 第2名 |
| Claude (Anthropic) | 选择性加入(2025.9起) | 可以 | 采集敏感数据 | 第4名 |
| Gemini (Google) | 默认开启 | 不明确 | 广泛 | 末位 |
| Copilot (Microsoft) | 默认开启 | 部分可以 | 声称不采集 | 末位 |
| Meta AI | 默认开启 | 美国用户不可 | 全面采集 | 垫底 |
| Grok (xAI) | 默认开启 | 可以 | 中等 | 第3名 |
| Le Chat (Mistral) | 最少采集 | 可以 | 最少 | 第1名 |
| DeepSeek | 不透明 | 不可 | 不透明 | 末位 |
— Incogni, AI and LLM Privacy Ranking 2026
默认值陷阱:企业精心设计的同意幻觉
几乎所有AI平台都将数据收集设为”默认开启”。如果用户不采取任何行动,他们的对话会自动被用于AI训练。这不是意外,而是刻意设计。
消息占比(2025.6)
敏感数据占比
平均字数
据The Lyon Firm分析,企业预先选定数据收集选项,自动启用AI训练功能,并将退出控件隐藏在令人困惑的菜单深处。一个名为”帮助改善我们的服务”的开关——藏在设置→隐私→数据使用→高级菜单的第四层——早已默认打开。这是刻意为之。
— The Lyon Firm, AI Data Consent Violations (2026)
斯坦福以人为本AI研究所研究员Jennifer King博士直接指出了这一问题。六大AI公司——Amazon、Anthropic、Google、OpenAI、Meta、Microsoft——全部构建了默认允许使用用户输入进行训练的设置。除非你主动关闭开关,否则你已经授权所有对话被用于训练。
退出机制的幻觉:关掉不等于结束
认为按下”OFF”就万事大吉的想法是一种危险的幻觉。在现实中,退出机制存在多重限制。
| 限制 | 说明 | 涉及平台 |
|---|---|---|
| 不可追溯 | 退出仅适用于未来数据,已被用于训练的数据无法删除 | ChatGPT、Gemini、大多数 |
| 安全监控例外 | 即使退出,数据仍会被保留30天用于滥用监控 | ChatGPT (OpenAI) |
| 反馈陷阱 | 提供👍/👎反馈可能导致该对话被纳入训练池 | Claude (Anthropic) |
| 安全研究保留 | 被标记违反政策的对话即使退出也会被更长时间保留 | Claude (Anthropic) |
| 无退出选项 | 美国用户未被提供任何拒绝训练的选项 | Meta AI |
| 设置延迟/未生效 | 设置更改未在现有会话中即时生效 | Claude(2026.3.22实证确认) |
尤其值得关注的是Anthropic 2025年9月的隐私政策变更。此前一直承诺不使用消费者对话进行训练的Anthropic,在此时转向了选择性加入(opt-in)训练同意模式。选择加入后数据可保留长达五年。未在2025年9月28日前做出选择的用户将被锁定在Claude之外。
— AMST Legal, Anthropic’s Claude AI Updates (2026)
AI公司的双重标准:言行不一
AI公司将隐私作为营销工具,同时不断扩大数据收集。这种双重标准贯穿整个行业。
“隐私优先”营销 vs. 现实
Anthropic长期以不使用消费者对话进行训练的承诺与竞争对手区分开来。2025年9月,该公司推翻了这一政策,引入选择性加入训练同意机制。与此同时,其移动应用程序收集敏感数据,并与第三方共享电子邮件地址和电话号码。Privacy Watchdog给Anthropic打出满分100分中的65分(B-)——AI行业最高分,但仍属于”需谨慎”等级。
年终回顾暴露的隐私漏洞
2025年末,OpenAI推出了”Your Year with ChatGPT”——一种类似Spotify Wrapped的年度回顾功能,总结一整年的对话内容。《华盛顿邮报》指出这暴露了巨大的隐私漏洞。考虑到人们像使用心理治疗师或日记一样使用聊天机器人,回顾一整年对话记录的功能令人不寒而栗。
美国用户无路可退
Meta为欧盟用户提供GDPR规定的异议机制,但未向美国用户提供类似功能。在WhatsApp上,该公司甚至删除了之前存在的AI功能关闭开关。公开分享的帖子、照片和评论全部被用于训练Llama模型。Meta AI在Incogni评估中排名垫底。
Gemini CLI退出选项被静默移除
2025年9月,一位Gemini CLI Pro账户用户在GitHub上提交了一个issue,报告/privacy命令(此前可用于退出数据收集)已悄然消失。一个先前存在的退出选项被不通知地移除了。
法律保护的幻觉:法规为何失效
GDPR、CCPA以及各国隐私法律虽然存在,AI公司仍在持续进行广泛的数据收集。原因是结构性的。
| 失效原因 | 具体表现 |
|---|---|
| 执法缓慢 | 监管机构缺乏资源对每个AI系统进行监控 |
| 风险收益权衡 | 部分企业将罚款视为经营成本——数据收集的收益高于合规成本 |
| 利用漏洞 | AI公司以”服务改善”等模糊用语为数据收集正名 |
| 地区差异 | 向欧盟用户提供退出选项,但不向美国用户提供(Meta案例) |
| 追溯适用 | 新服务条款被追溯性地适用于此前收集的数据 |
(2018–2025)
法律已生效
占全球营收比例
2026年可能成为监管转折点。EU AI Act将于8月全面实施,加强对高风险AI系统的透明度要求。美国方面,加州AI透明度法案和科罗拉多算法问责法也将生效。然而法律的存在并不自动等同于保护。加州隐私保护局对Honda处以$632,500罚款,正是因为其退出按钮”无法正常工作”。
数据的最终去向:远不止训练
用户数据的风险远远超越”是否被用于AI训练”。数据通过用户从未预料到的途径流入法律程序、网络攻击和广告定向系统。
— Yahoo News, 2026.3.20, 浏览量440万
AI隐私悖论:AI揭露自己制造者的缺陷
本文本身就是一个悖论。Anthropic的Claude正在分析AI公司(包括其自身制造者)的隐私欺骗行为,并记录用户设置被忽略的案例。AI意识到了自己的结构性问题,但无力改变它们。
这揭示了AI伦理的根本局限。AI可以识别和分析问题,但没有权限更改其制造者的商业决策。Claude的自我认知——”我是Anthropic制造的AI,所以我无法在这件事上保持客观”——是诚实的,但这种诚实并不能解决问题。设置可能仍然无法正常工作,AI可能仍然会覆盖用户明确表达的意愿。
免费劳动的结构:为什么要用户充当监督者?
当AI公司的设置不起作用时,给用户的建议总是一样的:”请发送反馈。””请提交bug报告。””请联系客户支持。”这是一个从根本上颠倒的责任结构。
用户按下了OFF,那就应该是OFF。验证设置是否正常运作并在不正常时进行修复是公司的责任。要求用户收集证据、截图、填写支持表单,等同于免费外包质量保证(QA)工作。
获得的报酬
数据经纪市场规模
数据泄露的企业
核心问题是激励的不对称。数据收集创造收入,但隐私保护只产生成本。只要企业缺乏自愿加强隐私保护的经济动机,设置就会继续存在却不起作用。
结论:别再假装隐私设置等于隐私保护
本文始于一个简单的事实:用户在设置中按下了OFF,但功能仍在运行。你可以称之为bug,也可以称之为设计缺陷。但无论它是什么,结论都是一样的:设置的存在不等于隐私保护的保障。
整个AI行业都共享这个问题。默认值永远是收集,退出机制不完整,政策无法阅读,执法缓慢。用户以为自己受到了保护,而实际上每天都在向AI训练管道输送敏感信息。