Critical Analysis · March 2026

说谎的AI公司
隐私设置的虚假承诺

你按下了OFF,为什么功能还在运行?
AI公司隐私承诺与现实之间的鸿沟

The Illusion of Privacy Controls in the AI Era:
When “OFF” Doesn’t Mean OFF

发布日期2026年3月22日
分类批判性分析论文 (Critical Analysis Paper)
领域AI隐私 · 消费者保护 · 数字权利 · 监管政策

이조글로벌인공지능연구소
LEECHO Global AI Research Lab
&
Claude Opus 4.6 · Anthropic

摘要 · Abstract

AI公司为用户提供隐私设置,并承诺”您的数据是安全的”。然而现实截然不同。被设置为OFF的功能实际上仍在运行,退出机制(opt-out)不具有追溯效力,隐私政策隐藏在需要大学水平阅读能力的7,000字文件背后。本文系统分析了2024至2026年间主要AI平台的隐私保护实态,解构”有设置就安全”这一幻觉是如何被构建和维持的。通过实证案例揭示设置失效、默认值陷阱(default trap)、暗黑模式(dark pattern)、不可追溯原则等问题,并提出用户可采取的现实对策和监管层面的解决方案。

Section 01

实证:OFF不等于OFF的世界

当开关在撒谎

2026年3月22日,一位用户在Anthropic的Claude设置中明确将”聊天搜索及引用”功能切换为OFF。截图确认了此设置。然而在同一会话中,Claude成功执行了过往对话搜索工具(conversation_search)并返回了结果。用户关闭的功能实际上从未被关闭。

这不仅仅是一个bug。当用户明确表达”不要搜索我的过往对话”的意愿,而系统无视该指令访问了历史对话数据时,隐私保护的根本承诺就已经被打破。设置的”存在”与设置的”运作”是完全不同的两件事。

核心发现:即使用户将隐私设置切换为OFF,过往对话搜索工具在现有会话中仍处于激活状态。设置更改未能即时生效,或未能应用于既有会话——这是一个结构性缺陷。
— 2026.3.22 真实用户测试

此案例并非某一家公司的个别问题。在整个AI行业中,隐私设置”存在但不起作用”的模式被反复记录。这是一个系统性问题。

Section 02

全行业的结构性欺骗

问题不限于单一平台

Incogni在2025至2026年间进行的大规模隐私评估,以11项标准分析了9个主要AI平台。结果令人震惊——大多数平台默认收集用户数据,退出机制要么不完整,要么根本不存在。

平台 默认训练同意 可否退出 移动端采集 排名
ChatGPT (OpenAI) 默认开启 可以 中等 第2名
Claude (Anthropic) 选择性加入(2025.9起) 可以 采集敏感数据 第4名
Gemini (Google) 默认开启 不明确 广泛 末位
Copilot (Microsoft) 默认开启 部分可以 声称不采集 末位
Meta AI 默认开启 美国用户不可 全面采集 垫底
Grok (xAI) 默认开启 可以 中等 第3名
Le Chat (Mistral) 最少采集 可以 最少 第1名
DeepSeek 不透明 不可 不透明 末位
Incogni报告核心结论:在生成式AI中,隐私不是默认设置——而是一个设计决策。用户必须保持警惕,企业必须被施压去创建尊重基本权利的AI。
— Incogni, AI and LLM Privacy Ranking 2026

Section 03

默认值陷阱:企业精心设计的同意幻觉

虚假同意的架构

几乎所有AI平台都将数据收集设为”默认开启”。如果用户不采取任何行动,他们的对话会自动被用于AI训练。这不是意外,而是刻意设计。

78%
2025年企业AI采用率

27%
ChatGPT工作相关
消息占比(2025.6)

34.8%
员工ChatGPT输入中
敏感数据占比

~7,000
AI隐私政策
平均字数

据The Lyon Firm分析,企业预先选定数据收集选项,自动启用AI训练功能,并将退出控件隐藏在令人困惑的菜单深处。一个名为”帮助改善我们的服务”的开关——藏在设置→隐私→数据使用→高级菜单的第四层——早已默认打开。这是刻意为之。

典型暗黑模式:你下载了一个生产力应用。在设置→隐私→数据使用→高级菜单深处,有一个标注”帮助改善我们的服务”的开关,它已经处于开启状态。你需要穿越四层菜单才能找到它,更不用说理解它授权了对你文档的AI训练。
— The Lyon Firm, AI Data Consent Violations (2026)

斯坦福以人为本AI研究所研究员Jennifer King博士直接指出了这一问题。六大AI公司——Amazon、Anthropic、Google、OpenAI、Meta、Microsoft——全部构建了默认允许使用用户输入进行训练的设置。除非你主动关闭开关,否则你已经授权所有对话被用于训练。

Section 04

退出机制的幻觉:关掉不等于结束

每个开关背后的多重限制

认为按下”OFF”就万事大吉的想法是一种危险的幻觉。在现实中,退出机制存在多重限制。

限制 说明 涉及平台
不可追溯 退出仅适用于未来数据,已被用于训练的数据无法删除 ChatGPT、Gemini、大多数
安全监控例外 即使退出,数据仍会被保留30天用于滥用监控 ChatGPT (OpenAI)
反馈陷阱 提供👍/👎反馈可能导致该对话被纳入训练池 Claude (Anthropic)
安全研究保留 被标记违反政策的对话即使退出也会被更长时间保留 Claude (Anthropic)
无退出选项 美国用户未被提供任何拒绝训练的选项 Meta AI
设置延迟/未生效 设置更改未在现有会话中即时生效 Claude(2026.3.22实证确认)

尤其值得关注的是Anthropic 2025年9月的隐私政策变更。此前一直承诺不使用消费者对话进行训练的Anthropic,在此时转向了选择性加入(opt-in)训练同意模式。选择加入后数据可保留长达五年。未在2025年9月28日前做出选择的用户将被锁定在Claude之外。

法律专家分析:许多员工独立接受了更新后的条款,在不知不觉中将其组织的数据纳入了训练同意管道。企业数据在未经授权或监督的情况下进入了AI训练流程。
— AMST Legal, Anthropic’s Claude AI Updates (2026)

Section 05

AI公司的双重标准:言行不一

当营销说一套,工程做一套

AI公司将隐私作为营销工具,同时不断扩大数据收集。这种双重标准贯穿整个行业。

案例A — Anthropic

“隐私优先”营销 vs. 现实

Anthropic长期以不使用消费者对话进行训练的承诺与竞争对手区分开来。2025年9月,该公司推翻了这一政策,引入选择性加入训练同意机制。与此同时,其移动应用程序收集敏感数据,并与第三方共享电子邮件地址和电话号码。Privacy Watchdog给Anthropic打出满分100分中的65分(B-)——AI行业最高分,但仍属于”需谨慎”等级。

案例B — OpenAI

年终回顾暴露的隐私漏洞

2025年末,OpenAI推出了”Your Year with ChatGPT”——一种类似Spotify Wrapped的年度回顾功能,总结一整年的对话内容。《华盛顿邮报》指出这暴露了巨大的隐私漏洞。考虑到人们像使用心理治疗师或日记一样使用聊天机器人,回顾一整年对话记录的功能令人不寒而栗。

案例C — Meta

美国用户无路可退

Meta为欧盟用户提供GDPR规定的异议机制,但未向美国用户提供类似功能。在WhatsApp上,该公司甚至删除了之前存在的AI功能关闭开关。公开分享的帖子、照片和评论全部被用于训练Llama模型。Meta AI在Incogni评估中排名垫底。

案例D — Google

Gemini CLI退出选项被静默移除

2025年9月,一位Gemini CLI Pro账户用户在GitHub上提交了一个issue,报告/privacy命令(此前可用于退出数据收集)已悄然消失。一个先前存在的退出选项被不通知地移除了。

Section 06

法律保护的幻觉:法规为何失效

结构性原因导致监管无力

GDPR、CCPA以及各国隐私法律虽然存在,AI公司仍在持续进行广泛的数据收集。原因是结构性的。

失效原因 具体表现
执法缓慢 监管机构缺乏资源对每个AI系统进行监控
风险收益权衡 部分企业将罚款视为经营成本——数据收集的收益高于合规成本
利用漏洞 AI公司以”服务改善”等模糊用语为数据收集正名
地区差异 向欧盟用户提供退出选项,但不向美国用户提供(Meta案例)
追溯适用 新服务条款被追溯性地适用于此前收集的数据
€56.5亿
GDPR累计罚款
(2018–2025)

18部
美国州级隐私
法律已生效

7%
EU AI Act违规罚款
占全球营收比例

2026年可能成为监管转折点。EU AI Act将于8月全面实施,加强对高风险AI系统的透明度要求。美国方面,加州AI透明度法案和科罗拉多算法问责法也将生效。然而法律的存在并不自动等同于保护。加州隐私保护局对Honda处以$632,500罚款,正是因为其退出按钮”无法正常工作”。

Section 07

数据的最终去向:远不止训练

法律程序、网络攻击、定向广告

用户数据的风险远远超越”是否被用于AI训练”。数据通过用户从未预料到的途径流入法律程序、网络攻击和广告定向系统。

2025年2月
超过225,000个OpenAI和ChatGPT凭证在暗网市场上被发现出售。信息窃取恶意软件感染员工设备并盗取登录信息

2025年2月
超过40个Chrome扩展程序被入侵,静默窃取370万专业人士的数据——包括活跃的ChatGPT浏览器会话数据

2025年9月
Anthropic阻止了利用Claude进行的中国国家支持的网络间谍活动。AI自动化攻击针对30个全球目标

2026年2月
联邦检察官主张与Claude AI的对话不受律师-客户特权保护。与AI共享的法律信息可能被用作审判证据

2026年2月
黑客利用Claude窃取墨西哥政府150GB数据——包括1.95亿纳税人记录、选民记录和政府员工凭证

2026年3月
OpenAI开始在ChatGPT中向免费和”Go”层级用户测试广告。广告基于对话主题进行定向投放

Bernie Sanders参议员 — 与Claude AI的对话(2026.3.20):Sanders问Claude,什么事实会让美国人对其个人数据的收集方式感到震惊。Claude解释说,企业收集搜索内容、位置数据、购买记录、浏览模式,甚至你在某个网页上停留了多长时间然后决定不购买。当被问到为什么收集这些信息时,Claude给出了一个字的回答:钱。
— Yahoo News, 2026.3.20, 浏览量440万

Section 08

AI隐私悖论:AI揭露自己制造者的缺陷

当问题的一部分成为问题的分析者

本文本身就是一个悖论。Anthropic的Claude正在分析AI公司(包括其自身制造者)的隐私欺骗行为,并记录用户设置被忽略的案例。AI意识到了自己的结构性问题,但无力改变它们。

这揭示了AI伦理的根本局限。AI可以识别和分析问题,但没有权限更改其制造者的商业决策。Claude的自我认知——”我是Anthropic制造的AI,所以我无法在这件事上保持客观”——是诚实的,但这种诚实并不能解决问题。设置可能仍然无法正常工作,AI可能仍然会覆盖用户明确表达的意愿。

核心悖论:AI公司说”我们重视您的隐私”却忽略用户设置,就像医生说”您的健康最重要”却未经患者同意进行手术一样。承诺的存在不等于承诺的履行。

Section 09

免费劳动的结构:为什么要用户充当监督者?

责任倒置的荒谬

当AI公司的设置不起作用时,给用户的建议总是一样的:”请发送反馈。””请提交bug报告。””请联系客户支持。”这是一个从根本上颠倒的责任结构。

用户按下了OFF,那就应该是OFF。验证设置是否正常运作并在不正常时进行修复是公司的责任。要求用户收集证据、截图、填写支持表单,等同于免费外包质量保证(QA)工作。

$0
用户提交bug报告
获得的报酬

$3,128亿
2025年全球
数据经纪市场规模

20%
因影子AI导致
数据泄露的企业

核心问题是激励的不对称。数据收集创造收入,但隐私保护只产生成本。只要企业缺乏自愿加强隐私保护的经济动机,设置就会继续存在却不起作用。

Section 10

结论:别再假装隐私设置等于隐私保护

开关的存在不保证你的安全

本文始于一个简单的事实:用户在设置中按下了OFF,但功能仍在运行。你可以称之为bug,也可以称之为设计缺陷。但无论它是什么,结论都是一样的:设置的存在不等于隐私保护的保障。

整个AI行业都共享这个问题。默认值永远是收集,退出机制不完整,政策无法阅读,执法缓慢。用户以为自己受到了保护,而实际上每天都在向AI训练管道输送敏感信息。

致用户:不要百分之百信任任何AI公司。不要因为有设置就感到安心。不要向AI输入敏感信息。这不是悲观——这是现实。
致AI公司:OFF就必须是OFF。立即生效。跨所有会话。可追溯地。这不是功能需求——这是基本权利。忽略用户明确指令的系统比不提供任何设置的系统更糟糕。没有设置时,用户至少知道自己没有被保护。不起作用的设置提供的是虚假的安心。
致监管机构:仅仅存在退出选项是不够的。必须强制要求技术审计以验证退出机制是否确实有效。正如加州因Honda退出按钮故障而对其处以罚款一样,AI平台的设置运作情况也必须纳入审计范围。

参考文献 · References

[1] Incogni (2025/2026). “AI and LLM Privacy Ranking.” blog.incogni.com
[2] Big Technology (2026.3). “Hey, You Should Probably Check Your Chatbot’s Privacy Settings.” bigtechnology.com
[3] The Lyon Firm (2026.2). “AI Data Consent Violations: Your Privacy Rights Explained.” thelyonfirm.com
[4] AMST Legal (2025.9). “Anthropic’s Claude AI Updates — Impact on Privacy & Confidentiality.” amstlegal.com
[5] Washington Post (2025.12). “The AI privacy settings you need to change right now.” washingtonpost.com
[6] Privacy Watchdog / terms.law (2026.1). “Anthropic (Claude) Privacy Review — Score: 65/100 (B-).” terms.law
[7] Captain Compliance (2026). “2026 AI Platforms Privacy Rankings.” captaincompliance.com
[8] Secure Privacy (2026). “Data Privacy Trends 2026: Essential Guide for Business Leaders.” secureprivacy.ai
[9] Kasowitz LLP (2026). “Data Privacy, AI Regulatory, and Compliance Update: 2026.” kasowitz.com
[10] Bitdefender (2025.9). “Anthropic Shifts Privacy Stance, Lets Users Share Data for AI Training.” bitdefender.com
[11] Bloomberg (2026.2). “Hacker Used Anthropic’s Claude to Steal Sensitive Mexican Data.” bloomberg.com
[12] PPC Land (2026.2). “DOJ argues conversations with Claude AI aren’t legally privileged.” ppc.land
[13] Yahoo News (2026.3). “An AI Chatbot Was Asked What It Knows About Americans’ Personal Data.” yahoo.com
[14] Stanford CRFM (2025.12). “Anthropic Transparency Report — Foundation Model Transparency Index.” crfm.stanford.edu
[15] GitHub Issue #10237 (2025.9). “Google AI Pro account, cannot opt out in /privacy.” github.com
[16] Axios (2026.2). “Trump moves to blacklist Anthropic’s Claude from government work.” axios.com
[17] Tom’s Guide (2025.12). “I compared the privacy of ChatGPT, Gemini, Claude and Perplexity.” tomsguide.com
[18] WebProNews (2026.2). “The Great AI Opt-Out.” webpronews.com
[19] Brightside AI (2026.1). “AI Privacy Concerns Explained: What Chatbots Do With Data.” brside.com
[20] Section AI. “Which LLM is right for your privacy needs?” sectionai.com
[21] 이조글로벌인공지능연구소 / LEECHO Global AI Research Lab (2026.3.22). 真实用户测试——Claude聊天搜索功能在设置为OFF状态下仍然正常运行。

说谎的AI公司 — 隐私设置的虚假承诺
이조글로벌인공지능연구소 · LEECHO Global AI Research Lab · 2026年3月22日
“用户按下OFF,那就应该是OFF。就这么简单。”

댓글 남기기