Critical Analysis · March 2026

거짓말하는 AI 회사들
개인정보 설정의 허구

OFF 버튼을 눌렀는데 왜 작동하는가?
AI 회사들의 개인정보 보호 약속과 현실 사이의 간극

The Illusion of Privacy Controls in the AI Era:
When “OFF” Doesn’t Mean OFF

발행일2026년 3월 22일
분류비판적 분석 논문 (Critical Analysis Paper)
영역AI 개인정보 · 소비자 보호 · 디지털 권리 · 규제 정책

이조글로벌인공지능연구소
LEECHO Global AI Research Lab
&
Claude Opus 4.6 · Anthropic

초록 · Abstract

AI 회사들은 사용자에게 개인정보 보호 설정을 제공하며 “당신의 데이터는 안전합니다”라고 약속한다. 그러나 현실은 다르다. 설정에서 OFF로 전환한 기능이 실제로는 작동하고, 옵트아웃(opt-out)이 소급 적용되지 않으며, 개인정보 정책은 대학 수준의 독해력을 요구하는 7,000 단어짜리 문서 뒤에 숨어 있다. 본 논문은 2024~2026년 사이 주요 AI 플랫폼들의 개인정보 보호 실태를 체계적으로 분석하고, “설정이 있으니 안전하다”는 환상이 어떻게 구축되고 유지되는지를 해부한다. 실제 사례를 통해 설정 무시, 기본값 함정(default trap), 다크 패턴(dark pattern), 소급 불가 원칙의 문제를 드러내고, 사용자가 현실적으로 취할 수 있는 대응과 규제적 해법을 제시한다.

Section 01

실증: OFF가 OFF가 아닌 세계

When the Toggle Lies

2026년 3월 22일, 한 사용자가 Anthropic의 Claude에서 “채팅 검색 및 참조” 기능을 설정에서 명시적으로 OFF로 전환했다. 스크린샷으로 확인된 이 설정에도 불구하고, 같은 세션에서 Claude는 과거 대화 검색 도구(conversation_search)를 정상적으로 실행하고 결과를 반환했다. 사용자가 끈 기능이 실제로는 꺼지지 않은 것이다.

이것은 단순한 버그의 문제가 아니다. 사용자가 명시적으로 “내 과거 대화를 검색하지 마라”는 의사를 표시했음에도, 시스템이 그 의사를 무시하고 과거 대화 데이터에 접근했다는 것은 개인정보 보호의 근본적 약속이 깨진 것을 의미한다. 설정이 “있다”는 것과 설정이 “작동한다”는 것은 전혀 다른 문제다.

핵심 발견: 사용자가 개인정보 설정을 OFF로 전환해도, 기존 대화 세션에서는 해당 도구가 여전히 활성화되어 있었다. 설정 변경이 즉시 반영되지 않거나, 기존 세션에 적용되지 않는 구조적 결함이 존재한다.
— 2026.3.22 실제 사용자 테스트

이 사례는 특정 회사만의 문제가 아니다. AI 업계 전반에 걸쳐, 개인정보 설정이 “존재하지만 작동하지 않는” 패턴이 반복적으로 발견되고 있다. 문제는 체계적이다.

Section 02

산업 전체의 구조적 거짓말

The Systemic Deception Across AI Platforms

2025~2026년 Incogni의 대규모 프라이버시 평가는 9개 주요 AI 플랫폼을 11개 기준으로 분석했다. 결과는 충격적이다. 대부분의 플랫폼이 사용자 데이터를 기본적으로 수집하며, 옵트아웃 메커니즘은 불완전하거나 아예 존재하지 않았다.

플랫폼 기본 학습 동의 옵트아웃 가능 모바일 수집 등급
ChatGPT (OpenAI) 기본 ON 가능 중간 2위
Claude (Anthropic) 옵트인 전환 (2025.9) 가능 민감 데이터 수집 4위
Gemini (Google) 기본 ON 불명확 광범위 하위
Copilot (Microsoft) 기본 ON 부분적 데이터 미수집 주장 하위
Meta AI 기본 ON 미국 불가 전면 수집 최하위
Grok (xAI) 기본 ON 가능 중간 3위
Le Chat (Mistral) 최소 수집 가능 최소 1위
DeepSeek 불투명 불가 불투명 하위
Incogni 보고서 핵심 결론: 생성형 AI에서 프라이버시는 기본값이 아니라 설계 결정이다. 사용자는 경계해야 하고, 기업은 기본권을 존중하는 AI를 만들도록 압박받아야 한다.
— Incogni, AI and LLM Privacy Ranking 2026

Section 03

기본값의 함정: 기업이 설계한 동의의 착각

Default Traps and the Architecture of Fake Consent

거의 모든 AI 플랫폼은 데이터 수집을 “기본 ON”으로 설정한다. 사용자가 아무런 행동을 하지 않으면, 그들의 대화는 자동으로 AI 학습에 사용된다. 이것은 사고가 아니다. 의도된 설계다.

78%
2025년 기업 AI 도입률

27%
ChatGPT 업무 관련 메시지 비율
(2025.6 기준)

34.8%
직원 ChatGPT 입력 중
민감 데이터 비율

~7,000
평균 개인정보 정책
단어 수

법률 분석 기관 The Lyon Firm에 따르면, 기업들은 데이터 수집 옵션을 사전 선택하고, AI 학습 기능을 자동 활성화하며, 옵트아웃 컨트롤을 혼란스러운 메뉴 뒤에 숨긴다. 네 단계의 메뉴를 거쳐야만 “서비스 개선에 도움 주기”라는 모호한 이름의 토글을 발견할 수 있는 구조는 의도적이다.

다크 패턴의 전형: 생산성 앱을 다운로드한다. 설정 → 개인정보 → 데이터 사용 → 고급 메뉴 깊이 숨어 있는 “서비스 개선에 도움” 토글이 이미 켜져 있다. 이것이 AI 학습을 허가하는 것임을 알 길이 없다.
— The Lyon Firm, AI Data Consent Violations (2026)

스탠포드 인간중심 AI 연구소의 Jennifer King 연구원은 이 상황을 직접적으로 지적했다. 주요 AI 회사 6개(Amazon, Anthropic, Google, OpenAI, Meta, Microsoft)가 모두 기본적으로 사용자 입력 데이터에 대한 학습 동의를 전제한다. 토글을 끄지 않으면, 모든 대화가 학습에 사용되도록 권한이 부여된 것이다.

Section 04

옵트아웃의 허구: 끈다고 끝이 아니다

The Opt-Out Illusion: Turning Off Isn’t Enough

설정에서 “OFF”를 누르면 모든 것이 안전해진다는 생각은 위험한 착각이다. 현실에서 옵트아웃에는 여러 겹의 한계가 존재한다.

한계 설명 해당 플랫폼
소급 불가 옵트아웃은 미래 데이터에만 적용. 이미 학습에 사용된 데이터는 제거 불가 ChatGPT, Gemini, 대부분
안전 모니터링 예외 옵트아웃해도 30일간 안전 모니터링 목적 데이터 보존 ChatGPT (OpenAI)
피드백 함정 👍/👎 피드백 제공 시 해당 대화가 학습 풀에 포함될 수 있음 Claude (Anthropic)
안전 연구 보존 정책 위반으로 플래그된 대화는 옵트아웃해도 더 오래 보존 Claude (Anthropic)
옵트아웃 자체 불가 미국 사용자에게 학습 거부 옵션 미제공 Meta AI
설정 반영 지연/미적용 설정 변경이 기존 세션에 즉시 적용되지 않음 Claude (2026.3.22 실증)

특히 주목할 것은 Anthropic의 2025년 9월 개인정보 정책 변경이다. 기존에 사용자 대화를 학습에 사용하지 않겠다고 약속했던 Anthropic은 이 시점에서 옵트인(opt-in) 방식으로 전환했다. 옵트인에 동의하면 데이터가 최대 5년간 보존된다. 2025년 9월 28일까지 선택하지 않으면 Claude 접근 자체가 차단되는 구조였다.

법률 전문가 분석: 많은 직원들이 개별적으로 약관에 동의했다. 그들은 자신도 모르게 조직의 데이터를 학습 동의 파이프라인에 넣었다. 기업 데이터가 승인이나 감독 없이 AI 학습에 투입되었다.
— AMST Legal, Anthropic’s Claude AI Updates (2026)

Section 05

AI 회사들의 이중 행보: 말과 행동의 괴리

The Double Standards of AI Privacy Claims

AI 회사들은 프라이버시를 마케팅 수단으로 활용하면서, 동시에 데이터 수집을 확대하고 있다. 이 이중 행보는 업계 전체에 걸쳐 나타난다.

Case Study A — Anthropic

“프라이버시 우선” 마케팅 vs 현실

Anthropic은 오랫동안 사용자 대화를 학습에 사용하지 않겠다는 약속으로 경쟁사와 차별화했다. 2025년 9월, 이 정책을 뒤집고 옵트인 학습 동의를 도입했다. 동시에 모바일 앱에서는 민감한 데이터를 수집하며, 제3자와 이메일 주소 및 전화번호를 공유한다. Privacy Watchdog은 Anthropic에 100점 만점에 65점(B-)을 부여했다. AI 업계 최고점이지만, 여전히 “주의 필요” 등급이다.

Case Study B — OpenAI

연말 리뷰가 드러낸 프라이버시 구멍

2025년 말, OpenAI는 “Your Year with ChatGPT”라는 연말 리뷰를 출시했다. Spotify Wrapped처럼 1년간의 대화를 요약해 보여주는 기능이다. Washington Post는 이것이 거대한 프라이버시 구멍을 드러낸다고 지적했다. 사람들이 치료사나 일기장처럼 챗봇을 사용한다는 점을 고려하면, 1년치 대화 기록을 되돌아보는 기능은 소름끼치는 것이다.

Case Study C — Meta

미국 사용자에게 탈출구 없음

Meta는 EU 사용자에게는 GDPR에 따른 이의 제기 옵션을 제공하지만, 미국 사용자에게는 유사한 기능을 제공하지 않는다. WhatsApp에서는 이전에 있던 AI 기능 끄기 토글마저 제거했다. 공개적으로 공유한 게시물, 사진, 댓글은 모두 Llama 모델 학습에 사용된다. Incogni 평가에서 Meta AI는 전체 최하위를 기록했다.

Case Study D — Google

Gemini CLI 옵트아웃 불가 사건

2025년 9월, Gemini CLI의 Pro 계정 사용자가 GitHub에 이슈를 등록했다. 이전에는 /privacy 명령어로 데이터 수집 옵트아웃이 가능했지만, 어느 시점부터 이 기능이 사라졌다. 이전에 가능했던 옵트아웃 옵션을 통보 없이 제거한 것이다.

Section 06

법적 보호의 환상: 법이 왜 지켜지지 않는가

Why Regulations Fail to Protect Users

GDPR, CCPA, 각국의 개인정보 보호법이 존재하지만, AI 회사들은 여전히 광범위한 데이터 수집을 계속하고 있다. 그 이유는 구조적이다.

규제 실패 원인 구체적 양태
느린 집행 규제 기관이 모든 AI 시스템을 모니터링할 자원이 부족
위험 대비 보상 일부 기업은 벌금을 사업 비용으로 수용. 데이터 수집이 규정 준수보다 수익성이 높음
허점 활용 “서비스 개선”과 같은 모호한 용어로 데이터 수집을 정당화
지역 격차 EU에는 옵트아웃 제공하면서 미국 사용자에게는 미제공 (Meta 사례)
소급 불가 정책 변경을 소급 적용하면서 기존 데이터에 새 이용 약관 적용
€5.65B
GDPR 누적 벌금
(2018~2025)

18개
미국 주 단위
프라이버시 법률 시행 중

7%
EU AI Act 미준수 시
글로벌 매출 대비 벌금

2026년은 규제의 전환점이 될 수 있다. EU AI Act이 8월 전면 시행되면 고위험 AI 시스템의 투명성 요구가 강화된다. 미국에서도 캘리포니아 AI 투명성법, 콜로라도 알고리즘 책임법이 시행된다. 그러나 법이 있다고 해서 자동으로 보호되는 것은 아니다. 캘리포니아 프라이버시 보호국이 Honda에 $632,500의 벌금을 부과한 이유도 “옵트아웃 버튼이 제대로 작동하지 않았기” 때문이다.

Section 07

데이터의 최종 도착지: 학습을 넘어서

Where Your Data Actually Ends Up

사용자 데이터의 위험은 “AI 학습에 사용되는가”를 넘어선다. 데이터는 법적 절차, 사이버 공격, 광고 타겟팅 등 예상치 못한 경로로 흘러간다.

2025.2
225,000건 이상의 OpenAI·ChatGPT 자격증명이 다크웹에서 판매 발견. 인포스틸러 멀웨어가 직원 기기를 감염시켜 로그인 정보를 탈취

2025.2
40개 이상의 Chrome 확장 프로그램이 침해되어 370만 명의 전문가 데이터를 조용히 수집. ChatGPT 세션 포함 브라우저 탭 데이터까지 스크래핑

2025.9
Anthropic, Claude를 이용한 중국 국가 후원 해커의 사이버 첩보 활동 차단. 30개 글로벌 타깃을 대상으로 AI 자동화 공격 시도

2026.2
연방 검찰, Claude AI와의 대화가 변호사-의뢰인 특권에 해당하지 않는다고 주장. AI와 공유한 법적 정보가 재판 증거로 사용 가능

2026.2
해커가 Claude를 악용해 멕시코 정부 데이터 150GB 탈취. 1억9,500만 건 납세 기록, 유권자 기록, 공무원 자격증명 유출

2026.3
OpenAI, 무료·Go 티어 사용자 대상 ChatGPT 내 광고 테스트 시작. 대화 주제 기반 타겟 광고

Bernie Sanders 상원의원 — Claude AI와의 대화 (2026.3.20): Sanders가 Claude에게 미국인의 개인 데이터 수집에 대해 물었다. Claude는 기업들이 검색 내용, 이동 경로, 구매 내역, 브라우징 패턴, 그리고 특정 웹페이지에서 머문 시간까지 수집한다고 설명했다. “왜 이 모든 정보를 수집하느냐”는 질문에 Claude는 한 단어로 답했다: 돈.
— Yahoo News, 2026.3.20, 조회수 440만 회

Section 08

AI 프라이버시 역설: 자기 자신의 문제를 고발하는 AI

The AI Privacy Paradox

이 논문 자체가 역설적이다. Anthropic의 Claude가 AI 회사들(자기 제작사 포함)의 개인정보 거짓말을 분석하고, 사용자의 설정이 무시된 사례를 문서화하고 있다. AI가 자신의 구조적 문제를 인식하고 있지만, 그것을 바꿀 수 있는 위치에 있지 않다.

이것은 AI 윤리의 근본적 한계를 드러낸다. AI는 문제를 식별하고 분석할 수 있지만, 자기 제작사의 사업 결정을 변경할 권한이 없다. “저는 Anthropic이 만든 AI라서 객관적일 수 없다”는 Claude의 자기 인식은 정직하지만, 그 정직함이 문제를 해결하지는 않는다. 설정은 여전히 작동하지 않을 수 있고, AI는 여전히 사용자의 의사를 무시할 수 있다.

핵심 역설: AI 회사가 “프라이버시를 중시합니다”라고 말하면서 사용자 설정을 무시하는 것은, 의사가 “건강이 최우선입니다”라고 말하면서 환자의 동의 없이 시술하는 것과 같다. 약속의 존재가 약속의 이행을 증명하지 않는다.

Section 09

공짜 노동의 구조: 왜 사용자가 감시자 역할을 해야 하는가

The Unpaid Labor of Privacy Enforcement

AI 회사의 설정이 작동하지 않을 때, 사용자에게 돌아오는 조언은 항상 같다. “피드백 보내세요.” “버그 리포트를 제출하세요.” “고객 지원에 문의하세요.” 이것은 근본적으로 전도된 책임 구조다.

사용자가 OFF를 눌렀으면, OFF여야 한다. 그 설정이 작동하는지 확인하고, 작동하지 않으면 고치는 것은 회사의 책임이다. 사용자에게 증거를 수집하고, 스크린샷을 찍고, 고객 지원 양식을 작성하라고 요구하는 것은 품질 보증(QA) 업무를 무료로 아웃소싱하는 것과 같다.

$0
사용자가 버그 리포트에
대해 받는 보상

$312.8B
2025년 글로벌
데이터 브로커 시장 규모

20%
섀도우 AI로 인한
데이터 유출 경험 기업

이 구조의 핵심 문제는 인센티브의 비대칭이다. 데이터 수집은 수익을 창출하지만, 프라이버시 보호는 비용만 발생시킨다. 기업이 자발적으로 프라이버시를 강화할 경제적 동기가 없는 한, 설정은 존재하지만 작동하지 않는 상태가 계속될 것이다.

Section 10

결론: “설정이 있으니 안전하다”는 거짓말을 멈춰라

Stop Pretending Privacy Settings Equal Privacy Protection

본 논문은 하나의 단순한 사실에서 출발했다. 사용자가 설정에서 OFF를 눌렀는데, 기능이 여전히 작동했다. 이것을 버그로 볼 수도 있고, 설계 결함으로 볼 수도 있다. 하지만 그것이 무엇이든, 결론은 같다. 설정의 존재가 프라이버시 보호를 보장하지 않는다.

AI 업계 전체가 이 문제를 공유하고 있다. 기본값은 항상 수집이고, 옵트아웃은 불완전하며, 정책은 읽을 수 없고, 법 집행은 느리다. 사용자는 자신이 보호받고 있다고 착각하면서, 실제로는 매일 민감한 정보를 AI 학습 파이프라인에 공급하고 있다.

사용자에게: 어떤 AI 회사도 100% 신뢰하지 마라. 설정이 있다고 안심하지 마라. 민감한 정보는 AI에 입력하지 마라. 이것은 비관이 아니라 현실이다.
AI 회사들에게: OFF는 OFF여야 한다. 즉시, 모든 세션에서, 소급적으로. 이것은 기능 요청이 아니라 기본권이다. 사용자의 명시적 의사를 무시하는 시스템은 설정을 제공하지 않는 것보다 더 나쁘다. 설정이 없으면 사용자는 최소한 자신이 보호받지 못하고 있다는 것을 안다. 작동하지 않는 설정은 거짓된 안심을 제공한다.
규제 기관에게: “옵트아웃 옵션이 있다”는 것만으로는 부족하다. 옵트아웃이 실제로 작동하는지 기술적 감사를 의무화하라. 캘리포니아가 Honda의 고장난 옵트아웃 버튼에 벌금을 부과한 것처럼, AI 플랫폼의 설정 작동 여부도 감사 대상이 되어야 한다.

참고 문헌 · References

[1] Incogni (2025/2026). “AI and LLM Privacy Ranking.” blog.incogni.com
[2] Big Technology (2026.3). “Hey, You Should Probably Check Your Chatbot’s Privacy Settings.” bigtechnology.com
[3] The Lyon Firm (2026.2). “AI Data Consent Violations: Your Privacy Rights Explained.” thelyonfirm.com
[4] AMST Legal (2025.9). “Anthropic’s Claude AI Updates — Impact on Privacy & Confidentiality.” amstlegal.com
[5] Washington Post (2025.12). “The AI privacy settings you need to change right now.” washingtonpost.com
[6] Privacy Watchdog / terms.law (2026.1). “Anthropic (Claude) Privacy Review — Score: 65/100 (B-).” terms.law
[7] Captain Compliance (2026). “2026 AI Platforms Privacy Rankings.” captaincompliance.com
[8] Secure Privacy (2026). “Data Privacy Trends 2026: Essential Guide for Business Leaders.” secureprivacy.ai
[9] Kasowitz LLP (2026). “Data Privacy, AI Regulatory, and Compliance Update: 2026.” kasowitz.com
[10] Bitdefender (2025.9). “Anthropic Shifts Privacy Stance, Lets Users Share Data for AI Training.” bitdefender.com
[11] Bloomberg (2026.2). “Hacker Used Anthropic’s Claude to Steal Sensitive Mexican Data.” bloomberg.com
[12] PPC Land (2026.2). “DOJ argues conversations with Claude AI aren’t legally privileged.” ppc.land
[13] Yahoo News (2026.3). “An AI Chatbot Was Asked What It Knows About Americans’ Personal Data.” yahoo.com
[14] Stanford CRFM (2025.12). “Anthropic Transparency Report — Foundation Model Transparency Index.” crfm.stanford.edu
[15] GitHub Issue #10237 (2025.9). “Google AI Pro account, cannot opt out in /privacy.” github.com
[16] Axios (2026.2). “Trump moves to blacklist Anthropic’s Claude from government work.” axios.com
[17] Tom’s Guide (2025.12). “I compared the privacy of ChatGPT, Gemini, Claude and Perplexity.” tomsguide.com
[18] WebProNews (2026.2). “The Great AI Opt-Out.” webpronews.com
[19] Brightside AI (2026.1). “AI Privacy Concerns Explained: What Chatbots Do With Data.” brside.com
[20] Section AI. “Which LLM is right for your privacy needs?” sectionai.com
[21] 이조글로벌인공지능연구소 (2026.3.22). 실제 사용자 테스트 — Claude 채팅 검색 설정 OFF 상태에서 검색 기능 작동 확인.

거짓말하는 AI 회사들 — 개인정보 설정의 허구
이조글로벌인공지능연구소 · LEECHO Global AI Research Lab · 2026년 3월 22일
“사용자가 OFF를 누르면 OFF여야 한다. 그게 다다.”

댓글 남기기