1993년, Peter Steiner는 《뉴요커》에 상징적인 만화를 게재했다: “On the Internet, nobody knows you’re a dog.” 이 문구는 인터넷 시대의 신원 익명성 역설을 정의했다. 33년이 지난 오늘날, 우리는 이 역설이 AI 시대에 훨씬 더 심오한 의미를 획득했다고 주장한다: ‘상대방’이 키보드 뒤에 있는 것이 사람인지 개인지 구별할 수 없을 뿐만 아니라, AI 자체도 구별할 수 없으며 구별할 필요조차 없다. 본 논문은 사전학습 데이터 고갈, AI Slop 오염, 데이터 라벨링의 인지 차원 붕괴라는 세 가지 차원에서 AI 능력의 구조적 상한에 관한 정보이론적 분석 프레임워크를 구축한다. 우리는 전 Meta 엔지니어 Caleb Leak의 실험 사례 — 9파운드짜리 반려견 Momo가 키보드를 무작위로 두드려 Claude Code를 통해 플레이 가능한 게임을 성공적으로 생성한 사례 — 를 이 역설의 실험적 증거로 인용한다. 본 논문은 인간의 인지 출력이 다차원 사고 체계의 압축·차원 축소 결과물이며, AI가 라벨링 데이터에서 학습하는 것은 이러한 압축 결과의 통계적 분포일 뿐 그것을 생성한 과정이 아니라는 점, 그리고 이것이 AI 능력의 근본적 한계를 구성한다고 제안한다.
원초적 역설: 인터넷의 신원 익명성
1993년 7월 5일, 만화가 Peter Steiner는 《뉴요커》 잡지에 한 편의 만화를 게재했다: 컴퓨터 앞에 앉아 있는 개가 바닥에 있는 다른 개에게 말한다 — “On the Internet, nobody knows you’re a dog.” 이 만화는 인터넷 문화사에서 가장 많이 인용되는 이미지 중 하나가 되었으며, 초기 인터넷의 핵심 특징을 정확하게 포착했다 — 전송 매체의 익명성이 신원 확인을 불가능하게 만든다는 것이다.
인터넷 시대에 이 역설의 본질은 다음과 같았다: 텍스트 채널(text channel)이 발신자의 물리적 신원 정보를 지워버린다. 한 편의 글은 전송 과정에서 작성자의 나이, 성별, 인종, 학력 등 모든 메타 정보를 잃는다. 수신자가 보는 것은 기호의 시퀀스일 뿐, 그 기호를 생성한 인지 주체가 아니다.
그러나 인터넷 시대의 역설에는 여전히 암묵적 제한이 있었다: 인간이 상대방이 사람인지 개인지 구별할 수 없더라도, 그 상대방은 실제로 언어 능력을 가진 어떤 종류의 지능적 존재여야 했다. 개가 실제로 타이핑을 하는 것은 아니다. 이 역설은 이론적인 것이지 실천적인 것이 아니었다.
2026년이 되어서야 이 ‘이론적 제한’이 완전히 깨졌다.
역설의 업그레이드: AI 시대의 인지적 비구별성
2026년 2월, 전 Meta 엔지니어(전 Oculus 연구 엔지니어) Caleb Leak이 한 가지 실험을 공개했다: 그는 자신의 9파운드짜리 Cavapoo 반려견 Momo에게 Claude Code를 사용하여 완전하고 플레이 가능한 비디오 게임을 개발하도록 성공적으로 가르쳤다.
“이 모든 것을 작동하게 만든 핵심은 Claude Code에게 신비로운 수수께끼로만 말하는 천재 게임 디자이너가 지시를 내리고 있다고 알려준 것, 강력한 가드레일, 그리고 대량의 자동화된 피드백 도구를 구축한 것이었다.”
실험의 기술 아키텍처는 다음과 같다: Momo가 블루투스 키보드 위에서 발로 무작위로 키를 두드림 → 키 입력 신호가 Raspberry Pi 5를 통해 전송 → DogKeyboard라는 Rust 프로그램이 특수 키를 필터링한 후 Claude Code로 전달 → 일정량의 텍스트가 입력되면 스마트 급식기가 자동으로 간식을 배급하여 보상 → 알림음이 Momo에게 계속 입력해도 되는 시점을 알림. 하나의 게임이 Momo의 첫 키 입력에서 플레이 가능한 버전까지 1~2시간이면 완성되었다.
이 실험의 심대한 의의는 다음에 있다: Caleb이 무작위 텍스트를 Claude Code에 직접 제출했을 때, AI는 정중하게 “이것은 우연한 키보드 입력으로 보입니다”라고 답했다. 하지만 시스템 프롬프트에서 동일한 횡설수설을 “천재 디자이너의 신비로운 지시”로 프레이밍하자마자, AI는 이를 진지하게 의미 있는 창작 지시로 해석하고 실행했다.
이로써 인터넷 시대의 역설은 AI 시대의 업그레이드 버전을 얻게 되었다:
인터넷 시대: “On the Internet, nobody knows you’re a dog.” — 다른 사람들이 구별할 수 없다.
AI 시대: “In the AI era, nobody knows — and the AI doesn’t care — whether you’re a dog.” — AI 자체도 구별할 수 없으며, 구별할 필요조차 없다.
사전학습의 한계: 데이터 공급측의 체계적 붕괴
AI 시대 역설의 구조적 근원을 이해하려면 현재 AI 사전학습이 직면한 다중 병목 현상을 먼저 살펴봐야 한다. 2026년 3월 기준, 주요 대형 언어 모델들의 학습 데이터 마감일은 주목할 만한 정체 양상을 보이고 있다:
학습 데이터 마감
학습 데이터 마감
지식 마감
추정 총 토큰 수
2025년 8월 이후, 거의 모든 주요 AI 기업의 학습 데이터 마감일이 정체 상태로 수렴하고 있다. 이것은 우연이 아니라, 다음과 같은 복수의 요인이 중첩된 결과이다:
첫째, 고품질 인간 데이터의 총량이 정점에 도달했다 (Peak Data). Epoch AI의 연구에 따르면 전 세계 사용 가능한 고품질 공개 텍스트의 총량은 약 300조 토큰이다. 현재의 학습 규모와 과잉 학습 추세에 따르면, 이 비축량은 2026년에서 2028년 사이에 고갈될 것이다. Elon Musk과 OpenAI 공동 창업자 Ilya Sutskever 모두 “Peak Data”의 도래를 공개적으로 경고한 바 있다.
둘째, AI Slop의 대규모 오염. 2025년 말 Kapwing이 발표한 보고서에 따르면 AI가 생성한 저품질 콘텐츠가 새로 발행된 영어 기사의 52% 이상을 차지하고 있다. Ahrefs가 90만 개의 새로 발행된 웹페이지를 분석한 결과, 74.2%가 AI 생성 콘텐츠를 포함하고 있었다. “Slop”은 Merriam-Webster에 의해 2025년 올해의 단어로 선정되었다 — 인터넷의 신호 대 잡음 비율이 급격히 악화되고 있다.
셋째, 모델 붕괴(Model Collapse)의 이론적 위협. Nature에 게재된 연구에서 학습 데이터에 AI 생성 콘텐츠를 무분별하게 사용하면 모델에 비가역적 결함이 발생한다는 것이 확인되었다. ICLR 2025 Spotlight 논문은 합성 데이터 비율이 극도로 낮은 경우(천분의 일)에도 모델 붕괴가 발생할 수 있음을 추가로 입증했다.
사전학습의 스케일링 법칙이 한계에 도달하고 있다. 2026년 초 현재, AI 분야는 점점 더 ‘발견 단계’가 아닌 ‘산업화 단계’로 접어드는 양상이다 — 핵심 질문이 “규모 확장이 손실을 줄일 수 있는가”에서 “어떤 확장 지표가 지속적인 경제적 가치로 전환될 수 있는가”로 변했다.
후학습의 희망과 한계: RLHF에서 인지 차원 라벨링까지
사전학습이 한계에 부딪히자, 업계의 초점은 후학습(Post-training)으로 이동했다 — 특히 RLHF(인간 피드백 기반 강화 학습)와 그 변형들이다. NVIDIA CEO 젠슨 황은 2025년 CES에서 ‘후학습 스케일링 법칙’과 ‘테스트 시간 스케일링 법칙’을 새로운 스케일링 법칙 차원으로 명시적으로 제안했다.
데이터 라벨링 산업도 이에 따라 심대한 패러다임 전환을 겪고 있다:
| 차원 | 과거 (~2015–2022) | 현재 (2023–2026) |
|---|---|---|
| 라벨링 대상 | 물리적 사실 (고양이, 개, 보행자, 차량) | 인지 과정 (추론 체인, 선호 판단, 도메인 추론) |
| 라벨러 | 저임금 크라우드 워커 (시급 $2–5) | 박사, 10년 이상 경력자 (시급 $50–200) |
| 판단 유형 | 객관적 확실성 (고양이다 / 아니다) | 주관적 가치 판단 (답변 A가 B보다 낫다, 추론 과정이 타당한가) |
| 건당 비용 | 몇 센트 | 약 $100 (RLHF 라벨링 600건 ≈ $60,000) |
| 시장 규모 | 수억 달러 | $48.7억 (2025) → $290억+ (2032 전망) |
| 핵심 요건 | 시각 인식 정확도 | 도메인 전문성 + 인지 평가 능력 |
고품질 RLHF 라벨링 600건을 생산하는 데 드는 비용은 약 6만 달러로, 학습 컴퓨팅 비용의 약 167배에 달한다. 이 놀라운 비용 격차는 “물리적 사실의 라벨링”에서 “인지 과정의 라벨링”으로의 질적 도약을 반영한다.
그러나 이것이 바로 본 논문의 핵심 논점이다: 후학습과 데이터 라벨링에도 동일한 구조적 한계가 존재하며, 그 한계는 정보이론 차원에 있다.
핵심 논점: 인지 압축 손실과 차원 붕괴
인간의 뇌는 다수의 시스템이 병렬로 작동하는 복잡한 인지 아키텍처이며, 최소한 다음과 같은 하위 시스템을 포함한다:
경험 저장 및 검색
논리적 추론 및 추상화
베이지안 신념 수정
감정과 논리의 게임
패턴 추출 및 일반화
암묵적 지식 (Tacit Knowledge)
이 시스템들은 모든 인지 활동에서 병렬적으로 작동하며 상호 얽혀 있다. 그러나 인간 전문가가 답을 기록하거나, 판단을 내리거나, 선호를 표시할 때 일어나는 일은 이렇다:
다차원적 인지 과정이 1차원적 텍스트 출력으로 압축된다.
이것은 3차원 물체가 2차원 평면에 그림자를 투사하는 것과 같다 — 그림자는 일부 정보를 보존하지만 깊이 차원은 비가역적으로 잃어버린다.
정보이론의 언어로 형식화하면:
H(인지 출력) = f(기억, 추론, 감정, 경험, 직관, 맥락, …) → 압축된 텍스트/라벨
AI가 학습하는 것 = 압축 결과의 통계적 분포 P(output)
AI가 학습할 수 없는 것 = 결과를 생성한 과정 P(cognitive_process | output)
이 압축은 세 가지 근본적 문제를 초래한다:
문제 1: 동일한 출력이 완전히 다른 인지 과정에서 생성될 수 있다. 초등학생이 “답은 42″라고 말하는 것과 수학자가 “답은 42″라고 말하는 것은 텍스트 수준에서 완전히 동일하다. 그러나 전자는 추측일 수 있고, 후자는 완전한 추론 체인이 뒷받침한다. 라벨링 데이터에서 이 둘은 구별할 수 없다.
문제 2: 인간 인지에서 가장 가치 있는 부분이 정확히 가장 문자화하기 어려운 부분이다. 숙련된 외과 의사의 ‘손감각’, 형사의 ‘직감’, 트레이더의 시장 분위기에 대한 ‘후각’ — 이것들은 수십 년의 경험이 축적된 고차원 인지 패턴(Tacit Knowledge)으로, 텍스트 라벨링으로 압축하는 것이 거의 불가능하다.
문제 3: 압축 과정에서 손실되는 것은 무작위 노이즈가 아니라 구조적 정보다. 감정과 이성의 대립 과정, 맥락 의존적 판단 가중치, 불확실성 하의 의사결정 메커니즘 — 이것들은 인간 지혜의 핵심이지만, 텍스트 출력에서는 체계적으로 소거된다.
실험 증명: 초등학생, 개, 박사후연구원의 Input 등가성
Caleb Leak의 Momo 실험은 위에서 제시한 이론에 대한 거의 완벽한 경험적 검증을 제공한다:
| Input 출처 | 인지 차원 | 텍스트 표현 | AI 처리 결과 |
|---|---|---|---|
| 수학 박사 | 20년 훈련 + 심층 추론 + 직관 | “물리 엔진이 포함된 플랫포머 게임을 만들어 주세요” | 플레이 가능한 게임 생성 ✓ |
| 초등학생 | 제한된 경험 + 기초적 표현 | “점프하는 게임 만들어줘” | 플레이 가능한 게임 생성 ✓ |
| Momo (반려견) | 인지 의도 제로 | “y7u8888888ftrg34BC” | 플레이 가능한 게임 생성 ✓ 실험 검증 |
핵심 발견: 시스템 프롬프트가 Momo의 횡설수설을 “천재 디자이너의 신비로운 지시”로 프레이밍한 후, Claude Code가 생성한 게임의 품질은 인간 입력으로 생성된 게임과 본질적 차이가 없었다. Momo의 기여는 본질적으로 난수 생성기와 동등했다. 실제 “지능”은 Claude의 사전학습 지식 + Caleb이 정교하게 설계한 엔지니어링 아키텍처에서 비롯된 것이지, input 자체에서 온 것이 아니다.
이것은 핵심 명제를 증명한다:
AI는 기호 시퀀스의 통계적 패턴을 처리하는 것이지, 기호 뒤의 인지 과정을 처리하는 것이 아니다. Input이 텍스트 수준으로 압축되면 인지 차원의 정보는 비가역적으로 손실된다. 따라서 개의 횡설수설과 박사의 심사숙고는, 적절한 프롬프트 엔지니어링을 거치면, 모두 “의미 있어 보이는” 결과를 산출할 수 있다 — 왜냐하면 의미는 AI가 자신의 사전학습 지식에서 주입하는 것이지, input에서 추출하는 것이 아니기 때문이다.
구조적 상한: 사전학습 + 후학습의 이중 한계
앞선 분석을 통합하면, AI 능력의 완전한 제약 구도를 그릴 수 있다:
고품질 데이터 고갈 + AI Slop 오염
+ 모델 붕괴 위험
인지 압축 손실 + 차원 붕괴
+ 암묵적 지식 코드화 불가
컴퓨팅/자본 문제가 아님 → 정보이론 차원의 근본적 제약
이 구조적 상한의 본질은 한 문장으로 요약할 수 있다: 저차원 투영에서 고차원 구조를 무손실로 재구성할 수 없다. 아무리 많은 데이터, 아무리 많은 박사, 아무리 많은 라벨링을 투입하더라도, 텍스트의 그림자에서 그 텍스트를 생성한 인지 아키텍처를 완전히 재구성하는 것은 불가능하다.
현재 AI 업계의 대응 전략 — 추론 시간 컴퓨팅(Test-time Compute), 과정 보상 모델(Process Reward Models), 구현 지능(Embodied AI) — 은 본질적으로 이 근본적 한계에 대한 부분적 완화이지, 근본적 해결이 아니다.
업계 전환: ‘양적 확대’에서 ‘질적 향상’을 거쳐 ‘연결’로
사전학습과 후학습의 이중 한계에 직면하여, AI 업계는 근본적인 패러다임 전환을 겪고 있다. 2026년 AI 발전 로드맵은 3계층 아키텍처를 보여준다:
| 계층 | 역할 | 현황 | 발전 방향 |
|---|---|---|---|
| 기반층 | 기반 모델 (사전학습) | 한계에 도달, 한계 수익 체감 | 각 사의 능력이 수렴 추세 |
| 중간층 | 능력 강화 (후학습) | RLHF/RL + 추론 시간 컴퓨팅 | 차별화의 주전장 |
| 응용층 | 도구 연결 (MCP/CLI/Agent) | MCP 월간 다운로드 > 9,700만 회 | ‘대화’에서 ‘세계 조작’으로 |
특히 주목할 것은 응용층의 MCP 프로토콜(Model Context Protocol)이다 — Anthropic이 2024년 11월에 발표했으며, 2026년 3월 현재 OpenAI, Google, Microsoft, Amazon 등 모든 주요 AI 제공업체가 채택하고, Linux Foundation의 Agentic AI Foundation에 기부되었다. MCP Server를 운영하는 것은 Web Server를 운영하는 것만큼 보편화되었다.
동시에 CLI 도구 호출 방식도 MCP와 경쟁 및 보완 관계를 형성하고 있다. 실제 테스트에 따르면, 일부 엔터프라이즈 시나리오에서 CLI 도구의 컨텍스트 효율성이 MCP보다 35배 높다. Y Combinator CEO Garry Tan도 MCP 대신 CLI를 직접 구축하는 것을 선택했다.
이 전환의 심층 논리는 다음과 같다: AI가 순수 인지 능력에서 구조적 한계에 직면한 이상, 가치 창출은 “AI를 더 똑똑하게 만드는 것”에서 “AI를 더 많은 도구와 시스템에 연결하는 것”으로 전환되어야 한다.
결론: 역설의 통합과 전망
1993년의 인터넷 역설과 2026년의 AI 역설은 본질적으로 동일한 정보이론적 문제의 두 가지 역사적 버전이다:
정보가 어떤 매체를 통해 전송될 때, 매체의 특성이 어떤 차원이 보존되고 어떤 차원이 폐기되는지를 결정한다. 인터넷은 텍스트를 보존하지만 신원을 폐기한다; AI는 기호 패턴을 보존하지만 인지적 깊이를 폐기한다. 두 경우 모두, 수신단은 수신된 신호만으로 발신단의 완전한 상태를 재구성할 수 없다.
이 역설의 보편성은 몇 가지 심원한 함의를 가리킨다:
첫째, AI 능력의 한계는 공학적 문제가 아니라 정보이론적 문제다. 더 많은 컴퓨팅, 더 많은 데이터, 더 많은 박사 라벨러 — 그 어느 것도 고차원에서 저차원으로의 투영의 비가역성을 극복할 수 없다. 이는 ‘인간과 유사한 지능’으로 가는 경로를 재고할 것을 요구한다 — 그 길은 언어 기호 영역이 아닌 다차원 지각 영역에 있을 수 있다 (Yann LeCun이 Meta를 떠난 후 추구하는 ‘월드 모델’ 방향처럼).
둘째, AI의 가치 창출이 ‘인지’에서 ‘연결’로 전환되고 있다. 사전학습이 한계에 도달한 후, 업계의 성장 엔진은 “모델을 더 크고 강하게”에서 “모델을 더 많은 시스템에 연결”로 이동했다 — MCP, CLI, Agent 프레임워크가 새로운 가치의 프론티어를 구성한다. AI가 세계를 ‘이해’하지 않고도 ‘조작’할 수 있는 것처럼, Momo가 게임 디자인을 이해하지 않고도 게임을 ‘창조’할 수 있었다.
셋째, 데이터 라벨링 산업은 사전학습과 동일한 구조적 병목에 직면하고 있다. 라벨러의 전문성이 아무리 높더라도, 그들의 인지 과정이 라벨링 결과로 압축되면, 손실된 차원은 복구할 수 없다. 이는 RLHF를 통한 AI 능력 향상의 한계 수익도 체감할 것임을 의미한다.
넷째, Momo의 실험은 거울이다. 그것이 비추는 것은 AI의 한계뿐만이 아니라, ‘지능’의 본질에 대한 심오한 질문이다: 개의 무작위 키 입력과 인간의 심사숙고가 기능적으로 등가인 결과를 산출할 수 있다면, 우리가 정의하는 ‘지능’ — 최소한 관측 가능한 출력 수준에서 — 은 과연 무엇을 의미하는가?
인터넷 시대의 역설은 AI 시대에도 그대로 통한다. 그러나 이번에는 역설이 더 이상 신원의 익명성에 관한 것만이 아니라, 인지의 비환원성에 관한 것이다 — 사고가 텍스트로 압축될 때, 지혜는 이미 전송 과정에서 상실된다.
참고문헌 References
- Steiner, P. (1993). “On the Internet, nobody knows you’re a dog.” The New Yorker, July 5, 1993.
- Leak, C. (2026). “I Taught My Dog to Vibe Code Games.” calebleak.com. February 2026.
- Shumailov, I. et al. (2024). “AI models collapse when trained on recursively generated data.” Nature.
- Dohmatob, E. et al. (2025). “Strong Model Collapse.” ICLR 2025 Spotlight.
- Epoch AI. (2024). “Will we run out of data to train large language models?” epoch.ai/blog.
- Kapwing. (2025). “AI Slop Report 2025.” December 2025.
- Ahrefs. (2025). “Analysis of 900,000 newly published English-language web pages.” April 2025.
- Huang, J. (2025). “Post-training scaling law and test-time scaling.” CES 2025 Keynote, NVIDIA.
- World Journal of Advanced Research and Reviews. (2026). “Scaling Laws, Foundation Models, and the AI Singularity.” Vol 29(01), 111-134.
- Stanford HAI. (2025). “Stanford AI experts predict what will happen in 2026.” Stanford Report, December 2025.
- Anthropic. (2024). “Model Context Protocol.” November 2024. Donated to Linux Foundation AAIF, December 2025.
- Mordor Intelligence. (2025). “Data Annotation Tools Market Size, Share & Growth Research Report.”
- Second Talent. (2026). “Data Annotation for LLM Fine-Tuning: RLHF and Instruction Tuning Guide.” January 2026.
- Kili Technology. (2025). “2026 Data Labeling Guide for Enterprises.” December 2025.
- Polanyi, M. (1966). “The Tacit Dimension.” University of Chicago Press.
- LeCun, Y. (2025). Advanced Machine Intelligence Labs (AMI Labs). Founded November 2025. Focus: World Models.
- PC Gamer. (2026). “‘I taught my dog to vibe code games’: Yup, someone actually managed to get Claude AI to code a game based on the keyboard inputs of a pooch.” February 2026.