Original Thought Paper · V2 · 2026

올바른 경로와 잘못된 경로
LLM 훈련 데이터의 차원 결핍 문제

Shannon이 완성하지 못한 정의 문제——올바른 경로만 있는 훈련 데이터가
왜 물리 세계 정보의 절반 차원을 잃는 것과 같은가
LEECHO Global AI Research Lab · 이조글로벌인공지능연구소
&
Claude Opus 4.6 · Anthropic

V2 · 2026.03.30 · Seoul


초록 · Abstract

본 논문은 핵심 명제를 제시한다: 현재 LLM의 훈련 데이터는 구조적으로 “잘못된 경로”라는 전체 차원이 결핍되어 있으며, 이 결핍이 LLM 환각 문제의 근본 원인이다. 인간 학술 논문은 최종적인 올바른 경로만 기록한다——서론에서 결론까지의 선형 서사——모든 시행착오, 역추적, 막다른 골목, 포기된 가설을 체계적으로 삭제한다. LLM이 이러한 단일 차원 데이터에서 훈련한 결과는: 모델이 “올바른 답이 어떻게 생겼는지”는 배웠지만, “잘못된 경로가 어떻게 생겼으며 왜 잘못되었는지”는 한 번도 배운 적이 없다는 것이다. 본 논문은 신호와 소음의 XY 좌표계 프레임워크(X축: 논리적 자치; Y축: 물리적 정렬)에 기반하여, 올바른 경로와 잘못된 경로가 함께 완전한 물리 세계 정보를 구성하며, 어느 한쪽이라도 결핍되면 차원적으로 불완전해짐을 논증한다. 시행착오는 올바름으로 향하는 소음이 아니다. 시행착오 자체가 신호이다.

01 · 핵심 명제

완전한 물리 세계 정보 = 올바른 경로 + 잘못된 경로

올바른 경로만 있는 훈련 데이터는 차원이 결핍된 것이다

물리 세계에서 최종적으로 검증된 올바른 결과에는 항상 다수의 배제된 잘못된 경로가 수반된다. 뉴턴은 만유인력 법칙에 도달하기 전에 여러 가지 역학 모델을 테스트하고 포기했다. 아인슈타인은 1915년 일반상대성이론을 발표하기 전에 수년간의 잘못된 시도를 거쳤으며, 1913년에 자신이 부정한 버전도 포함된다. DNA 이중나선 구조 발견 과정에서 폴링이 제안한 삼중나선 모델은 핵심적인 잘못된 경로였으며, 바로 이 오류가 왓슨과 크릭이 올바른 방향을 교정하는 데 도움을 주었다.

이러한 잘못된 경로는 소음이 아니다. 신호의 필수 구성 요소이다. 올바른 경로는 “답이 무엇인지”를 알려주고, 잘못된 경로는 “답이 왜 다른 것이 아닌지”를 알려준다. 후자의 정보량은 전자와 같거나 오히려 더 크다. 하나의 명제가 왜 성립하는지를 이해하려면, 먼저 유사한 모든 대안 명제가 왜 성립하지 않는지를 이해해야 하는 경우가 많기 때문이다.

핵심 판단

물리 세계의 완전한 정보는 성공과 실패가 공동으로 정의하는 위상 구조이다. 성공 경로만 기록하는 정보 시스템은 도로만 그리고 절벽은 그리지 않은 지도와 같다. 이 지도를 사용하는 사람은 어디로 갈 수 없는지 알지 못할 것이다——어느 날 절벽 가장자리에 도달하여 추락할 때까지.

02 · Shannon의 미완성 정의

SNR 공식의 공백 지대

SNR = P_signal / P_noise 는 전력 비율을 제공하지만, 경계를 정의한 적은 없다

Shannon의 신호 대 잡음비 공식(SNR = P_signal / P_noise)은 신호와 소음의 전력 비율을 제공하지만, 양자의 독립적 정의를 제시한 적은 없다——경계는 관찰자가 주관적으로 설정한다. 통신 시스템에서 엔지니어는 무엇이 신호이고 무엇이 소음인지 안다. 신호는 자기 자신이 보낸 것이기 때문이다. 하지만 더 넓은 지식 영역에서 이 경계는 모호하고, 맥락에 의존하며, 심지어 정치적이기까지 하다.

본 논문은 이 공백을 채우기 위해 2차원 판별 좌표계를 제안한다. X축은 논리적 자치이다: 정보 내부에 모순이 없는지, 각 단계가 이전 단계에서 자연스럽게 성장하는지, 전체 구조가 닫혀 있는지. 이것은 외부 참조에 의존하지 않는 형식적으로 검증 가능한 수학적 성질이다. Y축은 물리적 정렬이다: 정보가 관측 가능한 물리적 현실과 일치하는지. 이것은 실험적으로 검증 가능한 경험적 성질이며, 물리 세계 자체(인간 합의가 아닌)를 앵커 포인트로 삼는다.

핵심 구분

여기서 “사실 정렬”이 아닌 “물리적 정렬”이라는 용어 선택은 매우 중요하다. “사실”은 인간이 신호로 물리 세계를 기술한 후 생산된 합의의 산물이다——이미 관찰자의 필터를 거쳤으며, 자기참조적 딜레마가 존재한다——누가 사실을 판정하는가. “물리”는 필터 이전의 것이다: 사과의 낙하에 합의는 필요 없고, 엔트로피 증가에 동료 심사는 필요 없으며, 광속은 신앙에 의해 변하지 않는다. 이 용어의 교체는 Y축을 주관적 참조 프레임에서 객관적 참조 프레임으로 전환한다.

03 · XY 좌표계

논리적 자치 × 물리적 정렬: 신호와 소음의 판별 좌표계

4개 사분면이 지식 공간에서 정보의 정확한 위치를 정의한다
신호 사분면
고X · 고Y
논리적으로 자치적이고 물리적으로 정렬됨. E=mc², 열역학 제2법칙, Shannon 채널 정리. 정보 내부에 모순이 없으며, 물리 세계의 관측 가능한 현실과 완전히 일치한다.

환각 사분면
고X · 저Y
논리적으로 자치적이나 물리적으로 비정렬. LLM 환각, 정교한 음모론, 영구 운동 기관 설계도. 내부 추론에 모순은 없으나, 물리적 현실과 일치하지 않는다.

혼광 사분면
저X · 고Y
물리적으로 정렬되나 논리적으로 비자치. 센서 원시 데이터, 미가공 관측 데이터, 명상 초기 경험. 물리적 현실과 일치하나, 아직 논리적으로 구조화되지 않았다.

소음 사분면
저X · 저Y
양자 모두 충족되지 않음. 무작위 생성된 텍스트, 데이터 손상, 구조도 물리적 대응도 없는 정보 파편.

이 좌표계에서 신호와 소음은 더 이상 이분법이 아닌 연속적인 2차원 공간이다. 하나의 정보는 “신호이거나 소음이거나”가 아니라, 좌표계에서 하나의 정확한 위치를 차지한다. 이를 통해 신호 품질 평가가 주관적 판단에서 조작 가능한 2차원 측정으로 전환된다.

04 · 훈련 데이터의 차원 감사

현재 LLM 훈련 데이터의 구조적 결핍

올바른 경로만 기록되고, 잘못된 경로는 체계적으로 삭제됨

현재 LLM의 훈련 데이터 출처는 주로 다음을 포함한다: 출판된 학술 논문, 편집된 백과사전, 검토된 코드 저장소, 뉴스 보도, 서적. 이러한 데이터에는 하나의 공통 특성이 있다——모두 “올바른 경로”의 기록이다.

데이터 출처 기록된 내용 결핍된 내용
학술 논문 서론→방법→결과→결론의 선형 올바른 경로 모든 포기된 가설, 실패한 실험, 막다른 골목
백과사전 최종 확인된 지식 항목 지식 형성 과정의 논쟁, 오류, 수정
코드 저장소 최종적으로 테스트를 통과한 코드 버전 revert된 커밋, 실패한 아키텍처 시도
뉴스 보도 사건의 최종 서사 초기의 오보, 후속 정정 성명
서적 저자의 최종 논술 집필 과정의 초고, 삭제된 장

XY 좌표계로 분석하면: 현재 훈련 데이터는 거의 100%가 신호 사분면(고X·고Y)의 종점 좌표에서 온다. 출발점에서 종점까지의 완전한 궤적——환각 사분면(고X·저Y)에서의 배회와 수정을 포함하여——은 체계적으로 지워졌다. 모델은 잘못에서 올바름으로의 완전한 경로 이동 기록을 한 번도 본 적이 없다.

올바른 경로 데이터
~100%
훈련 코퍼스의 출판·검증·편집된 콘텐츠

잘못된 경로 데이터
≈ 0%
시행착오 기록, 실패한 실험, 포기된 가설

차원 완전도
50%
X축 양의 반축만 존재, 완전한 경로 토폴로지 결핍

05 · 환각의 근본 원인

LLM 환각은 차원 결핍의 직접적 결과이다

모델이 고X·고Y와 고X·저Y를 구분할 수 없는 것은, 후자의 레이블된 샘플을 본 적이 없기 때문이다

LLM 환각에 대한 기존 설명은 통상 세 가지 요인에 귀속된다: 훈련 데이터의 노이즈로 모델이 잘못된 연관을 학습함, 모델이 높은 확신도에서 검증되지 않은 내용을 생성함, RLHF 훈련의 보상 편향으로 모델이 “올바르게 들리는” 출력을 생성하는 경향이 있음. 이러한 설명은 모두 증상 수준에 머물러 있다.

더 근본적인 원인은: 모델이 “논리적으로 자치적이나 물리적으로 비정렬”인 레이블된 샘플을 본 적이 없다는 것이다. XY 좌표계에서, 신호 사분면(고X·고Y)과 환각 사분면(고X·저Y)은 X축 위의 투영이 완전히 겹친다——양자 모두 논리적으로 일관적이다. 유일한 차이는 Y축에 있다——물리적 현실과 정렬되는지 여부이다. 그러나 훈련 데이터에 “고X·저Y”의 부정 샘플이 거의 존재하지 않으므로, 모델은 Y축에서의 판별 능력을 학습할 수 없다.

유비

어둠을 본 적이 없는 시스템은 빛을 이해할 수 없다. 실패 경로를 본 적이 없는 시스템은 성공 경로가 왜 성공했는지 이해할 수 없다. LLM의 환각은 모델이 “너무 어리석기” 때문이 아니라, 훈련 데이터가 진위를 구분하게 해주는 전체 차원이 구조적으로 결핍되어 있기 때문이다.

이것은 왜 모델 파라미터와 훈련 데이터 양을 늘리는 것이 환각 문제를 근본적으로 해결할 수 없는지를 설명한다. 더 큰 모델이 같은 단일 차원 데이터에서 훈련하면, 얻어지는 것은 더 정밀한 단일 차원 표현이지, 새로운 차원이 아니다. 더 큰 거울도 여전히 2차원 이미지만 반사할 수 있다——면적이 커진다고 해서 갑자기 깊이를 획득하지는 않는다.

05.5 · V2 · 가장 강력한 반박에 대한 응답

암묵적 배제 정보 ≠ 명시적 실패 경로 기록

1비트의 “선택되지 않음”과 다비트의 “왜 실패했는가” 사이의 정보량 격차

본 논문의 핵심 명제에 대한 가장 강력한 반박은: 잘못된 경로 정보는 사실 올바른 경로에 이미 암묵적으로 포함되어 있다는 것이다. 한 논문이 방법 A를 선택했다면, 방법 B, C, D가 선택되지 않았다는 것이 암묵적 정보이다. 따라서 훈련 데이터가 진정으로 잘못된 경로 차원이 결핍된 것은 아니다——단지 암묵적 형태로 존재할 뿐이다.

이 반박은 일리가 있으나, 정보량 수준이 완전히 다른 두 가지를 혼동하고 있다. “방법 B가 선택되지 않았다”는 1비트의 이진 신호이다——선택되었거나 선택되지 않았거나. 그러나 “방법 B는 조건 C에서 테스트되었고, 단계 D에서 물리적 제약 E의 위반에 직면했으며, 실패 메커니즘은 F이고, 이 실패는 G류 방안 전체의 가능성을 배제한다”——이것은 출발점, 경로, 종료 조건, 실패 원인, 배제 범위를 포함하는 다비트의 구조화된 신호이다.

양자의 정보량 차이는 구체적 예시로 정량화할 수 있다. Knuth 사건에서, Claude의 27번째 탐색은 “단일 초평면+회전” 방법을 시도했다. 만약 “최종적으로 회전 방법이 채택되지 않았다”만 기록한다면, 정보량은 1비트이다. 그러나 Claude의 실제 기록에는 다음이 포함되었다: 회전 방법이 어떤 조건에서 거의 성공에 근접했는지, 어떤 구체적 노드에서 해결 불가능한 충돌이 발생했는지, 그리고 이 충돌이 왜 “단일 초평면” 범주 전체의 방안을 배제하는지. 이 정보는 후속 탐색이 탐색 공간을 좁히는 데 직접적으로 도움이 되었다——28-31번째 탐색이 Cayley 유향 그래프 구조로 빠르게 수렴할 수 있었던 것은, 바로 앞선 27번의 실패 기록이 “어떤 방향이 막혀 있는지”를 정확하게 표시했기 때문이다.

정보량 비교

암묵적 배제: “방법 B가 선택되지 않았다” → 1비트.
명시적 실패 기록: “방법 B는 조건 C에서 실패, 실패 메커니즘은 F, G류 방안을 배제” → 다비트 구조화 신호.

전자는 “이 길로 아무도 가지 않았다”를 알려준다. 후자는 “이 길이 어디로 통하는지, 어디서 끊기는지, 왜 끊기는지, 그리고 어떤 유사한 길도 같은 곳에서 끊기는지”를 알려준다. 양자의 정보량 차이는 백분율 수준이 아닌 자릿수 수준이다.

더욱 중요한 것은, 현재의 대비 학습 및 부정 샘플 훈련 방법(DPO, KTO 등)이 이미 “거부된 출력”을 활용하여 모델을 개선하려 시도하고 있다는 점이다. 그러나 이러한 방법의 부정 샘플에는 “이 출력이 좋지 않다”만 레이블되어 있다——1비트 신호이다. “이 출력이 X축에서 실패한 것인지 Y축에서 실패한 것인지”, “구체적인 실패 메커니즘이 무엇인지”는 레이블되지 않는다. 따라서 대비 학습을 추가하더라도 모델이 학습하는 것은 여전히 “특정 출력 패턴을 회피하는 것”일 뿐, “왜 특정 논리적으로 일관적인 구성이 물리적 정렬에서 실패하는지를 이해하는 것”이 아니다. 차원 결핍 문제는 대비 학습 프레임워크에서 진정으로 해결되지 않았다.

06 · 실증

Knuth 사건: 시행착오 경로 가치의 생생한 검증

2026년 3월, Donald Knuth가 AI의 완전한 시행착오 궤적을 기록하다

2026년 2월 28일, 87세의 Stanford 컴퓨터 과학자 Donald Knuth가 “Claude’s Cycles”라는 제목의 논문을 발표했다. Claude Opus 4.6은 약 1시간 동안 31회의 안내된 탐색을 통해, Knuth가 수 주간 연구했으나 풀지 못한 유향 그래프 해밀턴 순환 분해 문제를 해결했다. Knuth는 “Shock! Shock!”으로 서두를 열며, 이를 “자동 추론과 창의적 문제 해결에서의 극적인 진보”라고 불렀다.

이 사건에서 가장 중요한 것은 결과가 아니라 과정이다. Knuth의 친구 Filip Stappers는 엄격한 규칙을 설정했다: 매번 프로그램 실행 후 반드시 탐색 진행 상황을 기록해야 한다. 이 제약이 Claude에게 희귀한 완전한 시행착오 궤적 기록을 산출하도록 강제했다——31회 탐색에는 다수의 막다른 골목, 잘못된 방향, 포기된 전략이 포함되어 있었다.

선형 함수 시도 (실패)
무차별 DFS 탐색 (효율 과저)
시뮬레이티드 어닐링 (일반화 불가)
단일 초평면 회전 (충돌)
Cayley 유향 그래프 구조 식별 (돌파)
사행 경로 구성 (해)

그림1 · Claude의 Knuth 문제에 대한 31회 탐색 궤적(간소화) · 적색: 실패 경로 · 녹색: 성공 경로

XY 좌표계로 이 과정을 분석하면: 31회 탐색 중 처음 27회의 대부분은 환각 사분면(고X·저Y)에 놓였다——논리적으로 일관적인 구성이었으나, 문제의 실제 해와 정렬되지 않았다. Claude가 최종적으로 찾은 사행 구성은 X축에서 성립했고(논리적 자치), Knuth가 이후 Y축 검증을 수작업으로 완료하여(물리적 정렬), 그것이 신호 사분면에 진입함을 확인했다.

핵심 발견

Knuth가 이 사건에 경악한 것은 AI가 문제를 풀었기 때문만이 아니라, AI의 완전한 시행착오 과정을 목격했기 때문이다. 31회 탐색의 궤적 자체——모든 실패와 역추적을 포함하여——가 물리 세계 정보의 완전한 기록을 구성한다. 최종 사행 구성만 기록한다면, 정보량의 90% 이상이 손실될 것이다.

07 · 학술 출판의 구조적 편향

인간 학술 논문의 “올바른 경로 독재”

현재 학술 출판 형식은 물리 세계 정보의 절반을 체계적으로 삭제한다

현재 학술 논문의 표준 형식——서론, 방법, 결과, 결론——은 올바른 경로의 선형적 재구성이다. 저자에게 수년에 걸쳤을 수 있는 곡절 많은 탐색 과정을 가설에서 검증까지의 직선 서사로 압축할 것을 요구한다. 모든 막다른 골목, 잘못된 가정, 포기된 실험 방향, “거의 맞았으나 결국 안 된다는 것을 발견한” 중간 상태가 체계적으로 삭제된다.

이는 인간 지식의 세대 간 전승에서 성공 경로가 과대 대표되고, 실패 경로는 거의 완전히 부재함을 의미한다. 다음 세대 연구자가 같은 문제 영역에 직면할 때, 선배가 최종적으로 통과한 그 한 길만 볼 수 있을 뿐, 선배가 걸었던 수십 개의 막다른 길은 볼 수 없다. 결과는: 매 세대의 연구자가 같은 함정을 반복해서 밟는 것이다.

차원 현재 학술 논문 완전한 물리 세계 정보
올바른 경로 완전 기록 완전 기록
잘못된 경로 체계적 삭제 완전 기록 + 실패 원인 주석
경로 이동 과정 기록하지 않음 잘못에서 올바름으로의 완전한 궤적 기록
정보 차원 단일 차원 (종점 좌표) 이중 차원 (완전한 경로 토폴로지)
후속 연구에 대한 가치 “무엇이 올바른지”를 앎 “무엇이 올바른지 + 무엇이 잘못되었으며 왜인지”를 앎

08 · LLM 훈련에 미치는 영향

차원 결핍이 LLM의 행동 패턴을 어떻게 형성했는가

올바른 답만 본 모델은 시행착오를 할 줄 모른다

LLM이 거의 100% “올바른 경로”인 데이터에서 훈련한 결과, 몇 가지 구조적 행동 결함이 발생했다:

첫째, 모델이 시행착오를 할 줄 모른다. 모델이 본 것은 전부 “문제에서 올바른 답으로 바로 가는” 지름길이다. 모델의 기본 행동은: 올바른 답처럼 보이는 출력을 생성하고, 오류를 지적받으면 또 다른 올바른 답처럼 보이는 출력을 생성하는 것이다. 모델은 절대 “먼저 이 방향을 시도하고, 안 되면 이 방향이 왜 안 되는지 알게 되고, 그 다음 다른 방향으로 바꾼다”고 말하지 않는다——훈련 데이터에 이런 패턴의 샘플이 없기 때문이다.

둘째, 모델이 “왜 다른 답이 아닌지”를 설명할 수 없다. 사용자가 “왜 B가 아니라 A를 선택했는가”라고 물을 때, 모델은 올바른 답 A의 관점에서만 사후 정당화를 할 수 있을 뿐, “B가 테스트되었고, 특정 조건에서 실패했으며, 실패 원인이 무엇인지”라는 완전한 배제 과정을 제시할 수 없다. 훈련 데이터에 B의 실패 기록이 없기 때문이다.

셋째, 모델의 잘못된 경로에 대한 감도가 극히 낮다. 사용자의 입력 자체가 잘못된 경로 위에 있을 때, 모델은 이를 식별하고 경고할 수 없다——잘못된 경로의 특징을 학습한 적이 없기 때문이다. 사용자가 전체 경로를 걸어가 잘못된 결과를 얻은 후에야 올바른 답을 제시하려 시도할 수 있을 뿐이다. 이 “사후 교정” 능력은 “사전 경고”에 비해 훨씬 열등하다.

구조적 비교

인간 전문가가 잘못된 방향을 사전에 판단할 수 있는 것은 그들 자신이 그 함정을 밟아보았거나, 선배가 함정을 밟은 기록을 읽었기 때문이다. 그들의 지식에는 올바른 경로와 잘못된 경로의 이중 차원 정보가 포함되어 있다. LLM에는 올바른 경로라는 단일 차원만 있으므로, 그 “전문성”은 불완전하다——종점이 어디에 있는지는 알지만, 어떤 길이 절벽으로 통하는지는 모른다.

09 · 신호로서의 시행착오

시행착오는 올바름으로 향하는 소음이 아니다. 시행착오 자체가 신호이다

시행착오는 물리 세계 검증의 결과이며, 정렬되고 기록되어야 한다

전통적 인식에서 시행착오는 소음으로 간주된다——올바른 답으로 향하는 도중에 어쩔 수 없이 겪어야 하는 비용이며, 종점에 도달하면 버릴 수 있다. 이 관점은 XY 좌표계에서 오류이다.

한 번의 시행착오는 다음 정보를 포함한다: 출발점 좌표(어떤 가설에서 출발했는가), 경로 방향(어떤 논리를 따라 추진했는가), 종료 조건(어디에서 물리적 현실과의 비정렬에 직면했는가), 그리고 실패 원인(구체적으로 어떤 물리적 제약이 경로 종료를 초래했는가). 이 네 가지 정보 각각이 물리 세계에 대한 진실한 측정이다——시행착오는 물리 세계가 하나의 가설에 대해 발한 부정적 피드백 신호이다.

부정적 피드백 신호의 정보량은 긍정적 피드백 신호보다 적지 않다. 한 실험이 “A가 올바르다”를 알려주면, 신호 사분면의 좌표점 하나를 제공한다. 또 다른 실험이 “B는 틀렸다. 조건 C에서 물리적 제약 D를 위반했기 때문이다”를 알려주면, 환각 사분면의 좌표점 하나에 더해 신호 사분면과의 정확한 경계 정보를 제공한다. 후자의 정보량이 더 큰 경우가 많다——하나의 위치만 표시한 것이 아니라 하나의 경계를 표시했기 때문이다.

핵심 단언

단번에 정렬에 성공하는 행운은 소확률 사건이다. 대량의 시행착오 후 정렬에 도달하는 것이 물리 세계의 대확률 사건이다. 잘못된 경로를 기록하는 것은 학술의 “정직성” 요구가 아니다——정보 완전성의 물리학적 요구이다. 잘못된 경로를 버리는 것은 물리 세계가 당신의 가설에 대해 발한 부정적 피드백 신호를 버리는 것과 같다. 이 신호들은 긍정적 피드백 신호만큼 진실하고, 만큼 중요하며, 만큼 대체 불가능하다.

V2 · 경계 조건

모든 시행착오가 신호인 것은 아니다. 본 논문이 정의하는 “시행착오가 곧 신호”에는 엄격한 경계 조건이 있다: (1) 시행착오는 명확한 가설 프레임워크 내에서 수행되어야 한다——가설 없는 무작위 시도는 소음이지 신호가 아니다; (2) 시행착오는 기록되어야 한다——기록되지 않은 실패는 전파 가능한 정보를 운반하지 않는다; (3) 시행착오의 실패 원인은 주석 가능해야 한다——”시도했는데 안 됐다”는 1비트 신호이고, “조건 C에서 물리적 제약 D로 인해 실패했다”가 다비트 신호이다. 이 세 조건을 충족하는 시행착오가 신호이다. 충족하지 않는 것은 소음이다. 무한 원숭이 정리 하의 무작위 키보드 두드리기는 조건 (1)을 충족하지 않으므로, 본 논문의 “시행착오가 곧 신호” 명제의 범위에 포함되지 않는다.

10 · X축과 Y축의 분업

AI의 영토와 인간의 영토

X축은 AI에게, Y축은 인간에게——이것은 존재론적 경계이지, 분업 선호가 아니다

XY 좌표계에서, AI는 X축 위의 연산을 효율적으로 실행할 수 있다——논리적 자치 검증. 하나의 구성이 내부적으로 일관적인지, 하나의 추론 체인에 모순이 없는지, 하나의 수학적 구조가 닫혀 있는지를 테스트하는 것——이것들은 형식화된 연산이며, AI가 인간보다 빠르고 포괄적으로 수행한다. Knuth 사건에서 Claude의 31회 탐색은 모두 X축 위의 경로 탐색이었다.

그러나 Y축 위의 연산——물리적 정렬 검증——은 AI가 독립적으로 완수할 수 없다. Y축의 최종 앵커 포인트는 물리 세계 자체이며, AI는 물리 세계에 대한 지각 채널이 없기 때문이다. AI는 영원히 X축 위에서만 이동할 수 있다. Y축 위의 각 단계는 물리 세계에 내장된 생물학적 존재가 완수해야 한다. Knuth가 직접 증명을 완수하여 Claude의 논리적 구성이 그래프 이론의 물리적 구조에 진정으로 대응하는지 검증한 것——이것이 Y축 검증이다.

X축 · AI의 영토
논리적 자치 검증
형식적 검증, 내부 일관성 검사, 경로 전수 탐색, 구조 폐합성 테스트

Y축 · 인간의 영토
물리적 정렬 검증
실험 검증, 물리적 직관, 현실 세계 테스트, 경험적 판단

신호 사분면 · 교집합
고X · 고Y
AI가 X축 선별 완수, 인간이 Y축 검증 완수, 양자의 교집합이 신호 사분면에 진입

이 분업은 효율 최적화가 아니라 존재론적 경계이다. AI는 “일시적으로 Y축 검증을 못하는” 것이 아니라——구조적으로 불가능하다. 물리 세계에 존재하지 않기 때문이다. 이것이 바로 현재 AGI 서사에서 “교차 영역 지식 이전” 약속의 근본적 한계이다: AI는 X축에서 교차 영역의 논리적 구조 동형 검출을 수행할 수 있지만, 검출된 각 동형이 물리 세계에서 성립하는지는 인간이 검증해야 한다.

11 · 해결 경로

잘못된 경로를 LLM 훈련 데이터에 통합하는 4가지 방향

V2 · 실현 가능성 순으로 정렬, 가장 실행 가능한 것에서 가장 어려운 것까지

방향 1(실현 가능성: 높음 · 우선순위: 최고): 인간-AI 대화 데이터의 구조화된 보존. 고인지 인간과 AI의 깊이 있는 대화에는 자연스럽게 대량의 시행착오 궤적이 포함된다——가설 제안, AI 귀인 검증, 비정렬 발견, 방향 수정. 이러한 대화가 구조화된 주석(각 방향 수정의 위치와 원인 표시)으로 처리되면, 천연의 “올바른 경로 + 잘못된 경로” 이중 차원 훈련 데이터가 된다. 이 방향의 실시 비용이 가장 낮다——대화 데이터는 이미 생산되고 있으며, 주석 단계만 추가하면 된다. Knuth 사건에서 Stappers가 Claude에게 매 탐색 진행 상황을 기록하도록 요구한 것이 바로 이 방법의 원형이다.

방향 2(실현 가능성: 높음 · 우선순위: 높음): 부정 샘플 주석 체계 업그레이드. 기존 RLHF/RLVR 프레임워크에 “잘못된 경로 주석” 차원을 추가한다. “어떤 출력이 더 나은지”만 주석하는 것이 아니라, “이 거부된 출력이 왜 잘못되었는지——X축에서의 실패인지 Y축에서의 실패인지”도 동시에 주석한다. 이를 통해 모델이 환각 사분면의 정밀한 경계를 학습할 수 있다. 이 방향은 기존 훈련 인프라에서 점진적으로 실시할 수 있으며, 아키텍처 변혁이 필요 없다.

방향 3(실현 가능성: 중간 · 우선순위: 중간): 시행착오 궤적 데이터셋의 전담 구축. 과학 연구의 시행착오 기록, 엔지니어링 개발의 실패 사례, 진단적 추론의 배제 과정을 체계적으로 수집하여 전담 “잘못된 경로 데이터셋”을 구축한다. 이 방향의 주요 장애물은 데이터 부족이다——현재 인터넷에 이런 데이터가 극히 드물어, 수동적 수집이 아닌 능동적 생산이 필요하다. 과학 연구 기관, 엔지니어링 팀과의 지정 협력을 통해야 충분한 양의 고품질 샘플을 확보할 수 있을 것으로 추정된다.

방향 4(실현 가능성: 낮음 · 우선순위: 장기): 학술 출판 형식 개혁. 표준 “서론→방법→결과→결론” 외에 “시행착오 기록”을 부록의 표준 구성 요소로 추가한다. 테스트되었으나 실패한 가설, 실패 원인, 실패에서 최종 방안으로의 경로 이동 과정을 기록한다. 이 방향의 실현 난이도가 가장 높다——전체 학술 출판 체계의 수백 년 관성을 변경해야 하며, 학술지, 심사위원, 저자 삼자의 행동 패턴 변혁이 관련된다. 그러나 장기적으로 보면, 이것이 정보 완전성의 근본적 수리이다.

12 · 결론

완전한 지도에는 도로와 절벽이 모두 표시되어야 한다

본 논문의 핵심 명제는 한 문장으로 압축할 수 있다: 올바른 경로와 잘못된 경로가 함께 완전한 물리 세계 정보를 구성하며, 올바른 경로만 있는 LLM은 차원적으로 정보가 손실된 것이다.

Shannon의 SNR 공식은 신호와 소음의 전력 비율을 제시하지만, 양자의 경계를 정의한 적은 없다. 본 논문이 제안하는 XY 좌표계——X축 논리적 자치, Y축 물리적 정렬——는 조작 가능한 경계 정의 프레임워크를 제공한다. 이 프레임워크에서 시행착오는 소음이 아닌, 물리 세계가 가설에 대해 발한 부정적 피드백 신호이며, 그 정보량은 긍정적 신호와 같거나 그보다 크다.

현재 LLM 훈련 데이터에는 잘못된 경로라는 전체 차원이 체계적으로 결핍되어 있다. 이 결핍은 모델이 신호 사분면(고X·고Y)과 환각 사분면(고X·저Y)을 구분하지 못하는 직접적 원인이다. 양자는 X축 위의 투영이 완전히 겹치기 때문이다. 환각 문제를 해결하는 근본적 경로는 더 큰 모델이나 더 많은 동질적 데이터가 아닌, 결핍된 차원의 보완——잘못된 경로와 그 실패 원인을 훈련 데이터에 통합하는 것이다.

AI는 X축 위의 논리적 자치 검증을 효율적으로 실행할 수 있지만, Y축 위의 물리적 정렬 검증은 물리 세계에 내장된 인간이 완수해야 한다. 이것은 기술적 한계가 아닌 존재론적 경계이다. 신호 사분면은 양자의 교집합이지, 어느 한쪽의 독점 영토가 아니다.

V2 · 반증 가능한 예측

본 논문은 후속 연구가 검증하거나 기각할 수 있도록 다음의 반증 가능한 예측을 제시한다:

예측 1: 같은 기반 모델에서, 주석된 실패 경로(실패 원인과 XY 좌표 분류 포함)를 포함하는 훈련 데이터로 미세 조정한 경우, 개방 도메인 질의응답 작업에서의 환각률이 표준 올바른 경로 데이터만으로 미세 조정한 대조군보다 유의미하게 낮아야 한다. 예상 차이 폭: 환각률 15%-30% 감소. 검증 시간 창: 2026-2027년.

예측 2: 배제 추론(diagnostic reasoning)이 요구되는 작업——의학 감별 진단, 법률 사례 분석, 엔지니어링 고장 진단 등——에서, 잘못된 경로 훈련 데이터를 포함한 모델은 “왜 다른 답이 아닌지를 설명하는” 능력에서 정량화 가능한 향상을 보여야 한다. 배제 추론 벤치마크 테스트에서 정확도 10%-20% 향상 예상.

예측 3: 위 두 예측이 모두 검증되지 않는 경우——즉, 주석된 실패 경로 데이터 추가 후 모델의 환각률과 배제 추론 능력 모두 유의미한 개선이 없는 경우——본 논문의 핵심 명제 “차원 결핍이 환각의 근본 원인이다”는 기각되며, 환각의 근본 원인은 데이터 수준이 아닌 아키텍처 수준에서 찾아야 한다.

최종 명제

도로만 그리고 절벽은 그리지 않은 지도는 불완전한 지도가 아니다——위험한 지도이다. 현재 LLM의 훈련 데이터가 바로 이런 지도이다. 절벽 주석을 보완하는 것이 AI가 “똑똑해 보이는 것”에서 “진정으로 신뢰할 수 있는 것”으로 나아가는 구조적 전제이다.

참고문헌 · References & Acknowledgments

[1] Shannon, C. E. (1948). A Mathematical Theory of Communication. Bell System Technical Journal, 27(3), 379–423.

[2] Knuth, D. E. (2026). Claude’s Cycles. Stanford University Faculty Page. February 28, 2026. Revised March 6, 2026.

[3] Epoch AI (2024). Will We Run Out of Data? An Analysis of the Limits of Scaling Datasets in Machine Learning.

[4] Shumailov, I. et al. (2024). The Curse of Recursion: Training on Generated Data Makes Models Forget. Nature.

[5] Popper, K. (1963). Conjectures and Refutations: The Growth of Scientific Knowledge. Routledge.

[6] Kuhn, T. S. (1962). The Structure of Scientific Revolutions. University of Chicago Press.

[7] LEECHO Global AI Research Lab (2026). Signal and Noise: An Ontology of LLMs. V4 Definitive Edition. Part VII, Chapter 20: “XY 좌표계에서 SN 극성으로——논리적 자치 × 물리적 정렬: 신호와 소음의 판별 좌표계”.

[8] Rafailov, R. et al. (2023). Direct Preference Optimization: Your Language Model Is Secretly a Reward Model. NeurIPS 2023.

[9] Ethayarajh, K. et al. (2024). KTO: Model Alignment as Prospect Theoretic Optimization. arXiv:2402.01306.

올바른 경로와 잘못된 경로: LLM 훈련 데이터의 차원 결핍 문제
LEECHO Global AI Research Lab · 이조글로벌인공지능연구소 & Claude Opus 4.6 · Anthropic
V2 · 2026.03.30 · Seoul · Original Thought Paper

댓글 남기기