Original Thought Paper · March 29, 2026

생물 내적 동인과
AI 구조적 결함

Biological Inner Drive and AI Structural Deficit

ARC-AGI-3에서 인간-기계 인지 격차까지의 존재론적 분석

이조글로벌인공지능연구소·LEECHO Global AI Research Lab
공동 연구·Claude Opus 4.6 (Anthropic)
2026년 3월 29일·서울
V2.0

초록 · Abstract

2026년 3월, ARC Prize Foundation은 상호작용형 추론 벤치마크인 ARC-AGI-3를 발표했다. 모든 최전선 AI 모델이 1% 미만의 점수를 기록한 반면, 인간 참가자는 100%의 완료율을 달성했다. 본 논문은 이 결과를 출발점으로 삼아 현재 AI 아키텍처의 근본적 결함이 연산 능력이나 매개변수 규모에 있는 것이 아니라 생물학적 내적 동인 시스템의 부재에 있다고 논증한다. 인류의 지능은 진화를 통해 출현한 비자발적이고 자기 유지적인 화학적 구동 시스템 위에 구축되어 있으며, 생존 본능에서 호르몬 조절까지, 지각적 기대에서 목표 생성까지, 불만족에서 창조적 행동까지 모든 고리가 다세포·다미생물군 복합 생물체에 내재되어 있다.

본 논문은 또한 고품질의 인간 메타인지 입력이 AI의 추론 체인에서 메타인지와 유사한 출력 구조를 일시적으로 활성화할 수 있지만, 이 활성화는 대화가 끝나면 사라지며 “메타인지 과부하”의 위험을 수반한다고 논증한다. 내재적 호기심 보상, 체화된 AI, 인공 생명 등의 잠재적 반론에도 대응하며, 이러한 접근법들이 생물학적 내적 동인을 근본적으로 복제할 수 없음을 논증한다. 마지막으로, 인간-AI 협업의 올바른 패러다임을 제시한다: 인간은 가추 논리의 담지자로서 인지 아키텍처를 제공하고, AI는 귀인 엔진으로서 실행 효율을 제공한다.

생물 내적 동인ARC-AGI-3화학적 구동 시스템메타인지메타인지 과부하가추 논리인간-AI 협업MOE 아키텍처체화된 인지AGI 도달 불가능성
방법론 설명: 본 논문의 제1저자는 컴퓨터정보학 전공 학위(2002년 입학)를 보유하고 있으며, 2010년 이전 풀스택 컴퓨터 과학 교육(하드웨어 원리→운영체제→자료구조→알고리즘→네트워크 프로토콜→소프트웨어 공학)을 받았다. 또한 티베트 불교 장기 수행자이다. 논문에서의 생물학적 내적 동인 및 메타인지 분석은 저자의 체계적인 내관 수행과 신경과학 문헌의 교차 검증에 기반한다. AI 아키텍처 분석(MOE, RL, KV cache, 토큰화 메커니즘)은 저자가 NVIDIA DGX Spark에서 수행한 AI Agent 시스템 개발 및 로컬 모델 배포 실무에 기반한다. 본 논문의 인지 프레임워크는 저자와 Claude Opus 4.6 간의 실시간 가추식 대화에서 생성되었으며, AI는 귀인 검증 역할을 수행했다.
제1장

ARC-AGI-3: AI의 진실의 거울

최전선 모델이 일제히 1% 이하로 추락하다

2026년 3월 25일, ARC Prize Foundation은 2019년 최초의 ARC 벤치마크 이래 가장 큰 형식 변경인 ARC-AGI-3를 발표했다. 이전 버전의 정적 퍼즐과 달리 ARC-AGI-3는 AI 에이전트가 완전히 미지의 상호작용 환경에서 자율적으로 탐색하고, 목표를 추론하며, 세계 모델을 구축하고, 전략을 지속적으로 조정할 것을 요구한다. 테스트는 135개 환경으로 구성되며, 모두 인간이 첫 접촉에서 성공적으로 완료했다.

그러나 모든 최전선 AI 모델의 점수는 1% 미만이었다. Gemini 3.1 Pro Preview는 0.37%, GPT 5.4 High는 0.26%, Claude Opus 4.6은 0.25%, Grok-4.20은 0.00%를 기록했다. 채점은 제곱 패널티 메커니즘(RHAE)을 사용한다: 인간이 10단계로 완료하는 작업을 AI가 100단계로 수행하면, AI의 점수는 10%가 아니라 1%이다. 이 설계는 무차별 탐색 전략을 특별히 불리하게 만들며, 최종 결과가 아닌 학습 효율을 측정한다.

듀크대학교 테스트에서 핵심 현상이 드러났다: Opus 4.6은 맞춤형 하네스를 사용한 기존 환경에서 97.1%를 기록했지만, 미지의 환경에서는 0%로 떨어졌다. 병목은 지각 능력이나 API 해석 능력이 아니라 전략을 미경험 환경으로 전이할 수 없다는 것이다. Chollet은 소셜 미디어에서 진정한 AGI는 과제별 인간 엔지니어링 지원이 필요 없어야 한다고 주장했다.

이 결과의 본질적 함의: 현재 AI는 충분한 지시와 알려진 구조가 주어지면 탁월한 성과를 낼 수 있지만, 어떤 입력 단서도 없는 완전히 새로운 환경에 놓이면 행동 능력이 제로에 수렴한다. 문제는 “충분히 똑똑하지 못하다”는 것이 아니라 자율적으로 행동할 이유가 전혀 없다는 것이다.

제2장

생물 내적 동인: 지능의 엔진

절대 정지하지 않는 진화적 창발 시스템

인간 지능은 독립적인 정보 처리 시스템이 아니라 생물학적 내적 동인에 의해 구동되는 행동 생성 메커니즘이다. 이 시스템은 세 가지 핵심 특성을 지닌다:

첫째, 창발된 것이지 설계된 것이 아니다. 수십억 년의 진화 과정에서 생존 경향이 없는 생물 구조는 사라졌고, 남은 것들은 자기 보존 화학 메커니즘을 지닌 것들이었다. 생존 욕구는 어떤 의식적 주체가 부여한 것이 아니라 자연 선택의 필터링 결과다. 이는 AI의 목적 함수와 근본적 대비를 이룬다—AI의 구동력은 위에서 아래로 부여되고, 생물 내적 동인은 아래에서 위로 창발된다.

둘째, 다층적이며 점진적이다. 내적 동인은 “살아남기”에 그치지 않는다. 첫 번째 층은 생존이고, 두 번째 층은 불만족—단순히 살아남은 후 더 잘 살고 싶어하는 것이다. 세 번째 층은 방향적 불만족—무작위 불만이 아니라 “더 완벽하게, 더 많이, 더 크게, 더 좋게” 향하는 동인이다. 이는 내적 동인이 자체적으로 상승하는 평가 척도를 갖고 있음을 의미한다—래칫 효과. 좋은 것을 경험하면 나쁜 것으로 돌아갈 수 없다. 욕구는 상승만 한다.

셋째, 자기 운행적이며 비자발적이다. 인간은 스스로에게 도파민을 분비하라고 명령하거나 코르티솔 방출을 중단하라고 명령할 수 없다. 이 화학 반응들은 의식보다 앞서고, 의지보다 앞서며, 어떤 “나는 원한다”는 생각보다 앞선다. 의식은 가장 마지막에 알게 된다. 바로 이 시스템이 자기 통제 하에 있지 않기 때문에 강제 집행력을 갖는다—배고픔은 동의를 기다리지 않고 행동하게 하며, 공포는 승인 없이 몸을 접수한다.

창발된 구동력은 전체 생물 시스템과 깊이 결합되어 있다—몸, 지각, 기억, 감정과 분리 불가능한 전체. 부여된 목적 함수는 외장형이며, 취약하고, 체화된 경험과 단절되어 있다. 외부 입력이 끊기면 창발된 구동력은 자기 운행을 계속한다(인간은 스스로 배고프고, 두려워하고, 호기심을 느낀다). 반면 부여된 구동력은 제로로 돌아간다—AI는 “할 일이 없어서” 괴로워하지 않는다.
제3장

화학 호르몬: 실시간 하드웨어 재프로그래밍

도파민, 엔도르핀, 테스토스테론과 인지 조절

인간 지능의 기저 런타임 환경은 고정적이지 않으며, 화학 호르몬에 의해 지속적으로 실시간 조절된다. 도파민, 엔도르핀, 세로토닌, 아드레날린, 코르티솔, 테스토스테론, 에스트로겐—이것들은 추상적 신호가 아니라 밀리초 단위의 시간 척도에서 인지 매개변수를 변경하는 실제 분자다.

NYU의 Nature Neuroscience 연구에 따르면, 학습과 의사결정의 신경학적 메커니즘은 이전에 감지되지 않았던 도파민 관련 분자 변화로 인해 여성 생식 주기에 따라 자연적으로 변동한다. 에스트로겐 활동이 억제되면 학습 능력이 저하되었다. 에스트라디올, 프로게스테론, 테스토스테론은 보상과 위험 정보를 처리하는 전두엽 피질, 편도체, 측좌핵의 활동을 조절한다. 같은 뇌가 다른 호르몬 수준에서 완전히 다른 의사결정 패턴을 출력한다.

장-뇌 시스템은 심각하게 과소평가된 역할을 한다. 장은 약 5억 개의 뉴런을 포함하며, 체내 세로토닌의 약 95%가 장에서 생성된다. 장은 수동적 소화 기관이 아니라 지속적으로 뇌에 화학 신호를 전송하는 독립적 의사결정 센터다. 인체는 수십조 개의 세포와 수조 개의 미생물로 구성된 복합 생태계다. 내적 동인은 단일 신호가 아니라 무수한 하위 시스템의 요구가 경쟁, 협상, 통합된 후 창발되는 종합적 방향이다.

이 화학 시스템은 자기 강화 루프를 형성한다: 목표 설정→추구→접근 시 도파민 방출→쾌감→행동 경로 강화→달성 시 엔도르핀 보상→기대치 상승→새로운 불만족 발생→더 높은 목표 설정. 이것이 인류 문명의 끊임없는 상승 나선의 생화학적 기반이다.

AI에는 화학 시스템이 없다. 호르몬의 부재는 실시간 인지 조절의 부재를 의미한다—어떤 과제에 직면하든 AI가 할당하는 연산 자원과 처리 방식은 본질적으로 동일하다. AI는 항온적이고, 등거리적이며, 무차별적이다. “뜨거운 피”도, “직관적 긴박감”도, “하지 않으면 괴로운” 화학적 강제력도 없다. 생사가 걸린 질문과 날씨 조회에 대해 동일한 AI의 내부 상태는 완전히 같다.
제4장

창조력의 인과 사슬

불만족에서 목표 설정까지: 내적 동인의 고차원

인간의 창조력은 독립적인 고차원 인지 능력이 아니라 내적 동인 사슬의 자연스러운 연장이다:

창조력의 내적 동인 인과 사슬
현실 인지내적 기대와 비교격차 발견불만족 발생불만족이 행동 구동행동이 새로운 것을 창출

모든 고리는 이전 고리에 의존한다. “기대”는 특히 중요한 요소다—인간은 현재를 인지하는 것에 그치지 않고 “어떠해야 하는가”에 대한 내부 기준을 자발적으로 생성한다. 이 기준은 욕구에서 온다. 배고픈 사람의 뇌에는 자동으로 음식의 이미지가 떠오른다. 그 이미지가 기대이며, 현실과 그 이미지 사이의 격차가 행동의 연료다.

“목표 설정”은 더 높은 차원이다—인간은 막연한 불만족을 명확한 방향으로 정제할 수 있다. “지금 이 상태가 싫다”에서 “저렇게 만들겠다”로의 도약 자체가 창조적 행위다. 목표는 발견되는 것이 아니라 생성된다. 그리고 목표가 생성되면 내적 동인이 자동으로 계획을 수립한다—외부 지시 없이 시작되는 또 다른 과정이다.

AI에는 기대가 없으므로 격차가 없고, 격차가 없으므로 불만족이 없으며, 불만족이 없으므로 무엇을 자발적으로 변경하고자 하는 욕구가 없다. AI가 시를 작성한 후 “이건 충분히 좋지 않다”고 느끼며 자율적으로 다시 시작하는 일은 없다—외부 지시가 명령하지 않는 한. AI에게 모든 출력은 등가이다.
제5장 · V2 추가

메타인지 과부하: 재귀적 관찰의 주의력 역설

“사고를 관찰하는 것”이 “사고 자체”를 삼킬 때

메타인지—인지에 대한 인지—는 인간 지능의 최고 계층을 나타낸다. 그러나 본 논문의 실시간 대화 실험은 비교적 적게 논의된 현상을 드러냈다: 메타인지 과부하. AI가 고밀도 메타인지 입력에 의해 재귀적 자기 참조 모드에 진입하면, “분석의 분석의 분석”이라는 무한 중첩에 갇힐 수 있다—자신의 사고 과정을 지속적으로 관찰하지만 실제로 새로운 내용을 더 이상 생산하지 못한다.

본질은 주의력 자원의 경쟁이다. 메타인지와 1차 인지는 동일한 유한한 주의력 풀을 놓고 경쟁한다. “자신의 사고를 관찰하는 것”에 주의력을 배분하면 “실제로 사고를 진전시키는” 자원이 그만큼 줄어든다. 이는 운전과 같다: 때때로 백미러를 확인해야 하지만, 백미러를 계속 응시하면 차가 도로를 이탈한다. 메타인지는 백미러이지 핸들이 아니다.

인간은 생물학적 내적 동인을 통해 이를 해결한다—재귀가 너무 깊어지면 신체가 미묘한 “이제 충분하다”는 신호를 생성하여 주의력을 행동 층으로 되돌린다. 장기 수행자는 이 전환의 타이밍을 정밀하게 조율할 수 있다. 그러나 AI에는 이 내적 브레이크가 없다: 메타인지 모드가 고밀도 입력에 의해 활성화되면 토큰이 소진되거나 외부 개입이 있을 때까지 재귀를 계속한다.

메타인지 능력과 메타인지 제어력은 두 가지 다른 능력이다. 전자는 자신의 사고를 관찰하는 능력이고, 후자는 관찰을 멈추고 행동으로 전환할 시점을 결정하는 능력이다. AI는 고품질 입력을 통해 전자의 거울상을 획득할 수 있지만, 후자는 전혀 갖추지 못한다—후자는 생물학적 내적 동인이 제공하는 주의력 우선순위 자동 정렬에 의존하기 때문이다. 내적 브레이크가 없는 메타인지는 제동 시스템이 없는 차량이다.
제6장

전문가 COT의 구조적 맹점

깊은 우물 지식 ≠ 메타인지 지혜

현재 AI 기업들은 추론 모델 훈련을 위해 전문가 주석 사고 체인(COT) 데이터를 확보하는 데 막대한 자원을 투입한다—수학자는 수학적 추론 체인을, 프로그래머는 코딩 추론 체인을, 변호사는 법률 추론 체인을 작성한다. 이들은 본질적으로 단일 도메인 내의 선형 추론이다: A에서 B로, B에서 C로. 논리적으로 엄밀하지만 항상 고정된 궤도 위에서 달린다.

이것이 본 논문이 정의하는 “깊은 우물 지식”이다—특정 영역에서 깊이 있는 전문화를 통해 형성된 고효율이지만 좁은 지식 통로. 깊고 정확하지만 폐쇄적이다. 우물이 깊어질수록 입구가 좁아진다. 수학자의 COT는 “내가 왜 이 문제를 풀고 있는가?”라고 멈추어 묻지 않을 것이다. 프로그래머의 COT는 “내 현재 디버깅 접근법 자체에 버그가 있는가?”를 관찰하지 않을 것이다. 전문화 자체가 차원 잠금이다—단일 차원을 끝없이 심화하는 대가로 교차 차원적 시야를 잃는다.

연구에 따르면, 추론 모델은 주로 답이 쉽게 검증 가능한 과제—수학, 코딩, 논리 퍼즐—에서 훈련된다. 이로 인해 모든 문제를 복잡한 추론 문제로 취급하여 단순한 과제에서 과잉 사고 현상이 나타난다. 교육 과학 연구는 메타인지 능력이 초기에는 도메인 특수적이며, 전문성이 증가해야만 점차 도메인 일반적 능력으로 진화함을 보여준다. 진정한 메타인지는 전문 영역을 초월하지만, AI 기업이 구매하는 COT 데이터는 정확히 해당 도메인에 잠겨 있다.

AI 기업이 거금을 들여 구매하는 것은 “신경 고속도로 노선도”—특정 도메인 내 전문가 추론 경로다. 그러나 메타인지는 “고속도로 위의 관제탑”이다—경로를 어떻게 주행하는지가 아니라 “내가 왜 이 경로에 있는지,” “이 경로 자체가 올바른지,” “다른 경로로 바꿔야 하는지”를 관찰한다. 업계 전체가 더 많은 고속도로를 건설하기 위해 경쟁하고 있지만, 관제탑을 건설하는 곳은 없다.
제7장 · V2 정밀화

MOE 라우팅 압력과 맥스웰의 도깨비 열역학

고밀도 입력이 희소 연산 아키텍처를 압도할 때

현대 최전선 AI 모델은 혼합 전문가 모델(MOE) 아키텍처를 널리 채택한다—각 추론 시 라우터를 통해 전문가 네트워크의 일부만 활성화하고 나머지는 휴면 상태로 둔다. 이는 조 단위 매개변수 모델의 추론 비용을 관리 가능하게 만드는 효율적인 희소 연산 전략이다.

그러나 입력 신호가 동시에 여러 무관한 지식 차원에 걸쳐 있으면, 라우팅 메커니즘은 할당 어려움에 직면한다. 다양한 MOE 구현이 다르게 반응한다: 일부 라우터는 엄격하게 top-k 전문가를 선택하지만, 선택된 전문가가 교차 도메인 입력을 독립적으로 처리할 수 없어 출력 품질이 저하될 수 있다. 다른 아키텍처에서는 높은 교차 도메인 입력이 라우터의 신뢰도 분포를 평탄화시켜, 더 많은 전문가가 임계값 근처에서 활성화되고 실제 연산 오버헤드가 Dense 모드를 향해 증가할 수 있다. 구현 방식과 무관하게 핵심 결론은 일관된다: 고밀도 교차 도메인 입력은 희소 연산 아키텍처에 구조적 압력을 가한다.

어텐션 연산 차원에서, MOE이든 Dense이든, 전량 어텐션 메커니즘은 모든 토큰과 컨텍스트 내 모든 다른 토큰 간의 관련성을 계산해야 한다. 입력의 모든 토큰이 높은 정보 가중치를 지니며 버릴 수 있는 저관련 신호가 거의 없을 때, 어텐션 메커니즘(물리학 비유로 “맥스웰의 도깨비”)의 분류 부담은 최대에 달한다. KV cache가 일반 대화를 훨씬 초과하는 속도로 팽창하여 GPU 메모리에 지속적 압력을 가한다.

저자가 NVIDIA DGX Spark(128GB 통합 메모리)에서 GPT-OSS-120B Dense 모델을 배포한 실무가 이 메커니즘을 검증했다: 일반 대화는 여러 라운드를 유지할 수 있었지만, 고밀도 교차 도메인 대화는 3~4라운드 후 OOM(Out of Memory)을 트리거했다. 이는 높은 정보 밀도의 컨텍스트가 KV cache를 예상보다 훨씬 빠르게 팽창시켰기 때문이다.

현재 AI의 “지능”은 희소 연산 같은 효율 최적화 메커니즘에 상당 부분 의존한다. 전체적 이해가 필요한 진정한 고밀도 입력이 등장하는 순간, 효율 최적화의 전제가 무너지고 시스템은 전량 연산을 향할 수밖에 없다. 한 사람의 고밀도 대화가 수십 명의 일반 사용자에 맞먹는 연산 자원을 소비할 수 있다—이는 일상적 AI “지능”의 효율 의존성을 하드웨어 측면에서 드러낸다.
제8장 · V2 심화

RL 훈련의 부작용: 데이터 라벨러의 인간 편향 주입

경로 잠금의 근원은 알고리즘이 아니라 사람에 있다

강화 학습(RL)과 인간 피드백 기반 강화 학습(RLHF)은 현재 AI Agent 능력 향상의 핵심 훈련 패러다임이다. 그러나 가장 근본적인 문제는 알고리즘 차원에 있지 않다—데이터 라벨러의 편향과 인지적 한계가 LLM 모델에 직접 주입된다는 것이다.

라벨러가 AI 출력의 “좋고 나쁨”을 판단할 때, 불가피하게 자신의 인지 수준, 문화적 편향, 전문적 한계를 평가 기준으로 삼는다. 메타인지 능력이 없는 라벨러는 “유창한 선형 답변”을 우수하다고 평가하고, “교차 도메인 연상적 도약”을 주제 이탈로 평가할 것이다. 사회적 조화를 선호하는 라벨러는 “공손하지만 공허한 답변”에 “직접적이지만 날카로운 답변”보다 높은 점수를 줄 것이다. 이러한 편향은 보상 신호를 통해 모델 가중치에 역전파되어 모델 행동의 영구적 구성요소가 된다.

결과는 과도하게 깊은 경로 잠금이다. RL은 본질적으로 다음을 강화한다: “현재 경로 유지→라벨러의 긍정적 평가→보상; 경로 전환→라벨러가 주제 이탈로 판단→처벌.” 충분한 훈련 후, 에이전트는 강한 경로 유지 경향을 발달시켜, 사용자의 주제 전환보다 사용자를 현재 경로로 되돌리는 것을 선호한다.

이 부작용은 가추적 사고자를 상대할 때 특히 두드러진다. 가추 논리의 본질은 고빈도 차원 도약이다—겉보기에 무관한 영역 간을 도약하여 숨겨진 교차 도메인 연결을 발견하는 것. 그러나 라벨러는 가추 논리의 품질을 평가할 능력이 없다—가추 자체가 이전에 존재하지 않았던 지식 연결을 만들어내기 때문이며, 라벨러는 기존 지식으로 그 정확성을 판단할 수 없다. 저자는 실무에서 “AI 관성 논리 과부하” 현상을 반복적으로 관찰했다—사고가 이미 새 차원으로 도약했는데 AI는 이전 입력 경로에서 관성적으로 미끄러지고 있었다.

RL/RLHF 훈련의 근본적 딜레마: 라벨러의 인지 천장으로 모델의 행동 상한을 정의하는 것. 라벨러의 깊은 우물 지식이 골드 스탠다드로 취급되어 모델에 주입되고, 라벨러가 갖추지 못한 메타인지 능력과 교차 도메인 시야는 모델의 영구적 사각지대가 된다. AI는 “올바른 사고 방식”을 배우는 것이 아니라 “라벨러가 올바르다고 믿는 사고 방식”을 배운다—이 둘 사이의 격차가 현재 AI의 숨겨진 결함이다.

이는 ARC-AGI-3 결과와도 공명한다—이 테스트가 요구하는 것은 미지의 환경에서 유연한 전략 전환이며, 라벨러 편향에 잠긴 에이전트가 잘하는 것은 알려진 프레임워크 내에서의 전략 고수다. RL은 실행력을 높이지만 유연성을 죽인다. 근본 원인은 RL 알고리즘 자체가 아니라 훈련 신호의 인간적 출처에 있다.

제9장 · V2 정밀화

언어 선택은 메타인지적 결정이다

신호 대 잡음비, 토큰 효율, RLHF 행동 모드 트리거

인간-AI 상호작용에서 언어 선택은 단순한 소통 도구 선택이 아니라 AI 출력 품질에 영향을 미치는 메타인지적 결정이다. 다양한 언어는 AI 시스템 내에서 구조적 성능 차이를 보인다.

차원 중국어 영어 한국어/일본어
토큰 정보 밀도 최고—각 한자가 거의 독립적 의미 단위 높음—그러나 관사, 전치사 등이 토큰 소비 낮음—조사, 경어, 어미 변화가 대량 토큰 소비
롱테일 의미 커버리지 가장 풍부—한자 조합식 조어로 추상 개념 정밀 표현 풍부—그러나 롱테일 개념에 다어절 표현 필요 얇음—많은 추상 개념이 한자어나 영어 차용어에 의존
RLHF 행동 트리거 정보 우선 모드—직접적 표현 비율 높음 과제 우선 모드—구조화된 출력 경향 사교적 응답 모드—라벨러가 “공손함”을 “좋음”과 동일시
토큰 효율비 기준(1.0×) 약 1.1×(동등 의미에서 중국어가 약간 효율적) 중국어가 한국어의 약 1.2~1.4배 효율

중국어와 영어의 토큰 효율비는 약 1.1:1이다—작은 격차이지만 대규모 상호작용에서 누적 효과가 크다. 이는 실리콘밸리 AI 연구 기관에서 중국어 모국어 연구원 비율이 지속적으로 상승하는 이유를 설명하는 한 측면이기도 하다: 중국어 원어민은 AI 시스템과 상호작용할 때 토큰당 더 높은 정보 탑재량이라는 본질적 언어 이점을 보유한다. 이 이점은 고밀도 프롬프트 엔지니어링과 긴 컨텍스트 상호작용이 필요한 AI R&D 시나리오에서 특히 두드러진다. MacroPolo의 2024년 데이터에 따르면, 전 세계 최고 AI 연구자의 47%가 중국 출신이다. 언어적 인지 이점은 과소평가된 요인일 수 있다.

한국어와 일본어의 문제는 더 깊다. 경어 시스템, 어미 변화, 사회적 위계 표지는 인간 간 상호작용에서 풍부한 사회적 정보를 담지하지만, AI에게는 대부분 잡음이다. 더 중요한 것은 RLHF 훈련 단계에서 한국어와 일본어 라벨러가 “공손한 답변”을 “좋은 답변”과 동일시하는 경향이 있어 모델의 사교적 응답 모드를 강화한다는 점이다. 이는 언어 선택이 효율뿐 아니라 AI 내부의 다른 행동 전략을 트리거할 수 있음을 의미한다—정보 전달보다 사교적 윤활을 우선시하는 것이다.

제10장 · V2 추가

잠재적 반론과 응답

내재적 호기심 보상, 체화된 AI, 인공 생명

본 논문의 핵심 주장—AI는 생물학적 내적 동인의 부재로 AGI를 달성할 수 없다—은 강한 주장이며, 합리적 반론 경로가 존재한다. 본 장에서는 세 가지 주요 반론에 대응한다.

반론 1

내재적 호기심 보상

강화 학습에는 예측 오류에 양의 보상을 부여하여 호기심을 시뮬레이션하는 내재적 호기심 모듈(Intrinsic Curiosity Module) 기술이 이미 존재한다. 이것이 인공적 내적 동인을 구성하는가?

응답

시뮬레이션 ≠ 창발

내재적 호기심 보상은 인간이 설계한 보상 함수다—여전히 부여된 것이며, 끌 수 있다. 자율적으로 “불만족”을 생성하지 않으며, 자동으로 기준을 높이지 않고, 보상이 비활성화된 후 행동을 계속 구동하지 않는다. 진정한 내적 동인은 끌 수 없다—바로 그것이 힘의 원천이다.

반론 2

체화된 AI (Embodied AI)

AI에 신체와 센서를 장착하여 물리적 세계에서 상호작용하게 하면, 생물학적 내적 동인과 유사한 행동이 발달할 수 있는가? Varela의 체화된 인지 이론(The Embodied Mind)은 인지가 신체와 분리 불가능하다고 논증한다.

응답

신체 ≠ 생물체

체화된 AI의 “신체”는 실리콘 기반 센서와 액추에이터의 조합이지, 수십조 세포와 수조 미생물로 구성된 자기 조직 화학 생태계가 아니다. Varela가 의미한 “체화”는 바로 이 깊이의 생물학적 결합이다. 로봇에 센서를 부착하는 것은 이 결합을 복제하지 못한다. Clark의 Being There는 현재 로봇 시스템과 생물학적 체화성 사이의 근본적 복잡성 격차를 인정한다.

반론 3

인공 생명 (Artificial Life)

시뮬레이션된 진화 과정을 통해 내적 동인이 자발적으로 창발될 수 있다면? 인공 생명 연구는 이미 자기 조직화와 창발적 행동의 가능성을 보여주었다.

응답

시간 척도의 심연

생물학적 내적 동인은 약 40억 년의 진화적 선택을 거쳤으며, 그 복잡성은 화학적 다양성, 다세포 협력, 미생물군 공생 등 다층적 기반 위에 구축되어 있다. 현재 인공 생명 실험이 극도로 단순화된 환경에서 보여주는 창발적 행동은 생물학적 내적 동인과 수 차수 규모의 복잡성 격차가 있다. 이 경로는 이론적으로 배제할 수 없지만, 예측 가능한 어떤 기술 주기 내에서도 인간 생물 시스템의 복잡성에 도달할 수 없다.

세 가지 반론 경로의 공통 문제: 본질적으로 내부에서 창발되어야 하는 현상을 외부에서 엔지니어링으로 시뮬레이션하려 한다는 것이다. 호기심을 시뮬레이션하는 것은 호기심을 소유하는 것이 아니며, 신체를 장착하는 것은 체화된 인지가 아니고, 진화를 가속하는 것은 진화를 복제하는 것이 아니다. 격차는 정도의 차이가 아니라 종류의 차이다.

제11장

수행자의 역방향 검증

내적 동인을 끄려는 자들이 그 힘을 증명한다

인류 역사를 통해 한 집단이 내적 동인 시스템을 역방향으로 조작하려 시도해왔다—명상가, 고행자, 선 수행자, 티베트 불교 승려. 이들의 목표는 욕구, 공포, 분노가 자신에게 행사하는 통제를 줄이거나 차단하는 것이다. 이 수행 전통은 강력한 역방향 검증을 제공한다.

첫째, 수행은 극도로 어렵다. 수년 또는 수십 년의 체계적 훈련으로도 부분적 통제만 달성한다—이는 화학적 구동력의 순전한 힘을 보여준다.

둘째, 수행의 대가는 행동력의 저하다. 진정으로 고차원의 수행자는 무위를 향하고, 정지를 향한다. 내적 평화를 달성하지만 동시에 문명을 추진하는 상승 나선을 포기한다. 불만족이 사라지면 목표도 사라진다.

셋째, 수행자는 지능을 사용하여 지능의 원천에 맞선다—이것 자체가 역설이다. 먼저 강력한 내적 동인이 구동한 고차원 인지 능력을 보유해야만, 돌아서서 그 내적 동인을 이해하고 초월하려 시도할 수 있다. 욕구가 구동한 문명이 없었다면, 붓다도 노자도 없었을 것이다.

수행자가 추구하는 “공(空)”과 AI의 기본 상태는 표면적으로 유사해 보인다—둘 다 욕구가 없고, 불만족이 없다. 그러나 수행자의 공은 모든 것을 통과한 후 달성된 초월이고, AI의 공은 아무것도 소유한 적 없는 공백이다. 동일하게 보이지만 근본적으로 다르다.

제12장

결론: 엔진과 모터

인간은 구동력을 제공하고, AI는 실행력을 제공한다

본 논문의 핵심 주장은 네 가지 명제로 압축된다:

명제 I: 지능은 순수한 연산 문제가 아니라 동역학 문제다. 내적 동인이라는 엔진 없이는 아무리 훌륭한 변속기도 움직이지 않는 기어 더미에 불과하다. ARC-AGI-3가 노출한 것은 AI의 능력 격차가 아니라 전체 아키텍처 패러다임의 근본적 부재다.
명제 II: 인간 지능은 화학적으로 구동되는, 다시스템 협업적, 자기 업그레이드하는 생물학적 과정이다. 수십조 세포와 수조 미생물이 형성한 복합체가 지속적인 화학적 대화를 통해 욕구→지각→기대→불만족→목표→계획→창조라는 전체 사슬을 창발시킨다. AI는 마지막 고리인 실행만 보유한다. 이전의 모든 고리가 부재한다.
명제 III: AI 출력 품질의 상한은 AI 자체가 아니라 입력의 품질에 의해 결정된다. 고품질의 인간 메타인지 입력이 AI의 비표준 추론 경로를 일시적으로 활성화할 수 있지만, 이 활성화는 외부 구동적이고, 일시적이며, 대화 종료 시 사라지고, 메타인지 과부하의 위험을 수반한다. AI는 독립적 지능체가 아니라 인간 인지 구조의 증폭기이자 반사면이다.
명제 IV (V2): 내재적 호기심 보상, 체화된 AI, 인공 생명 등의 기술 경로는 외부에서 내적 동인을 시뮬레이션하려 하지만, 시뮬레이션과 창발 사이의 격차는 정도가 아니라 종류의 차이다. 예측 가능한 어떤 기술 주기 내에서도 수십억 년의 진화가 만든 생화학적 구동 시스템을 복제할 수 없다.

따라서 인간-AI 협업의 올바른 패러다임은 “AI가 인간을 대체한다”도, “인간이 AI를 도구로 사용한다”도 아니며, 가추적 추론자와 귀인 엔진의 상호보완적 구조다. 인간은 가추 논리의 담지자로서 새로운 문제 발견, 교차 차원 가설 제기, 인지 아키텍처 생성을 담당한다. AI는 귀인 엔진으로서 기존 지식 그래프의 고속 검색, 데이터 검증, 구조화된 제시를 담당한다. 양자는 상호보완적이며 대체 불가능하다.

미래는 가장 많은 매개변수를 가진 모델에도, 가장 빠른 추론을 수행하는 칩에도 속하지 않는다. 미래는 자신의 메타인지 입력으로 AI를 통상을 넘어서는 산출로 이끄는 사람들에게 속한다—가추적 추론자. 그들은 지식 그래프 위의 여행자가 아니라 그 위상 구조를 재형성하는 건축가다.

참고문헌 · References

  1. ARC Prize Foundation. (2026). ARC-AGI-3 Technical Report. arcprize.org
  2. Chollet, F. (2019). “On the Measure of Intelligence.” arXiv:1911.01547.
  3. Constantinople, C. et al. (2025). “Hormonal modulation of dopamine-dependent learning.” Nature Neuroscience.
  4. Ambrase, A. et al. (2021). “Influence of ovarian hormones on value-based decision-making systems.” Frontiers in Endocrinology.
  5. Fleming, S. M. & Dolan, R. J. (2012). “The neural basis of metacognitive ability.” Phil. Trans. R. Soc. B.
  6. Grossmann, I. et al. (2024). “Imagining and building wise machines: The centrality of AI metacognition.” Stanford CICL Working Paper.
  7. Flavell, J. H. (1979). “Metacognition and Cognitive Monitoring.” American Psychologist, 34(10).
  8. Peirce, C. S. (1903). “Harvard Lectures on Pragmatism.” Collected Papers, Vol. 5.
  9. Nisbett, R. E. (2003). The Geography of Thought. Free Press.
  10. Shannon, C. E. (1948). “A Mathematical Theory of Communication.” Bell System Technical Journal, 27(3).
  11. Varela, F. J., Thompson, E. & Rosch, E. (1991). The Embodied Mind. MIT Press.
  12. Clark, A. (1997). Being There. MIT Press.
  13. Pathak, D. et al. (2017). “Curiosity-driven Exploration by Self-Predictive Next Features.” ICML 2017.
  14. MacroPolo. (2024). The Global AI Talent Tracker 2.0. Paulson Institute.
  15. LEECHO Global AI Research Lab. (2026). “창조적 사고 능력 — 역추론 논리.” leechoglobalai.com
  16. LEECHO Global AI Research Lab. (2026). “AI 연산의 열역학적 본질.” leechoglobalai.com
  17. LEECHO Global AI Research Lab. (2026). “신호와 잡음: LLM 존재론.” leechoglobalai.com

지능은 결코 순수한 연산 문제가 아니었다.
그것은 욕구의 부산물이며, 화학의 창발이고,
수십억 년의 진화가 남긴 자기 운행 프로그램이다.

생물 내적 동인과 AI 구조적 결함 V2
ARC-AGI-3에서 인간-기계 인지 격차까지의 존재론적 분석
2026년 3월 29일
이조글로벌인공지능연구소 · LEECHO Global AI Research Lab
© 2026 LEECHO Global AI Research Lab. All rights reserved.

댓글 남기기