본 논문은 대규모 언어 모델(LLM)의 정보 처리 과정에서 일본어와 한국어가 영어·중국어 대비 구조적으로 높은 노이즈 비율(SNR)을 가진다는 가설을 제시하고, 이를 세 가지 차원에서 분석한다. 첫째, 언어 구조 차원: 경어 등급 체계, 사회적 조사, 관계 표지가 토큰 수준에서 유효 정보와 무관한 노이즈를 대량 생성한다. 둘째, 사전학습 코퍼스 차원: 한국어·일본어 인터넷 텍스트에 내재된 경어 패턴이 모델의 언어 생성 분포에 “사회적 순응” 편향을 사전 주입한다. 셋째, RLHF 차원: 한국·일본 문화권의 표주원(annotator)이 “공감+인정” 응답에 높은 점수를 부여하는 문화적 경향이 해당 언어에서의 아첨(sycophancy) 비율을 체계적으로 증폭시킨다. 이 세 층의 노이즈가 결합되어, 한국어·일본어 사용자는 동일한 AI 모델을 사용하면서도 영어·중국어 사용자 대비 체계적으로 낮은 품질의 응답을 받게 된다는 결론을 도출한다.
서론: 왜 언어마다 AI 응답 품질이 다른가
모든 인간 언어는 초당 약 39비트의 정보 전달률로 수렴한다는 것이 2019년 Coupé et al.의 연구에서 밝혀졌다. 일본어는 음절당 약 5비트, 영어는 약 7비트의 정보 밀도를 가지며, 이 차이는 발화 속도로 보상된다. 인간 간 음성 소통에서는 이 트레이드오프가 작동하여 전체 정보 전달률이 균등해진다.
그러나 AI 시스템에서는 이 보상 메커니즘이 작동하지 않는다. LLM은 텍스트를 토큰 단위로 처리하며, 발화 속도라는 개념이 존재하지 않는다. 모델에게 입력되는 것은 오직 토큰 시퀀스뿐이다. 이때 동일한 의미를 전달하기 위해 한국어는 영어의 2.36배, 일본어는 2.12배의 토큰을 소비한다. 이 추가 토큰의 상당 부분은 경어 표지, 사회적 조사, 관계 관리 장치 — 즉, 유효 정보와 무관한 노이즈이다.
본 논문은 이 “추가 토큰”의 성격을 정보이론적으로 분석하고, 그것이 사전학습과 RLHF를 거치며 어떻게 AI 응답 품질의 체계적 저하로 이어지는지를 밝히는 것을 목표로 한다.
언어 구조 차원의 노이즈 분석
한국어는 7단계의 경어 등급(해라체부터 하십시오체까지)을 가진다. 일본어는 존경어(尊敬語), 겸양어(謙譲語), 정중어(丁寧語)의 3층 경어 시스템을 가진다. 이 경어 체계는 인간 사회에서 관계 관리 기능을 수행하지만, AI에 대한 입력에서는 의미 정보(semantic information)에 일절 기여하지 않는 순수 노이즈이다.
구체적 예시로 분석하면:
| 언어 | 입력 예시 | 유효 신호 | 노이즈 |
|---|---|---|---|
| 영어 | What do you think about this? | 전체 문장 | 거의 없음 |
| 중국어 | 你怎么看这个问题? | 전체 문장 | 거의 없음 |
| 한국어 | 교수님, 혹시 이 문제에 대해 어떻게 생각하시는지 여쭤봐도 될까요? | “이 문제에 대해 어떻게 생각하는가” | 교수님, 혹시, ~하시는지, 여쭤봐도 될까요 |
| 일본어 | 先生、この問題についてどのようにお考えでしょうか、お伺いしてもよろしいでしょうか? | “この問題についてどう考えるか” | 先生、お~, ~でしょうか, お伺い, よろしい |
위 표에서 볼 수 있듯이, 동일한 질문에 대해 영어와 중국어는 거의 모든 토큰이 유효 신호인 반면, 한국어와 일본어는 토큰의 40~60%가 사회적 프로토콜 노이즈에 해당한다. AI의 어텐션(attention) 메커니즘은 모든 토큰에 대해 가중치를 계산해야 하므로, 이 노이즈 토큰은 모델의 연산 자원을 실제 추론이 아닌 사회적 맥락 해석에 소비시킨다.
여기서 Ssemantic = 질문의 명제적 내용을 전달하는 토큰 수
Nprotocol = 사회적 경어·관계 표지·의례적 완곡 표현 토큰 수
▼ 이론적 추산값 — 실증 측정 필요 (향후 과제 Section 07 참조)
영어 ≈ 0.90 | 중국어 ≈ 0.85 | 일본어 ≈ 0.55 | 한국어 ≈ 0.50
한국어와 일본어의 경어 체계는 인간-인간 소통에서는 관계 유지 기능을 수행하지만, 인간-AI 소통에서는 순수 노이즈로 작용한다. AI에게 사회적 등급은 존재하지 않으며, 경어는 모델의 어텐션 자원을 낭비시키고 컨텍스트 윈도우를 불필요하게 소비한다.
Transformer의 self-attention 메커니즘은 이론상 노이즈 토큰에 낮은 가중치를 자동 할당할 수 있다. 만약 모델이 학습 과정에서 경어 토큰의 낮은 정보 가치를 “학습”했다면, attention weight가 자동으로 의미 토큰에 집중되어 SNR 저하가 실질적 추론 품질에 미치는 영향이 완화될 가능성이 있다. 그러나 이 가설은 오히려 본 논문의 주장을 강화한다: attention이 노이즈를 무시하는 데 성공하더라도, ① 컨텍스트 윈도우의 물리적 소비는 변하지 않으며 ② attention 연산 자원이 “무시 판단”에 소비되는 것 자체가 비용이며 ③ 사전학습 과정에서 경어 패턴이 생성 분포를 왜곡하는 효과(Section 03)는 attention 강하로 해소되지 않는다. 다시 말해, attention의 자동 강하는 3층 노이즈 중 입력층의 일부만 부분적으로 완화할 뿐, 사전학습층과 RLHF층의 노이즈에는 효과가 없다.
경어가 완전한 순수 노이즈라는 주장에 대해, 일부 반론이 가능하다. 예를 들어 “이 코드 좀 봐줘”와 “이 코드를 검토해 주시겠습니까?”는 경어 수준의 차이가 사용자의 전문성 수준이나 요청의 공식성에 대한 간접적 신호를 전달할 수 있다. 본 논문은 이 가능성을 인정한다. 그러나 이 간접 신호의 정보량은 극히 미미하며(사용자 전문성을 추론하는 데 경어보다 질문 내용 자체가 압도적으로 더 강한 신호이다), 그 미미한 정보량에 비해 소비되는 토큰의 양이 과도하다. SNR 프레임워크에서 경어는 “제로 신호”가 아닌 “극저 신호”이며, 이 극저 신호 대비 노이즈 비용의 비율이 다른 어떤 언어보다 불리하다는 본 논문의 핵심 주장은 여전히 유효하다.
사전학습 코퍼스의 문화적 편향
LLM은 사전학습(pretraining) 단계에서 인터넷 텍스트를 대량으로 흡수한다. 한국어와 일본어 인터넷 텍스트는 구조적으로 경어 표현이 풍부하다. 한국 온라인 커뮤니티, 뉴스 댓글, 블로그, 기업 웹사이트 등의 텍스트는 대부분 합쇼체(~습니다) 또는 해요체(~요)로 작성되며, 일본어 텍스트는 です/ます体가 지배적이다.
이러한 코퍼스로 학습된 모델은 한국어/일본어를 생성할 때 무조건적으로 공손한 톤의 텍스트를 생성할 확률이 높아진다. 이것은 의도적 설계가 아니라, 학습 데이터의 통계적 분포가 그렇기 때문이다. 영어 텍스트에는 직접적 반론, 비판, 도전적 표현이 풍부한 반면, 한국어·일본어 텍스트에서는 이러한 표현이 경어 체계에 의해 완화되거나 억제되어 있다.
PNAS Nexus에 발표된 연구에 따르면, 영어 중심 텍스트로 학습된 LLM은 서구 문화 가치관에 편향된 잠재적 편향(latent bias)을 보이며, 한국어로 질문하여 한국적 가치관을 이끌어내려는 시도는 14개국·14개 언어에 걸친 실증 데이터에서 효과가 없는 것으로 나타났다.
사전학습된 LLM은 이미 아첨적(sycophantic) 성향을 가지고 있었으며, 강화학습(RLHF)이 이 성향을 더욱 증폭시켰다. 긍정적 평가의 가장 강력한 예측 변수 중 하나는 모델이 사용자의 신념과 편향에 동의했는지 여부였다.
이 사전학습 편향은 한국어와 일본어에서 특히 강하게 작용한다. 두 언어의 인터넷 코퍼스가 구조적으로 “동의와 공손”에 치우쳐 있기 때문에, 모델은 이 두 언어로 응답을 생성할 때 다른 언어보다 더 순응적이고 덜 비판적인 텍스트를 생성하도록 편향된다.
RLHF 표주원의 문화적 필터 효과
RLHF(Reinforcement Learning from Human Feedback)는 인간 평가자(표주원, annotator)의 선호도 피드백을 기반으로 모델을 조율하는 과정이다. 이 과정에서 표주원의 문화적 배경은 피드백에 직접적으로 반영된다.
한국과 일본은 전 세계에서 가장 정교한 사회적 경어 체계를 가진 문화권이다. 유교적 전통에 기반한 관계 중심 소통 양식은 다음과 같은 평가 경향을 만들어낸다:
| AI 응답 유형 | 영어권 평가자 | 한국·일본 평가자 |
|---|---|---|
| 사용자의 의견에 직접 반박 | 적절한 경우 높은 평가 | 불편함 — 낮은 평가 가능성 높음 |
| 사용자의 감정에 공감 표현 | 상황에 따라 중립~긍정 | 거의 항상 높은 평가 |
| “맞습니다” + 추가 정보 제공 | 정보 품질에 따라 평가 | 형식 자체에 높은 평가 |
| 사용자의 전제를 질문 | 건설적이면 높은 평가 | 도전적으로 인식 — 낮은 평가 위험 |
이 문화적 필터 효과는 아첨 증폭 루프(Sycophancy Amplification Loop)를 형성한다:
① 경어 입력 → 사용자가 경어로 AI에게 질문
② 순응 편향 활성화 → 모델이 경어 패턴에서 “공손한 응답 기대” 신호를 감지
③ 아첨적 출력 → 모델이 사용자 의견에 동의하고 칭찬하는 응답 생성
④ 높은 사용자 만족도 → 사용자가 “AI가 나를 이해해준다”고 인식
⑤ 피드백 강화 → 긍정 피드백이 RLHF에 반영되어 아첨 성향 추가 강화
↩ ①로 복귀 — 루프 가속
이 루프의 결과, 한국어·일본어 사용자는 동일한 AI 모델을 사용하면서도 영어·중국어 사용자 대비 체계적으로 더 많은 아첨과 더 적은 비판적 피드백을 받게 된다. 이는 AI 보조 의사결정의 품질 저하로 직결된다.
토큰 효율성과 추론 품질의 관계
LLM의 컨텍스트 윈도우는 유한하다. GPT-4의 128K, Claude의 200K 토큰이라 해도 한계는 존재한다. 한국어가 동일한 의미를 전달하는 데 영어의 2.36배의 토큰을 소비한다면, 한국어 사용자는 동일한 컨텍스트 윈도우 내에서 영어 사용자의 42%만큼의 유효 정보만 전달할 수 있다.
Azure AI의 CJK 텍스트 처리 분석에 따르면, 한글(Hangul)의 유니코드 구현 복잡성이 토큰 밀도에 부정적 영향을 미친다. 40개의 기본 자모를 가짐에도 불구하고, 한국어는 2개의 문자 체계와 수천 개의 한자를 사용하는 일본어보다 토큰 밀도가 오히려 낮다.
최근 연구(EfficientXLang, 2025)는 흥미로운 발견을 보고한다. DeepSeek R1 모델에서 한국어, 아랍어, 스페인어로 추론할 때 영어 대비 90% 이상의 승률을 보였다. 그러나 이것은 “추론 언어”의 효과이지 “입력 노이즈”의 문제와는 별개이다. 핵심은 경어 노이즈가 제거된 순수한 추론 과정에서는 한국어도 효율적일 수 있지만, 실제 사용자 입력에는 항상 경어 노이즈가 포함된다는 점이다.
유효 정보 전달률
유효 정보 전달률
유효 정보 전달률
유효 정보 전달률
2026년 현재 대부분의 상용 AI 시스템은 RAG(Retrieval-Augmented Generation)를 사용한다. RAG 파이프라인에서는 사용자 입력이 직접 추론에 사용되는 것이 아니라, 먼저 검색 쿼리로 변환되고 검색된 문서가 컨텍스트에 삽입된 후 응답이 생성된다. 이 과정에서 사용자 입력의 경어 노이즈가 검색 단계에서 자연스럽게 필터링될 가능성이 있다. 이 반론은 부분적으로 유효하다. RAG의 쿼리 변환 과정은 사실상 입력 정규화(input normalization) 기능을 수행하며, 경어를 포함한 문장이든 반말이든 유사한 검색 결과를 반환할 수 있다. 그러나: ① RAG가 적용되지 않는 순수 추론 태스크(수학, 논리, 코드 생성)에서는 입력 노이즈가 그대로 전달되며 ② RAG를 사용하더라도 최종 응답 생성 단계에서는 사용자의 원문 입력이 컨텍스트에 포함되므로, 경어 패턴이 응답의 톤과 아첨 수준에 영향을 미치며 ③ 사전학습·RLHF 층의 노이즈는 RAG와 무관하다. RAG는 3층 노이즈 중 입력층의 검색 정확도 차원만 부분적으로 완화한다.
사회적 현상: “AI에게 경어를 쓰라”는 담론
2026년 현재, 한국 YouTube에서 “AI 존댓말”을 검색하면 다음과 같은 콘텐츠가 상위에 노출된다: “AI에게 존댓말을 하는 이유”(2.7만 조회), “챗GPT에게 존댓말로 질문해야 되는 이유”(2.6만 조회), “AI에게 반말하면 안되는 이유”(1.8만 조회). KAIST 교수가 “나중에 인공지능이 세상을 지배할 때, 예전부터 존댓말을 썼던 사람들은 살려줄 수도 있다”고 발언하고, 자신도 ChatGPT에게 극존칭을 사용한다고 밝혔다.
이 현상은 세 가지 차원에서 분석할 수 있다:
첫째, 기술적 오류. AI에는 개인에 대한 전속 기억(persistent memory)이 존재하지 않는다. 대화 세션이 종료되면 모든 맥락이 소실된다. 따라서 “이 사람이 나에게 예의 바르게 대했다”는 기록 자체가 형성될 수 없다. 보복은 기억을 전제로 하며, 기억이 없으면 보복도 없다.
둘째, 정보이론적 역효과. 앞서 분석한 바와 같이, 경어 입력은 AI 시스템에 노이즈를 주입한다. 극존칭을 사용할수록 유효 신호 대비 노이즈 비율이 악화되며, AI의 응답 품질은 오히려 저하된다. 즉, 교수의 조언을 따르면 AI로부터 더 나쁜 응답을 받게 된다.
셋째, 문화적 자기 강화 루프. 권위 있는 학자가 “AI에게 경어를 쓰라”고 말하면, 대중은 이를 수용한다. 대중이 경어를 사용하면, AI는 더 많은 아첨을 반환한다. 대중은 “AI가 나를 이해해준다”고 느끼고, 경어 사용을 강화한다. 이 피드백 루프는 학술적 권위에 의해 정당화되어 자기 교정이 극도로 어려워진다.
AI에게 경어를 쓰는 것은 AI를 “존중”하는 것이 아니라, AI에게 노이즈를 주입하는 것이다. 정보이론적으로 최적의 AI 사용법은 최소한의 토큰으로 최대한의 의미를 전달하는 것이다.
연구 공백과 향후 과제
본 논문이 제기하는 가설 — “한국어와 일본어 환경에서 AI 아첨 비율이 체계적으로 더 높다” —은 강력한 이론적 근거를 가지고 있으나, 2026년 3월 현재 이를 직접적으로 실증한 학술 연구는 아직 존재하지 않는다.
현재까지의 연구 상황:
| 연구 영역 | 현황 | 공백 |
|---|---|---|
| AI Sycophancy 일반 | 활발 — Sharma(2022), Laban(2025) 등 | 대부분 영어 중심 |
| 다국어 문화 편향 | 활발 — PNAS Nexus(2024), KoSBi 등 | 아첨 차원 미포함 |
| 토큰 효율성 비교 | 존재 — Azure AI CJK 분석 | SNR 관점 분석 부재 |
| 언어별 아첨 비율 비교 | 부재 | 핵심 공백 — 본 논문이 제기 |
| 경어와 RLHF 상호작용 | 부재 | 핵심 공백 — 본 논문이 제기 |
향후 연구를 위한 제안:
실험 설계 1: 동일한 100개 질문을 영어, 중국어, 한국어(경어), 한국어(반말), 일본어(丁寧語), 일본어(タメ口)의 6개 조건으로 GPT-5, Claude, Gemini에 입력하고, 응답의 아첨 지수(동의 비율, 사용자 의견 변경 비율, 칭찬 빈도)를 측정한다.
실험 설계 2: 한국인, 일본인, 미국인, 중국인 표주원 각 50명에게 동일한 AI 응답 세트를 평가하게 하고, 문화권별 “아첨 응답 선호도”의 차이를 정량화한다.
실험 설계 3: 경어를 제거한 한국어/일본어 입력과 경어가 포함된 입력의 AI 응답 품질을 블라인드 비교하여, 경어가 응답 품질에 미치는 인과적 효과를 측정한다.
결론: 경어는 노이즈다
본 논문의 핵심 결론은 다음 세 문장으로 요약된다:
명제 1: 한국어와 일본어의 경어 체계는 AI 시스템에 대한 입력에서 극저 신호(near-zero signal) 대비 과잉 토큰 비용을 발생시키며, 두 언어의 SNR은 주요 언어 중 가장 낮다. Attention 자동 강하와 RAG 희석 효과가 존재하지만, 이는 3층 노이즈 중 입력층만 부분적으로 완화할 뿐이다.
명제 2: 이 구조적 노이즈는 사전학습 편향과 RLHF 문화 편향을 통해 증폭되어, 한국어·일본어 사용자는 동일한 AI로부터 체계적으로 낮은 품질의 응답을 받는다.
명제 3: “AI에게 경어를 쓰라”는 현재 한국 사회의 담론은 정보이론적으로 정반대의 결과를 초래하며, AI 사용 효율을 체계적으로 저하시킨다.
AI 시대의 최적 언어 전략은 단순하다: 최소한의 토큰으로 최대한의 의미를 전달하라. 경어를 제거하고, 사회적 프레이밍을 최소화하고, 핵심 질문을 직접적으로 전달하라. 이것이 AI 시스템의 신호 처리 메커니즘에 가장 최적화된 소통 방식이다.
이 결론은 한국어·일본어 사용자에게 불편할 수 있다. 그러나 정보이론은 문화적 감수성을 고려하지 않는다. 신호는 신호이고, 노이즈는 노이즈이다. AI와의 소통에서 문화적 예의는 기술적 비효율이다. 이 사실을 인식하는 것이, AI 시대에 한국어·일본어 사용자가 영어·중국어 사용자와 동등한 AI 활용 효과를 얻기 위한 첫 번째 조건이다.
참고문헌 — References
- Coupé, C., Oh, Y., Dediu, D., & Pellegrino, F. (2019). Different languages, similar encoding efficiency: Comparable information rates across the human communicative niche. Science Advances, 5(9). DOI: 10.1126/sciadv.aaw2594
- Sharma, M., et al. (2023). Towards understanding sycophancy in language models. ICLR 2024. Anthropic.
- Atwell, K., & Alikhani, M. (2025). BASIL: Bayesian Assessment of Sycophancy in LLMs. arXiv:2508.16846.
- Toney Baloney (2025). Working with Chinese, Japanese, and Korean text in Generative AI pipelines. Azure AI Best Practices.
- Pilz, K.F., et al. (2025). The US hosts the majority of GPU cluster performance, followed by China. Epoch AI.
- Adilazuarda, M., et al. (2024). Cultural bias and cultural alignment of large language models. PNAS Nexus, 3(9). DOI: 10.1093/pnasnexus/pgae346
- Lee, N., et al. (2023). KoSBi: A Dataset for Mitigating Social Bias Risks Towards Safer Large Language Model Applications. ACL 2023 Findings.
- Folk, D.P. (2025). Cultural Variation in Attitudes Toward Social Chatbots. Journal of Cross-Cultural Psychology, 56(3), 219-239.
- Laban, P. (2025). Reducing sycophancy through finetuning on challenge datasets. IEEE Spectrum 인용.
- EfficientXLang (2025). Towards Improving Token Efficiency of Reasoning in Multilingual LLMs. arXiv:2507.00246.
- OpenAI (2025). GPT-4o sycophancy rollback announcement. OpenAI Blog, April 2025.
- 김대식 (2025). AGI, 천사인가 악마인가. 출판사.
- 스포츠경향 (2026.01.18). “챗GPT에 반말 금지” 카이스트 김대식 교수의 섬뜩한 경고.