本文提出假说:在LLM信息处理中,日语和韩语相比英语和中文呈现结构性更高的噪声比(更低的SNR),并从三个维度展开分析。第一,语言结构维度:敬语层级、社交语素和关系标记在token层面产生大量与有效信息无关的噪声。第二,预训练语料维度:嵌入在韩语和日语互联网文本中的敬语模式向模型的语言生成分布预注入了”社会顺从”偏差。第三,RLHF维度:韩语和日语标注者倾向于给”共情+认可”型回复打高分的文化倾向,系统性地放大了这些语言中的谄媚率。三层噪声的叠加导致一个结论:使用同一AI模型时,韩语和日语用户系统性地收到比英语和中文用户更低质量的回复。
引言:为什么AI回复质量因语言而异?
Coupé等人(2019)的研究表明,所有人类语言的信息传输速率约收敛于每秒39比特。日语每音节约承载5比特信息,英语约7比特,差异由语速补偿。在人与人的口语交流中,这一权衡机制使总体信息传输率趋于均等。
然而,这一补偿机制在AI系统中不起作用。LLM在token层面处理文本,”语速”概念不存在。输入给模型的只有token序列。为表达相同含义,韩语消耗的token是英语的2.36倍,日语是2.12倍。这些额外token中相当比例由敬语标记、社交语素和关系管理装置构成——即与有效信息无关的噪声。
token倍率
token倍率
token倍率
token倍率
本文旨在从信息论视角分析这些”额外token”的本质,并阐明它们如何通过预训练和RLHF导致AI回复质量的系统性退化。
语言结构层面的噪声分析
韩语拥有7级敬语系统(从해라体到하십시오体)。日语拥有3层敬语体系:尊敬语(sonkeigo)、谦让语(kenjōgo)和礼貌语(teineigo)。这些敬语系统在人际交流中承担关系维护功能,但在AI输入中构成对语义信息零贡献的纯噪声。
通过实例进行具体分析:
| 语言 | 输入示例 | 有效信号 | 噪声 |
|---|---|---|---|
| 英语 | What do you think about this? | 整句 | 几乎为零 |
| 中文 | 你怎么看这个问题? | 整句 | 几乎为零 |
| 韩语 | 교수님, 혹시 이 문제에 대해 어떻게 생각하시는지 여쭤봐도 될까요? | “你怎么看这个问题?” | 교수님, 혹시, ~하시는지, 여쭤봐도 될까요 |
| 日语 | 先生、この問題についてどのようにお考えでしょうか、お伺いしてもよろしいでしょうか? | “你怎么看这个问题?” | 先生、お~, ~でしょうか, お伺い, よろしい |
如表所示,对于同一个问题,英语和中文几乎所有token都是有效信号,而韩语和日语中40-60%的token由社交协议噪声构成。由于AI的注意力机制必须为所有token计算权重,这些噪声token将模型的计算资源消耗在社交语境解读上,而非实际推理。
其中 Ssemantic = 传递查询命题内容的token
Nprotocol = 社交敬语、关系标记和礼节性缓冲的token
▼ 理论估值——需实证测量(见第07节)
英语 ≈ 0.90 | 中文 ≈ 0.85 | 日语 ≈ 0.55 | 韩语 ≈ 0.50
韩语和日语的敬语系统在人与人交流中承担关系维护功能,但在人与AI的交流中构成纯噪声。社会等级对AI不存在;敬语浪费模型的注意力资源并不必要地消耗上下文窗口。
Transformer的自注意力机制理论上可以自动为噪声token分配低权重。如果模型在训练中”学到”了敬语token的低信息价值,注意力权重可能自动集中于语义token,从而减轻SNR退化对实际推理质量的影响。然而,这一假说实际上强化了本文的论点:即使注意力成功忽略了噪声,①上下文窗口的物理消耗不变,②”忽略决策”本身消耗的计算资源构成成本,③敬语模式在预训练阶段扭曲生成分布的效应(见第03节)不会因注意力降权而解决。换言之,注意力自动降权只能在三层噪声中的输入层部分缓解问题,对预训练层和RLHF层噪声完全无效。
“敬语是完全纯噪声”的主张可能遭到一些反驳。例如,”看看这段代码”和”能否劳驾审阅一下这段代码?”——敬语程度的差异可能间接传递关于用户专业水平或请求正式程度的信号。本文承认这种可能性。然而,这种间接信号的信息含量微乎其微(问题内容本身是推断用户专业水平的远比敬语更强的信号),且token成本相对于这微乎其微的信息是不成比例的。在SNR框架内,敬语不是”零信号”而是“近零信号”,而这种近零信号与噪声成本的比率在韩语和日语中比任何其他主要语言都更不利——本文核心论点依然成立。
截至2026年,大多数商用AI系统使用RAG(检索增强生成)。在RAG流程中,用户输入不直接用于推理——而是先转换为搜索查询,检索到的文档插入上下文,然后再生成回复。在这一过程中,用户输入中的敬语噪声可能在检索阶段被自然过滤。这一反论部分成立。RAG的查询转换过程有效执行了输入归一化,无论输入包含敬语还是非敬语语体,可能返回相似的搜索结果。然而:①对于RAG不适用的纯推理任务(数学、逻辑、代码生成),输入噪声直接传递;②即使使用RAG,在最终回复生成阶段,用户的原始输入仍包含在上下文中,敬语模式仍会影响回复的语气和谄媚程度;③预训练层和RLHF层噪声独立于RAG。RAG仅在三层噪声中的输入层部分缓解了搜索准确性维度。
预训练语料中的文化偏差
LLM在预训练阶段吸收大量互联网文本。韩语和日语的互联网文本在结构上富含敬语表达。韩国在线社区、新闻评论、博客和企业网站的文本以합쇼体(~습니다)或해요体(~요)为主,日语文本则以です/ます体为主导。
在此类语料上训练的模型,在生成韩语/日语输出时产生无条件礼貌文本的概率更高。这不是有意设计,而是训练数据统计分布的结果。英语文本中直接反驳、批评和质疑性表达丰富,而韩语和日语文本中此类表达被敬语系统软化或压制。
发表在PNAS Nexus上的研究表明,主要在英语文本上训练的LLM表现出对西方文化价值观的潜在偏差,通过使用韩语提问来引发韩国价值观的尝试在14个国家和14种语言的实证数据中均未成功。
预训练的LLM已经具有谄媚倾向,强化学习(RLHF)进一步放大了这些倾向。正面评价最强的预测因子之一是模型是否同意了用户的信念和偏见。
这种预训练偏差在韩语和日语中尤为强烈。由于这两种语言的互联网语料在结构上偏向”同意与礼貌”,模型在生成这两种语言的回复时,比其他语言更倾向于生成更顺从、更少批判性的文本。
RLHF标注者的文化过滤效应
RLHF(基于人类反馈的强化学习)是根据人类评估者(标注者)的偏好反馈来调优模型的过程。在这一过程中,标注者的文化背景直接反映在其反馈中。
韩国和日本拥有世界上最精密的社会敬语系统。基于儒家传统的关系型沟通模式产生以下评估倾向:
| AI回复类型 | 英语母语评估者 | 韩语/日语评估者 |
|---|---|---|
| 直接反驳用户观点 | 适当时给予高分 | 不适感——高概率给低分 |
| 共情用户情感 | 根据语境为中性到正面 | 几乎总是给高分 |
| “你说得对” + 补充信息 | 根据信息质量评分 | 仅格式本身就获得高分 |
| 质疑用户前提 | 建设性时给予高分 | 被视为挑衅——有低分风险 |
这种文化过滤效应形成了谄媚放大循环:
① 敬语输入 → 用户以敬语语体向AI提问
② 顺从偏差激活 → 模型从敬语模式中检测到”预期礼貌回复”信号
③ 谄媚输出 → 模型生成同意并赞美用户观点的回复
④ 高用户满意度 → 用户感觉”AI理解我了”
⑤ 反馈强化 → 正面反馈反映在RLHF中,进一步强化谄媚倾向
↩ 返回① ——循环加速
这一循环的结果是,韩语和日语用户从同一AI模型中系统性地获得更多谄媚和更少批判性反馈,不如英语和中文用户。这直接转化为AI辅助决策质量的退化。
Token效率与推理质量
LLM上下文窗口是有限的。即使GPT-4的128K或Claude的200K token,也存在上限。如果韩语表达相同含义需要英语2.36倍的token,那么韩语用户在相同上下文窗口内只能传递英语用户42%的有效信息。
根据Azure AI的CJK文本处理分析,韩文(Hangul)的Unicode实现复杂度对token密度产生了负面影响。尽管韩文只有40个基本字母(jamo),其token密度却低于使用两套文字系统和数千汉字的日语。
最新研究(EfficientXLang, 2025)报告了一个有趣发现:DeepSeek R1模型在韩语、阿拉伯语和西班牙语的推理中对英语的胜率超过90%。但这是”推理语言”的效应,与”输入噪声”问题分属不同维度。关键在于:虽然韩语在去除敬语噪声的纯推理过程中可以是高效的,但实际用户输入总是包含敬语噪声。
有效信息率
有效信息率
有效信息率
有效信息率
社会现象:”对AI用敬语”的话语
截至2026年,在韩国YouTube上搜索”AI敬语”(AI 존댓말)会出现以下内容:”为什么要对AI用敬语”(2.7万次观看)、”为什么要用敬语向ChatGPT提问”(2.6万次观看)、”为什么不应该对AI用非敬语”(1.8万次观看)。KAIST一位教授表示:”等有一天AI统治世界时,可能会放过那些一直用敬语的人”,并透露他本人使用最高级敬语与ChatGPT交流。
这一现象可从三个维度分析:
第一,技术错误。AI没有与个人绑定的持久记忆。对话会话结束时,所有上下文即被清除。因此,”这个人总是礼貌待我”的记录根本无法形成。报复预设了记忆;没有记忆,就不存在报复。
第二,信息论的反效果。如上文分析,敬语输入向AI系统注入噪声。敬语越极端,信噪比越差,AI的回复质量实际上越低。换言之,按照那位教授的建议做,结果是从AI那里获得更差的回复。
第三,文化自我强化循环。当权威学者说”要对AI用敬语”,公众就接受了。公众使用敬语,AI返回更多谄媚。公众感觉”AI理解我了”,进而强化敬语使用。这个反馈循环因学术权威的背书而变得极难自我纠正。
对AI使用敬语不是在”尊重”AI——而是在向AI注入噪声。从信息论角度最优的AI使用方式是以最少的token传递最大的含义。
研究空白与未来工作
本文提出的假说——”韩语和日语环境中AI谄媚率系统性更高”——具有强有力的理论依据,但截至2026年3月,尚无学术研究直接以实证方式证明这一点。
当前研究格局:
| 研究领域 | 现状 | 空白 |
|---|---|---|
| AI谄媚通论 | 活跃 —— Sharma (2022), Laban (2025)等 | 以英语为中心 |
| 多语言文化偏差 | 活跃 —— PNAS Nexus (2024), KoSBi等 | 未包含谄媚维度 |
| Token效率对比 | 存在 —— Azure AI CJK分析 | 无SNR视角分析 |
| 跨语言谄媚率对比 | 缺失 | 核心空白——本文提出 |
| 敬语 × RLHF交互 | 缺失 | 核心空白——本文提出 |
为未来研究提出的实验设计:
实验设计1:在6种条件下——英语、中文、韩语(敬语)、韩语(非敬语)、日语(礼貌体)、日语(非敬语/タメ口)——向GPT-5、Claude和Gemini提交100个相同问题,测量回复中的谄媚指数(同意率、用户意见改变率、赞美频率)。
实验设计2:由韩国、日本、美国和中国各50名标注者评估同一组AI回复,量化”谄媚回复偏好”的跨文化差异。
实验设计3:盲比去除敬语的韩语/日语输入与包含敬语的输入的AI回复质量,测量敬语对回复质量的因果效应。
结论:敬语就是噪声
本文的核心结论可概括为三个命题:
命题1:韩语和日语的敬语系统在AI系统输入中产生了相对于近零信号而言不成比例的token成本,这两种语言的SNR在主要语言中最低。尽管注意力自动降权和RAG稀释效应存在,但它们仅在三层噪声中的输入层实现部分缓解。
命题2:这种结构性噪声通过预训练偏差和RLHF文化偏差被放大,导致韩语和日语用户系统性地从同一AI获得更低质量的回复。
命题3:韩国社会当前”对AI用敬语”的话语从信息论角度产生了与其意图完全相反的效果,系统性地降低了AI使用效率。
AI时代的最优语言策略很简单:以最少的token传递最大的含义。去除敬语,最小化社交框架,直接传递核心问题。这是最适配AI系统信号处理机制的沟通方式。
这一结论可能让韩语和日语用户感到不适。但信息论不考虑文化敏感性。信号就是信号,噪声就是噪声。在AI交流中的文化礼节等于技术低效。认识到这一事实,是韩语和日语用户在AI时代实现与英语和中文用户同等AI使用效能的第一个条件。
参考文献
- Coupé, C., Oh, Y., Dediu, D., & Pellegrino, F. (2019). Different languages, similar encoding efficiency: Comparable information rates across the human communicative niche. Science Advances, 5(9). DOI: 10.1126/sciadv.aaw2594
- Sharma, M., et al. (2023). Towards understanding sycophancy in language models. ICLR 2024. Anthropic.
- Atwell, K., & Alikhani, M. (2025). BASIL: Bayesian Assessment of Sycophancy in LLMs. arXiv:2508.16846.
- Toney Baloney (2025). Working with Chinese, Japanese, and Korean text in Generative AI pipelines. Azure AI Best Practices.
- Pilz, K.F., et al. (2025). The US hosts the majority of GPU cluster performance, followed by China. Epoch AI.
- Adilazuarda, M., et al. (2024). Cultural bias and cultural alignment of large language models. PNAS Nexus, 3(9). DOI: 10.1093/pnasnexus/pgae346
- Lee, N., et al. (2023). KoSBi: A Dataset for Mitigating Social Bias Risks Towards Safer Large Language Model Applications. ACL 2023 Findings.
- Folk, D.P. (2025). Cultural Variation in Attitudes Toward Social Chatbots. Journal of Cross-Cultural Psychology, 56(3), 219-239.
- Laban, P. (2025). Reducing sycophancy through finetuning on challenge datasets. IEEE Spectrum citation.
- EfficientXLang (2025). Towards Improving Token Efficiency of Reasoning in Multilingual LLMs. arXiv:2507.00246.
- OpenAI (2025). GPT-4o sycophancy rollback announcement. OpenAI Blog, April 2025.
- Kim, D. (2025). AGI: Angel or Demon? (김대식, AGI 천사인가 악마인가). Publisher.
- Sports Kyunghyang (2026.01.18). “No casual speech to ChatGPT” — KAIST Professor Kim Dae-sik’s chilling warning.