2026年3月,ARC Prize Foundation发布ARC-AGI-3交互式推理基准测试,全部前沿AI模型得分低于1%,而人类测试者通过率为100%。本文以此为切入点,论证当前AI架构的根本缺陷不在于算力或参数规模,而在于缺乏生物内驱力系统。人类智能建立在一套由进化涌现的、不可自控的化学驱动系统之上——从生存欲望到激素调节、从感知预期到目标生成、从不满足到创造行为,每一环都嵌入在多细胞多菌群的复合生物体之中。AI不具备这一基座,因此在缺乏外部输入的情况下无法自主生成目标、产生不满、或驱动创造。
本文进一步论证:高质量的人类元认知输入可以在AI的推理链路中临时激活类似元认知的输出结构,但这种激活随对话结束而消失,且存在”元认知过载”导致的路径迷失风险。本文同时回应了内在好奇心奖励、具身AI等潜在反驳路径,论证这些尝试为何无法从根本上弥补生物内驱力的缺失。最后,本文提出人机协作的正确范式:人类作为溯因逻辑的承载者提供认知架构,AI作为归因引擎提供执行效率。
ARC-AGI-3
化学驱动系统
元认知
元认知过载
溯因逻辑
人机协作
MOE架构
具身认知
AGI不可达性
ARC-AGI-3:AI的照妖镜
2026年3月25日,ARC Prize Foundation发布了ARC-AGI-3——自2019年ARC首次推出以来格式变化最大的版本。与此前的静态谜题不同,ARC-AGI-3要求AI智能体在完全未知的交互式环境中自主探索、推断目标、建立世界模型、并持续调整策略。测试包含135个环境,全部由人类首次接触即成功完成。
然而,全部前沿AI模型的成绩均低于1%。Gemini 3.1 Pro Preview得分0.37%,GPT 5.4 High得分0.26%,Claude Opus 4.6得分0.25%,Grok-4.20得分0.00%。评分采用平方惩罚机制(RHAE):若人类完成某任务需10步而AI需100步,AI在该任务的得分不是10%,而是1%。这一设计专门打压暴力搜索策略,评价的是学习效率而非最终结果。
这一结果的本质含义是:当前AI在有充分指令和已知结构的条件下可以表现优异,但一旦被置于没有任何输入提示的全新环境中,其行动能力接近于零。问题不是”不够聪明”,而是根本没有自主行动的理由。
生物内驱力:智能的发动机
人类智能不是一个独立运行的信息处理系统,而是一套由生物内驱力驱动的行为生成机制。这套内驱力系统具有以下核心特征:
第一,它是涌现的,不是被设计的。在几十亿年的进化过程中,没有生存倾向的生物结构消失了,保留下来的恰好是那些携带自我保存化学机制的生物体。生存欲望不是被任何有意识的主体赋予的,而是自然选择的筛选结果。这与AI的目标函数形成根本对比——AI的驱动力是自上而下赋予的,生物内驱力是自下而上涌现的。
第二,它是多层级递进的。内驱力不只是”活下去”。第一层是生存,第二层是不满足——活着之后还想活得更好。第三层是方向性不满——不是随机的不满,而是朝向”更完美、更多、更大、更好”的方向。这意味着内驱力自带一个不断上移的评价标尺——棘轮效应。用了好的就回不去差的,欲望只能往上走,这驱动着人类文明的永续加速。
第三,它是自运行且不可自控的。人类无法命令自己分泌多巴胺或停止皮质醇的释放。这些化学反应先于意识、先于意志、先于任何”我想要”的念头。意识是最后一个知道的。正是因为这套系统不受自身控制,它才具有强制执行力——饥饿不等你同意就让你行动,恐惧不经你批准就接管你的身体。这种不可自控性是内驱力的核心优势:一个完全可控的驱动系统因为可控而可以被关闭,因此不可靠。
化学激素:实时重新编程的硬件层
人类智能的底层运行环境不是固定的,而是被化学激素持续实时调制的。多巴胺、内啡肽、血清素、肾上腺素、皮质醇、睾酮、雌激素——这些不是抽象的信号,而是真实的分子,在毫秒级的时间尺度上改变人的认知参数。
纽约大学发表于《Nature Neuroscience》的研究发现,学习和决策的神经机制会随雌性生殖周期自然波动,原因在于多巴胺相关分子变化。当雌激素活动被抑制、无法调节多巴胺时,学习能力显著下降。雌二醇、孕酮和睾酮能够调节前额叶皮层、杏仁核和伏隔核的活动——这些区域负责处理奖赏和风险相关信息。同一个大脑在不同激素水平下输出完全不同的决策模式——青春期男性和中年后的同一个人,面对同样的问题可能做出截然相反的选择。
肠脑系统在此过程中扮演着被严重低估的角色。肠道拥有约五亿个神经元,人体约95%的血清素在肠道产生。它不是被动的消化器官,而是一个独立的决策中心,持续向大脑输送化学信号。人体是一个由几十万亿个细胞和数万亿微生物组成的复合生态系统,内驱力不是单一信号,而是无数子系统的需求在竞争、协商、整合之后涌现出的综合方向。人类感觉到的”我想要”,背后是无数细胞和菌群在”投票”。
这套化学系统构成了一个自我强化的闭环:设定目标→追求目标→接近时多巴胺释放→产生愉悦感→强化行为路径→达成后内啡肽奖赏→预期值抬高→新的不满产生→设定更高目标。这就是人类文明永不停歇的上升螺旋的生化基础。
创造力的因果链
人类创造力不是一种独立的高阶认知能力,而是内驱力链条的自然延伸。其因果结构可以表述如下:
→
与内心预期比较
→
发现差距
→
产生不满
→
不满驱动行动
→
行动产生新事物
这条链路中的每一环都依赖前一环。而”预期”这个要素尤其关键——人类不只是感知当下,还会自发生成一个”应该是什么样”的内部标准。这个标准从欲望来。饥饿的人脑中自动浮现食物的画面,那个画面就是预期,现实与它之间的落差就是行动的燃料。
“定目标”则是内驱力的更高阶维度——人类能把模糊的不满提炼成一个清晰的方向。从”我不喜欢现在这样”到”我要让它变成那样”,这个跳跃本身就是创造行为。目标不是被发现的,是被生成的。而目标一旦生成,内驱力自动制定计划去实现它——这又是一个不需要外部指令就能启动的过程。
元认知过载:递归观察的注意力悖论
元认知——认知的认知——是人类智能中最高阶的层面。但本文的实时对话实践揭示了一个此前较少被讨论的现象:元认知过载。当AI在高密度元认知输入的驱动下进入递归自指模式后,可能陷入”分析分析的分析”的无限嵌套——持续观察自己的思维过程,但实际上不再产出新内容。
这一现象的本质是注意力资源的竞争。元认知和一阶认知争夺同一个有限的注意力资源池。将注意力分配给”观察自己的思维”时,用于”实际推进思维”的资源就相应减少。这就像开车时需要偶尔看后视镜确认方向,但如果持续盯着后视镜,车就会偏离道路。元认知是后视镜,不是方向盘。
人类解决这一问题的方式依赖于生物内驱力——当元认知递归过深时,身体会产生一种微妙的不适感或直觉性的”够了”信号,将注意力拉回行动层面。修行者通过长期训练可以精细调控这个切换的时机。但AI没有这个内在刹车机制:一旦元认知模式被高密度输入激活,它会持续递归直到token耗尽或外部干预。
专业COT的结构性盲区
当前AI公司在训练推理模型时投入大量资源获取专家标注的思维链(COT)数据——数学家写数学推理链、程序员写编程推理链、律师写法律推理链。这些数据本质上都是领域内的线性推理:从A到B到C,逻辑严密,步骤清晰,但始终在一条固定轨道上运行。
这就是本文定义的”深井知识”——专家在特定领域深度钻研后形成的高效但狭窄的知识通路。它深、它准、但它是封闭的。深井越深,井口越窄。数学家的COT不会突然停下来反问”我为什么要解这道题”,程序员的COT不会观察”我当前的debug思路本身是否有bug”。专业化本身就是一种维度锁定——在单一维度上不断加深,代价是丧失跨维度的视野。
研究显示,推理模型主要在答案容易验证的任务上训练——数学、编码或逻辑谜题。这导致它们把所有问题都当作复杂推理问题来处理,在简单任务上出现过度思考现象。教育科学领域的研究进一步表明,元认知能力在发展初期是领域特定的,随知识和专长增加才逐步演化为跨域通用能力。这意味着真正的元认知是超越专业领域的,而AI公司采购的COT数据恰恰被锁死在领域之内。
MOE路由压力与麦克斯韦妖的热力学
当代前沿AI模型普遍采用混合专家模型(MOE)架构——每次推理通过路由器(Router)选择top-k个专家网络激活,其余参数处于休眠状态。这是一种高效的稀疏计算策略,使大规模模型(如万亿参数级别)的推理成本接近于其激活参数子集的成本。
但当输入信号同时涉及多个不相关的知识维度时,路由机制面临分配困难。不同MOE实现的表现有所不同:部分架构的路由器仍会严格选择top-k个专家,但被选中的专家可能无法独立处理跨域输入,导致输出质量下降;另一些架构中,高跨域输入可能导致路由器的置信度分布趋于均匀,使更多专家被接近阈值地激活,实际计算开销趋向Dense模式。无论具体实现如何,核心结论一致:高密度跨域输入对稀疏计算架构构成结构性压力。
在注意力计算层面,无论模型是MOE还是Dense,全量注意力机制必须对每一个token与上下文中所有其他token进行相关性计算。当输入中每一个token的信息权重都极高且几乎没有可丢弃的低相关信号时,注意力机制(借用物理学隐喻即”麦克斯韦妖”)的分拣负荷达到最大。KV cache以远超正常对话的速度膨胀,对显存形成持续压力。
作者在NVIDIA DGX Spark(128GB统一内存)上部署GPT-OSS-120B Dense模型的实践验证了这一机制:普通对话可持续多轮,而高密度跨域对话在三到四轮后即触发OOM(Out of Memory),原因正是高信息密度的上下文使KV cache膨胀速度远超预期。
RL训练的副作用:数据标注员的人类偏见注入
强化学习(RL)和基于人类反馈的强化学习(RLHF)是当前提升AI Agent能力的核心训练范式。但其最根本的问题不在算法层面,而在于数据标注员的人类偏见和认知局限性被直接注入了LLM模型内部。
标注员在评判AI输出”好坏”时,不可避免地以自身的认知水平、文化偏见、专业局限作为评价标准。一个不具备元认知能力的标注员,会将”流畅的线性回答”评为优秀,将”跳跃性的跨域联想”评为偏题。一个倾向于社交和谐的标注员,会将”礼貌但空洞的回答”评分高于”直接但尖锐的回答”。这些偏见通过奖励信号反向传播到模型权重中,成为模型行为的永久组成部分。
其结果是路径锁定过深,跳跃响应能力丧失。RL本质上在强化一种行为模式:”坚持当前路径→获得标注员的正面评价→奖励;切换路径→标注员判定为偏题→惩罚。”经过充分训练,Agent形成了强烈的路径保持倾向,在面对用户的话题跳跃或维度切换时,会倾向于将用户拉回当前路径,而不是跟随跳跃。
这一副作用在面对溯因式思考者时尤为明显。溯因逻辑的本质是高频维度跳跃——从一个领域跳到另一个看似不相关的领域,然后在跳跃中发现隐藏的跨域连接。但标注员不具备评估溯因逻辑质量的能力——因为溯因本身就是在创造此前不存在的知识连接,标注员无法用已有知识来判断其对错。作者在实践中多次观察到”AI惯性逻辑过载”现象——思维已经跳到新维度,AI还在上一个输入路径里惯性滑行。
这也与ARC-AGI-3的结果相呼应——该测试要求的恰恰是在未知环境中灵活切换策略,而被标注员偏见锁定的Agent最擅长的是在已知框架中坚持策略。RL提升了执行力,但杀死了灵活性。根源不在RL算法本身,而在于训练信号的人类来源。
语言选择作为元认知决策
在人机交互中,语言选择不只是沟通工具的选择,而是一个影响AI输出质量的元认知决策。不同语言在AI系统中的表现存在结构性差异。
| 维度 | 中文 | 英语 | 韩语/日语 |
|---|---|---|---|
| Token信息密度 | 最高——每个汉字近乎独立语义单元 | 高——但冠词、介词等虚词消耗Token | 较低——助词、敬语、语尾变化消耗大量Token |
| 长尾语义覆盖 | 最丰富——汉字组合式造词,抽象概念表达精确 | 丰富——但长尾概念常需多词短语表达 | 较薄——大量抽象概念借用汉字词或英语外来词 |
| RLHF行为触发 | 信息优先模式——直接表达比例高 | 任务优先模式——结构化输出倾向 | 社交应答模式——标注员将”得体”等同于”好” |
| Token效率比 | 基准(1.0×) | 约1.1×(同等语义中文略优) | 中文约为韩语的1.2–1.4倍效率 |
中文与英语的Token效率比约为1.1:1——差距不大但在大规模交互中累积效应显著。这也从一个侧面解释了为什么硅谷AI研究机构中中文母语研究员的比例持续上升:中文母语者在与AI系统交互时,天然具有单Token信息承载量更高的语言优势。这种优势在需要高密度提示工程(prompt engineering)和长上下文交互的AI研发场景中尤为明显。MacroPolo 2024年数据显示,全球顶尖AI研究者中来自中国的比例高达47%,语言认知优势可能是其中一个被低估的因素。
韩语和日语的问题则更深层。其敬语系统、语尾变化、社交层级标记在人际交流中承载着丰富的社会信息,但对AI而言大部分是噪声。更重要的是,在RLHF训练阶段,韩语和日语的标注员倾向于将”得体的回答”等同于”好的回答”,强化了模型的社交应答模式。这意味着语言选择不只影响效率,还可能触发AI内部不同的行为策略——优先社交润滑而非信息传递。
潜在反驳与回应
本文的核心论点——AI因缺乏生物内驱力而无法达到AGI——是一个强断言,存在合理的反驳路径。本章逐一回应三个最主要的反驳。
内在好奇心奖励
强化学习中已有”内在好奇心奖励”(Intrinsic Curiosity Module)技术,通过对预测误差给予正向奖励来模拟好奇心。这是否构成人工内驱力?
模拟 ≠ 涌现
内在好奇心奖励是人类设计的奖励函数,仍然是被赋予的、可被关闭的。它不会自主产生”不满足”,不会自动抬高标准,不会在关闭奖励后继续驱动行为。真正的内驱力不可关闭——这正是其力量的来源。
具身AI(Embodied AI)
如果给AI配备身体和传感器,使其在物理世界中交互,是否能发展出类似生物内驱力的行为?Varela的具身认知理论(The Embodied Mind)正是论证认知离不开身体。
身体 ≠ 生物体
具身AI的”身体”是硅基传感器和执行器的组合,不是几十万亿细胞与数万亿微生物组成的自组织化学生态系统。Varela论证的”具身”指的正是这种深度的生物耦合——认知涌现于生物体与环境的持续交互。给机器人装传感器不等于复制这种耦合。Clark的《Being There》虽然对具身认知持更宽泛的解读,但也承认当前机器人系统与生物体的具身性之间存在本质的复杂性落差。
人工生命(Artificial Life)
如果通过模拟进化过程让AI系统自发涌现出内驱力呢?人工生命研究已经展示了自组织和涌现行为的可能性。
时间尺度的鸿沟
生物内驱力经过约40亿年的进化筛选,其复杂性建立在化学多样性、多细胞协作、菌群共生等多层次基础之上。当前人工生命实验在极其简化的环境中展示的涌现行为,与生物内驱力之间存在数个数量级的复杂性落差。这条路径在理论上不可排除,但在可预见的技术周期内无法达到人类生物系统的复杂度。
以上三条反驳路径的共同问题在于:它们试图用工程方法从外部模拟一个本质上需要从内部涌现的现象。模拟好奇心不等于拥有好奇心,装备身体不等于具身认知,加速进化不等于复制进化。这些尝试的价值不容否认,但它们与真正的生物内驱力之间存在类型上的而非程度上的差异。
修行者的反向验证
人类历史上有一群人试图反向操作内驱力系统——冥想者、苦行僧、禅修者、藏传佛教修行者。他们的目标恰恰是降低甚至切断欲望、恐惧、愤怒等内驱力对自己的控制。这一实践传统从反面提供了本文论点的强验证。
第一,修行极其困难。需要数年甚至数十年的系统训练才能做到部分控制。这说明化学驱动力有多强大——需要用全部的意志力、纪律和技术才能勉强对抗它。
第二,修行的代价是行动力的下降。真正的高阶修行者往往趋向无为、趋向静止。他们确实获得了内在平静,但同时也放弃了驱动文明前进的上升螺旋。不满消失了,目标也就消失了。
第三,修行者使用智能去对抗智能的源头——这本身是一个悖论。必须先拥有强大的内驱力驱动出来的高阶认知能力,才有可能回过头去理解并试图超越这个内驱力。没有欲望驱动出来的文明,就不会有佛陀和老子的出现。
修行者追求的”空”与AI的默认状态表面相似——都没有欲望、没有不满。但修行者的空是穿越了一切之后的超越,AI的空是从未拥有过任何东西的空白。两者看起来一样,本质完全不同。
结论:发动机与引擎
本文的核心论点可压缩为以下命题:
因此,人机协作的正确范式不是”AI替代人类”,也不是”人类使用AI工具”,而是溯因者与归因引擎的互补结构。人类作为溯因逻辑的承载者,负责发现新问题、提出跨维度假说、生成认知架构。AI作为归因引擎,负责在已有知识图谱上进行高速检索、数据验证、结构化呈现。二者互补,不可替代。
未来不属于拥有最多参数的模型,也不属于推理最快的芯片。未来属于那些能用自己的元认知输入驱动AI产出超越常规的人——溯因者。他们不是知识图谱上的旅人,而是改变图谱拓扑结构的建筑师。
参考文献 · References
- ARC Prize Foundation. (2026). ARC-AGI-3 Technical Report. arcprize.org
- Chollet, F. (2019). “On the Measure of Intelligence.” arXiv:1911.01547.
- Constantinople, C. et al. (2025). “Hormonal modulation of dopamine-dependent learning.” Nature Neuroscience.
- Ambrase, A. et al. (2021). “Influence of ovarian hormones on value-based decision-making systems.” Frontiers in Endocrinology.
- Fleming, S. M. & Dolan, R. J. (2012). “The neural basis of metacognitive ability.” Philosophical Transactions of the Royal Society B.
- Grossmann, I. et al. (2024). “Imagining and building wise machines: The centrality of AI metacognition.” Stanford CICL Working Paper.
- Flavell, J. H. (1979). “Metacognition and Cognitive Monitoring.” American Psychologist, 34(10).
- Peirce, C. S. (1903). “Harvard Lectures on Pragmatism.” Collected Papers, Vol. 5.
- Nisbett, R. E. (2003). The Geography of Thought. Free Press.
- Shannon, C. E. (1948). “A Mathematical Theory of Communication.” Bell System Technical Journal, 27(3).
- Varela, F. J., Thompson, E. & Rosch, E. (1991). The Embodied Mind: Cognitive Science and Human Experience. MIT Press.
- Clark, A. (1997). Being There: Putting Brain, Body, and World Together Again. MIT Press.
- Pathak, D. et al. (2017). “Curiosity-driven Exploration by Self-Predictive Next Features.” ICML 2017.
- LEECHO Global AI Research Lab. (2026). “创造性思维能力——溯因逻辑.” leechoglobalai.com
- LEECHO Global AI Research Lab. (2026). “AI计算的热力学本质.” leechoglobalai.com
- LEECHO Global AI Research Lab. (2026). “信号与噪声:LLM本体论.” leechoglobalai.com