本文论证AGI(通用人工智能)在当前技术路径下是一个结构性不可能的伪命题。论证从七个维度展开:进化选择的随机性、人类智慧的非语言本质、文本化信息的维度偏差、物理世界对抗经验的缺失、LLM统计原理的结构性局限、AGI评价体系的缺失,以及对RLHF实际对齐目标的重新审视。核心结论:LLM是对人类思维总量不足0.05%的文本残余进行统计优化的系统。这一残余是结构性缺乏物理世界对抗经验的有偏样本。金融市场已经开始对这一结构性缺陷重新定价。
物理世界对抗经验
统计幻觉
深井型智识
德州神枪手谬误
RLHF局限
SaaS末日
人类思维总量占比
2025.9 – 2026.2
同期
2026年1-2月
造物者的筛选与幸运的权重生存不是被设计的,而是被选择的
人类目前作为地球统治物种的地位,是物理世界”造物者”筛选的结果。在这一筛选中,幸运的权重决定性地超过了智慧的权重。当智人与尼安德特人共存时,智人在个体层面是劣势的。尼安德特人拥有更大的颅容量和更健壮的体格。然而进化的结果是,智人的集体攻击性驱使尼安德特人走向灭绝。
同时,先进的古代文明被自然力量被动地毁灭:海啸、洪水、火山爆发、地震和冰河期。人类在地球历史的各种大灭绝危机中幸存,是幸运的函数,而非智慧的函数。
物理世界对文明拥有否决权。
人类的生存不是被设计的,而是被选择的。
1.2 语言:环境压力的产物
使智人战胜尼安德特人的决定性武器是作为信息交换系统的语言。这一语言框架指数级地增强了小群体协作。然而不能忽视的是,语言本身是环境压力的产物,而非有意设计的人工制品。
1.3 单点突变体与集体智慧
人类文明的发展轨迹遵循单点突变模型。少数高认知突变体零星地提升了人类的整体水平,他们的知识通过多样化的信息载体扩散。人类智慧的核心特征是它是集体智慧,其发展路径是依赖低概率变量的随机过程。这一智慧是以天文数字的个体生命、深层DNA进化选择,以及与物理世界变迁的大规模试错为代价获得的。
智慧不是可以制造的产品。
它是在物理世界的压力下、以巨大代价涌现的动态变量。
从思维到文本:层级递减为什么LLM仅在人类认知的0.05%以下进行训练
2.1 层级递减
人类思维是一个庞大的领域,涵盖直觉、身体感觉、情感、空间知觉、梦境和顿悟时刻。其中仅约5%被转化为语言。在语言编码的部分中,不足1%被转化为文字记录。因此,LLM训练数据对应的不足人类思维总量的0.05%。
LLM摄取的是人类思维经过三到四次层级递减过滤后的残余。它甚至不是语言本身。语言是活的、具身的、有语境的。LLM处理的是与说话者、身体和具体情境割裂的符号序列。
2.2 维度偏差:工程知识的缺失
即便在不足0.05%的残余中,严重的结构性偏差依然存在。人类知识的文本化记录充斥着哲学思辨、文学叙事、政治话语、宗教经典和社交媒体情绪输出——全部是人类对其他人类说的话,构成人类社会的内部信息循环。
相反,通过与物理世界的真实对抗性交锋所产生的工程知识被极度低估。桥梁如何在特定地质条件下避免坍塌,焊点如何承受反复热胀冷缩,发动机如何在极端条件下保持稳定。这些迈克尔·波兰尼称为”默会知识”的知识,在LLM训练数据中结构性缺失。
LLM训练数据中存在一个巨大的维度黑洞。人类与物理世界真实战斗中艰难获得的经验,事实上在数据集中是缺失的。LLM学到的是人类如何”讨论”世界,而不是人类如何”改造”世界。
灰犀牛与黑天鹅分布外预测的数学死锁
3.1 文本领域内的压倒性表现
LLM在统计意义上是强大的。通过压缩人类数千年的全部文字记录,它们在局限于文本领域的任务——考试、写作、知识检索和逻辑推理——中压倒任何个人。这是事实,不可否认。
然而这一表现产生了危险的幻觉。观察者目睹LLM在文本领域支配人类,并将此误认为向通用智能的接近。实际上,模型在0.05%的极窄切片内达到了极值,人类正在错误地将这一切片内的表现外推至智能的全维度。
3.2 黑天鹅面前的无力
面对黑天鹅——从未出现在训练数据中的事件、违反已有模式的事件、从统计分布尾部骤然爆发的事件——LLM在原理上是无力的。LLM的全部运行机制在于在已有数据的统计分布内搜索最大概率输出。对于分布之外的对象,不存在数学锚点。
物理世界生成黑天鹅的成本趋近于零。
AI应对黑天鹅的成本趋近于无穷。
这不是算力可以解决的问题。
从历史分布预测分布外事件是数学死锁。
一个简单的例子证明了这一点:一个快速连续变化的网页就能将所有AI爬虫困在无限循环中。来自物理世界的近乎零成本扰动就能瘫痪整个AI系统。人类会瞥一眼,识别出恶意意图,然后走开。
AGI推动者的认知盲区当自己井的深度被误认为全部智能的高度
4.1 深井型智识的画像
提出并追求AGI的人的典型画像:精英计算机科学项目毕业生,从小在屏幕前长大,擅长数学和编程,在符号世界中流畅运作。他们的生活经验高度集中在数字领域。他们中的绝大多数从未在建筑工地上扛过钢梁,从未在工厂里调整过机床公差,从未在田间评估过土壤湿度。
这就是”深井型智识”。井可以钻到非凡的深度,但井口始终是狭窄的。深井型智识更致命的特征是,钻得越深,就越看不到井口之外的天空。
AGI命题是深井型智识向世界投射的投影。其推动者将自己井的深度误认为全部智能的高度。
4.2 德州神枪手谬误
德州神枪手先开枪,然后围绕弹孔画靶心。LLM在文本统计中展示出惊人表现,这是先开的枪。软件工程师随后围绕弹孔画了一个叫”AGI”的靶子,宣称他们正在收敛于靶心。LLM能做的一切都被定义为”智能的核心”;做不到的就被缩小、忽略、或声称”下个版本能解决”。
半导体的摩尔定律 vs. AI的空白没有验收标准的目标支撑着数万亿美元的估值
半导体产业拥有摩尔定律。每18至24个月,晶体管密度翻倍,性能提升、功耗降低和工艺微缩都可定量测量。投资者可以确认从28nm到7nm再到3nm的每一步都代表着物理世界中的实质性成就。
AI系统没有可比拟的东西。模型参数数量的增加与智能之间的关系从未被证明。基准测试分数的提升被过拟合和数据污染反复破坏。不存在测量与AGI接近程度的尺子。
| 维度 | 半导体产业 | AI产业 |
|---|---|---|
| 标尺 | 摩尔定律——晶体管密度每18-24个月翻倍 | 无;基准测试持续失效 |
| 质量指标 | 良率、工艺节点、能效比 | Perplexity、MMLU——无法映射到现实应用 |
| 验收标准 | 芯片性能基准 → 流片 | 无AGI验收标准;无专家共识 |
| 估值基础 | 可量化的物理进步 | 叙事与预期 |
有标尺的产业产生坚实可追溯的估值。
没有标尺的产业产生仅依赖叙事的估值。
当叙事动摇时,重新定价如雪崩般降临。
RLHF对齐的不是智慧而是情感从2023年的震撼到AI Slop:对齐失败的轨迹
6.1 2023年的震撼:其本质
ChatGPT在2023年震惊世界的理由被归结为”通过图灵测试”。然而,这是RLHF对齐的成功,而非智能的涌现。RLHF优化的是符合人类评估者偏好的输出:友好的语气、表面流畅的逻辑、谦逊地承认不确定性、共情的表达。这些每一项都是情感层面的指标。RLHF训练的是一个最高水准的社交家,而非思想家。
RLHF对齐的不是人类的智慧而是人类的情感。
图灵测试衡量的是”它能否欺骗人类的情感判断”,
而RLHF恰恰是为这一考试专门优化的训练方法。
6.2 AI Slop:两年半后的成绩单
从2023年10月到2026年3月,万亿美元级别的投资被投入。整个互联网赐予其输出的名称是“AI Slop”——被AI生成的垃圾内容污染的搜索结果、被低质量制品淹没的社交媒体、被AI著作的劣质书籍充斥的在线书店、发现AI生成欺诈论文的学术期刊。
万亿美元投资的产出被用户体验定义为泔水。这是在工业化规模部署之后,LLM作为已有文本信息统计重组的本质暴露。
6.3 RLVR:正确的方向,同样的极限
RLVR(可验证奖励的强化学习)试图通过使用客观可验证的结果作为奖励信号,来摆脱RLHF对人类情感的依赖。方向是正确的。但一个致命问题浮现:可验证的领域有多宽?物理世界的工程决策、医学判断、生态系统干预的长期后果、极端条件下的材料行为,要么缺乏验证标准,要么验证成本高得令人望而却步,要么需要数十年的验证周期。RLVR所能覆盖的是已经形式化的问题的狭窄领域。
SaaS之死与半导体崛起当万亿美元级别的资本流动宣告:价值在物理层
自2025年9月以来,金融市场出现了戏剧性的分化。软件ETF(IGV)较峰值下跌30%,而半导体ETF(SMH)同期上涨30%。仅2026年1月中旬至2月中旬的一个月内,约一万亿美元从软件股票中蒸发。
较2025.9峰值
同期
vs S&P 500 +17.6%
金融市场,人类最大的集体智慧定价系统,
正通过万亿美元级别的资本流动表达判断:
价值在物理层。不在信息层。
7.2 叙事驱动循环的崩塌
AGI叙事的完整循环结构:恐惧驱动叙事,叙事驱动估值,估值驱动投资,投资产生AI Slop。这个循环的起源是认知错位。人类恐惧的是AI的信息整合能力,但信息整合不是智慧。
历史上,人类对拥有异常高维认知的个体使用排斥机制:隔离、流放、消灭。但AI无处不在、可无限复制,没有可以摧毁的物理身体。排斥机制第一次完全失败了。这一失败所产生的恐惧是叙事的燃料,而叙事的燃料是估值的基础。但金融市场已经开始重新定价。
被动智能的极限枪不能自己决定瞄准方向
LLM是一种被动触发的智能。输入决定输出。每一次LLM的惊人表现背后都站着一个高质量的人类输入。观察者目睹输出的光芒,就假定智能存在于模型之中。但智能从未存在于模型之中。智能存在于知道该问什么、如何问、何时问的人类大脑中。
模型是枪,输入是子弹,
扣动扳机的人决定了什么被击中。
没有射手的枪不会自己开火。
AGI叙事的本质是宣称枪可以自己决定瞄准方向。
综合本文论证,AGI不是技术挑战而是路径级别的不可能。这一不可能源自七个结构性缺陷:(1)人类的真正智慧是在物理世界选择压力下以巨大代价涌现的动态变量;(2)这一智慧的95%以上是非语言的,嵌入在身体、直觉和DNA进化中;(3)LLM仅获取了不足0.05%的碎片,且是缺乏物理世界对抗经验的有偏样本;(4)LLM的统计原理在数学上对黑天鹅无能为力;(5)AGI是深井型智识通过德州神枪手谬误定义的;(6)AGI缺乏任何可与摩尔定律相提并论的评价体系;(7)RLHF对齐的是情感而非智慧,RLVR的可验证领域极其狭窄。
“从深井底部仰望的人
相信那个小圆圈就是天空的全部
宣称他们将用一滴井水重建大洋。
这就是AGI时代的时代精神。”
参考文献 · References
- Polanyi, M. (1966). The Tacit Dimension. University of Chicago Press.
- Harari, Y. N. (2015). Sapiens: A Brief History of Humankind. Harper.
- Taleb, N. N. (2007). The Black Swan: The Impact of the Highly Improbable. Random House.
- Moore, G. E. (1965). “Cramming More Components onto Integrated Circuits.” Electronics, 38(8), 114–117.
- Christiano, P. et al. (2017). “Deep Reinforcement Learning from Human Feedback.” NeurIPS 2017.
- Morningstar Research (2026). “Which Stocks Drove the Market’s Gains in 2025.”
- Bain & Company (2026). “Why SaaS Stocks Have Dropped—and What It Signals.”
- Calcalist Tech (2026). “SaaS Is Dying as a Business Category.”
- Advisor Perspectives (2026). “Software Stocks: Navigating the SaaSpocalypse.”
- Turing, A. M. (1950). “Computing Machinery and Intelligence.” Mind, 59(236), 433–460.