当前AI产业面临一个被广泛忽视的结构性问题:不仅AI模型的输出(Output)是概率性的”黑盒”,人类使用者的输入(Input)同样是一个不可预测、不稳定、受主观状态影响的”黑盒”。两个黑盒对接形成的系统,其总不确定性呈指数级增长。本文提出”双向黑盒”(Bidirectional Black Box, BBB)理论框架,基于信息论给出形式化定义,并以2026年最新的企业实践数据、员工反馈和客户投诉为实证基础,论证当前AI生产力悖论的根本原因。本文进一步与J曲线假说进行正面学术对话,指出J曲线理论的解释盲区恰恰是双向黑盒理论的核心贡献所在。在资本与泡沫争论中,本文不替读者下结论,而是将泡沫论与乐观论的核心论据双向呈现,由读者自行寻找均衡点。最后,本文提出双向实时评价系统(BRTES)的探索方向——需要强调的是,这是一个仍在开发中的框架,而非成熟方案。本文的价值在于提出问题和呈现双向证据,而非给出终极答案。
索洛悖论的回归:2.5万亿美元买不到生产力
Solow’s Paradox Returns — $2.5 Trillion Can’t Buy Productivity
1987年,诺贝尔经济学奖得主罗伯特·索洛写下技术经济学史上最著名的一句话:”你到处都能看到计算机时代,唯独在生产力统计数据中看不到。”2026年2月,Apollo首席经济学家Torsten Slok几乎逐字重复了这一判断:”AI无处不在,唯独不在宏观经济数据中。”
称AI对生产力零影响
未能超越试验阶段
AI投入”颗粒无收”
总支出规模
更具讽刺意味的是,METR对经验丰富的开源开发者进行的随机对照试验发现,AI工具实际上使工作效率降低了19%——而开发者自己认为自己快了20%。感知与现实之间存在近40个百分点的鸿沟。ManpowerGroup 2026年全球调查显示,AI使用频率提高了13%,但对AI实用性的信心反而暴跌18%。
行业主流解释集中在两个框架:技术尚不成熟(泡沫论),或者J曲线延迟效应(乐观论)。本文提出第三种解释:问题的根源不在AI技术本身,也不仅仅是时间滞后,而在于整个人机交互系统存在一个被忽视的结构性缺陷——双向黑盒问题。
双向黑盒的形式化定义
Formal Definition of the Bidirectional Black Box (BBB)
AI领域的”黑盒”讨论几乎全部集中在模型端——输入进去不知道内部如何运算。然而,这只是问题的一半。人类的输入端同样是黑盒。
使用者脑中的意图,经过自然语言编码后传给AI。这个编码过程存在严重的信息损失:语言的歧义性、隐含假设、上下文依赖、使用者当下的认知状态和情绪波动。用信息论的框架,我们可以给出形式化定义:
ρ 为两端的耦合系数。当两端不确定性交叉耦合时,系统总不确定性呈超线性增长。
这不是简单的加法关系——而是乘法甚至指数关系。
H₁: 不可观测
→
有损压缩 ΔH₂
→
H₃: 模型黑盒
→
H₄ ≥ H₂ × H₃
→
H₅: 主观偏差
定义1(输入端黑盒):人类使用者的意图到自然语言的转换是有损压缩过程,其信息损失量受使用者认知水平、情绪状态、领域知识、语言表达精度等多个不可控变量影响,形成不可预测的输入信号。
定义2(输出端黑盒):大语言模型通过概率预测下一个token的方式生成输出,RLHF等对齐训练仅调高了某些行为的概率而非锁定,输出具有不可消除的随机性。
定义3(双向黑盒系统):当输入端黑盒与输出端黑盒串联时,系统的总不确定性不是两端不确定性的简单求和,而是通过耦合效应产生超线性放大,形成”双向黑盒系统”(BBB System)。
定义4(评价端偏差):BBB系统的评价者(人类使用者)同时也是输入端黑盒的制造者,其心理默认设置(外归因偏差、趋利避害本能)使其无法客观审视自身在系统中的责任,导致评价结果系统性偏向模型端。
BBB理论揭示了一个被忽视的认识论困境:在人机交互系统中,不存在确定性的通信信道。人类语言喂给大模型,无论多精确多程序化,都会被”降级”为概率倾向。这不是提示词工程能解决的问题,是整个人机交互范式的架构天花板。
一线使用者的吐槽:被数据抹杀的真实体验
The Enterprise User Voice — Real Experiences Erased by Aggregated Data
宏观调研数据往往将企业对AI的不满简化为一个百分比。但一线使用者的具体反馈,才是BBB理论最直接的实证。以下是2025-2026年间企业端最集中的六类投诉:
投诉一:AI让工作量增加了,而不是减少。
使用AI后,员工处理邮件时间增加104%,即时通讯增加145%,管理工具使用增加94%。没有任何一个工作类别因AI而节省时间。报告原文:”数据是明确的——AI没有减少工作量。”员工不得不牺牲深度思考时间来处理增加的日常事务。
投诉二:管理层和员工的感受完全相反。
40%的管理者信任AI输出,员工中仅9%。59%的员工表示很少或从不信任AI输出。MetLife发现83%的HR管理者说AI让员工更快,但67%同时承认AI正在”制造新的摩擦点和不信任”。管理层看到的是仪表盘上的效率数字,员工看到的是每天要多处理的垃圾。
投诉三:使用超过四个AI工具后,大脑过载。
使用三个以下AI工具的员工自报效率提升;使用四个以上的员工效率暴跌。研究者称之为”AI brain fry”——认知负荷超过大脑处理能力。员工反馈:”事情推进得太快了,我没有足够的认知能力来处理所有信息和做出所有决策。”
投诉四:AI客服比没有客服更糟糕。
75%的消费者对AI客服感到沮丧。Zomato用户在紧急情况下被AI客服发了优惠券。Eventbrite用户在Trustpilot上大规模投诉。企业投入AI客服后,客户体验到的是更多循环、死胡同和重复解释——信任持续下降。
投诉五:最大风险来自员工自身的使用行为。
过去12个月,40%的企业报告AI输出不准确,33%经历违规事件,28%收到AI相关客户投诉。最主要的风险来源不是模型——34%的受访者称员工向AI工具输入敏感数据是最大风险行为。21%归因于培训不足,21%归因于”赶进度的压力”。
投诉六:用AI的人遭受社会性惩罚。
职场中使用AI的人被同事视为”偷懒走捷径”。64%的美国成年人计划尽可能长时间避免使用AI。31%的员工在主动对抗公司的AI推进。45%的CEO承认大多数员工对AI持抵触或敌对态度。
这六类投诉不是孤立现象——它们是BBB系统失灵的不同症状。投诉一和三是输出端噪声放大的直接后果。投诉二是评价端偏差的体现。投诉四是低质量输入(模糊的客户问题)遭遇概率性输出的必然结果。投诉五是输入端失控的证据。投诉六是评价端的社会心理反应。所有投诉指向同一个系统性根因:没有人在测量和管理人机交互的双向质量。
J曲线能解释什么?不能解释什么?
What the J-Curve Explains — And What It Cannot
Brynjolfsson等经济学家提出的”生产力J曲线”是当前解释AI生产力悖论的主流学术框架。该理论认为,通用目的技术(GPT)在引入初期会导致生产力暂时下降,因为企业将资源从生产转向无形资产的积累(流程重设计、数据治理、组织学习),这些投资不被传统GDP统计捕捉,但会在”收获期”释放为生产力跃升。
MIT Sloan对美国制造业企业的微观研究证实了J曲线的存在:AI采用后平均生产力下降1.33个百分点,修正选择偏差后短期负面影响高达约60个百分点。但坚持四年以上的企业中,超过60%最终实现了25%以上的生产力提升。年轻企业比老企业恢复更快。
J曲线理论的解释力和局限性:
| 维度 | J曲线能解释 | J曲线不能解释 |
|---|---|---|
| 生产力下降 | 初期组织调整成本导致的暂时性下滑 | 为什么同一企业内不同员工的AI使用效果差异巨大 |
| 时间维度 | 历史上GPT需要20-40年才在宏观数据中显现 | 为什么AI使用越多、员工信心反而越低 |
| 企业差异 | 数字成熟度高的企业恢复更快 | 为什么同一企业、同一工具、不同员工的输出质量波动极大 |
| 投资回报 | 无形资产积累需要时间变现 | 为什么工作量增加104%而非减少 |
| 评价问题 | 传统GDP指标未捕捉无形投资 | 为什么管理者和员工对同一工具的评价完全矛盾 |
BBB理论的补充解释力:J曲线把生产力下降归因于组织调整成本——这是供给侧的解释。BBB理论补充了需求侧/使用侧的解释:即使组织调整完成,只要输入端的质量不被管理和量化,系统的输出质量就不可能稳定。J曲线假设”收获期”会自然到来,BBB理论指出,如果双向质量问题不解决,收获期可能被无限推迟——企业将永远在J曲线的底部徘徊。
BBB理论不否定J曲线,而是解释了J曲线无法解释的那部分:为什么有些企业能爬出J曲线底部,有些不能。区别不在于投资规模或时间长短,而在于是否建立了管理输入端质量的机制。12%获得了收益的企业(PwC数据)恰恰是做了深度组织变革的企业——本质上,它们在无意识中部分解决了输入端黑盒问题。
主观体感报告:用坏尺子量错对象
Subjective “Feeling” Reports — Wrong Ruler, Wrong Target
当前全球AI提效调研存在致命的方法论缺陷:让使用者评价工具,但使用者本身就是变量的一部分。这些报告的逻辑本质是用未经校准的测量工具去测量一个未经定义的指标。
| 缺失维度 | 具体问题 | 后果 |
|---|---|---|
| 输入质量基准 | 不知道什么算好的prompt | 无法区分AI问题还是使用者问题 |
| 控制变量 | 不同员工的输入差异未被测量 | 无法量化输入质量对输出影响 |
| 分离度量 | 产出中多少归模型、多少归输入 | 无法做有效因果归因 |
| 人工基准线 | AI介入前纯人工的质量波动范围 | 缺乏对比,AI效果无从判断 |
| 双向KPI | 不存在同时量化输入和输出的指标 | 整个评价系统单边化 |
结果是:所有AI使用效果调研都是”主观使用 + 主观评价 + 主观调查”的绝对主观视角的”人类体感”报告。评价者同时是被评价系统中的变量,而人类趋利避害的底层心理使其不可能客观审视自身责任。更深层的问题是——谁来设计这个评价体系?还是人。设计者本身带着所有偏差,纳入人类端变量等于承认”我们的人不行”,这在组织政治中几乎不可能发生。
付费增长困局与Token黑洞
The Paying User Ceiling and the Token Black Hole
AI基建投入
持续放缓
95%的用户不愿付费。欧洲ChatGPT付费支出自2025年5月起停滞。四大科技巨头2026年AI基建投入接近7000亿美元,但微软AI目标营收仅250亿美元,投入产出剪刀差持续扩大。
Token黑洞问题:大量算力消耗在无效场景中——免费用户闲聊、低质量输入产生的低质量输出、重复提问、AI Slop内容。模型不会拒绝一个烂问题,它会用昂贵算力认真处理不值得处理的请求。在中国市场,字节跳动的豆包因大量用户发送色情信息而频繁封禁账户。xAI的Grok则走向另一个极端——开放成人内容后,12位联合创始人仅剩2人,35个州总检察长联合发函要求整改,多国封禁或调查,企业客户全面回避。
这些不是个别事件——它们是BBB系统在商业层面的直接表现:用不明白→不敢花钱→模型缺少优质私有数据→变不强→更用不明白。算力在为人类的无聊和欲望买单,而不是在创造商业价值。
AI降本增效的自我循环
AI Cost-Cutting’s Self-Referential Loop
2026年Q1科技行业已裁员超45,000人,约20%被明确归因于AI。但裁员高度集中在AI相关企业和科技公司内部:Block裁4,000人(40%)、Atlassian裁1,600人(10%)、Meta计划裁20%。Oxford Economics的分析师怀疑部分企业在用AI作为裁员的”包装纸”。
AI真正降本增效的领域是AI研发自身——用AI写代码、优化模型、替代初级程序员。这是一个闭环:AI产业用AI优化AI产业。但非AI企业使用端,成功案例稀缺。BCG发现失败企业平均同时推进6.1个AI用例,成功企业仅3.5个,但后者预期ROI高2.1倍。不到三分之一的企业对哪怕四分之一的员工进行了AI技能培训。最关键的是——大多数企业根本不追踪AI的财务KPI。
让读者自己找均衡点
Bubble or Dawn? — Bidirectional Evidence for the Reader to Judge
本文的核心主张是:单向信息导致单向判断。AI泡沫论者只看到了落地失败的数据,AI乐观论者只看到了技术进步的曲线。两方都是盲人摸象。既然本文批判单向评价,那论文本身就不应该替读者下结论。以下将泡沫论与乐观论的核心论据双向呈现,由读者自行权衡。
论据一:资本结构
AI生态存在循环投资——微软投资OpenAI,OpenAI买CoreWeave算力,CoreWeave租NVIDIA的GPU,NVIDIA又用收入投资OpenAI。Morgan Stanley指出同一美元在多张资产负债表上被重复计算。
美国四大科技巨头2026年AI基建投入接近$7000亿,但J.P. Morgan警告需要$6500亿年收入才能实现10%回报。OpenAI承诺8年投$1.4万亿建数据中心,年收入仅$130亿。
当前AI投资主体是微软(年现金流$1600亿)、谷歌、亚马逊、Meta——它们亏得起,而且亏得起很久。2000年dotcom投资主体是散户和中小风投,烧完三轮融资就死。资本耐受力完全不同。
NVIDIA FY2026收入$2159亿(+65% YoY)、市值$4.3万亿。S&P 500前瞻P/E ~23倍,远低于2000年纳斯达克的~60倍。今天的估值背后有真实盈利支撑。
论据二:收入增长
ChatGPT 9亿周活用户,付费率仅~5%。欧洲付费支出自2025年5月起停滞。季度增长降至4%。企业GenAI支出$370亿,但95%的企业零回报。API价格战降幅40-70%——价格战是增长见顶的经典信号。
Anthropic年化收入从$10亿(2024.12)到$190亿(2026.3),14个月增长19倍——B2B软件史上前所未有。Claude Code上线9个月年化$25亿。八家财富10强是Claude客户。Ramp平台上1/5企业付费使用Anthropic,一年前仅1/25。
论据三:生产力证据
NBER调查6000名高管:90%称AI对生产力零影响。METR试验:AI让开发者慢了19%。英国Copilot试验:Excel更慢更差、PPT更快但质量下降。ActivTrak数据:邮件时间+104%,没有任何类别节省时间。
Brynjolfsson测算2025年美国生产力增速~2.7%,近十年均值两倍。MIT制造业研究证实J曲线:初期下降1.33pp,但坚持四年的企业60%+实现25%以上提升。少数”power user”已实现端到端工作流自动化。GitHub 4%的公开提交来自Claude Code。
论据四:历史类比
2000年Barron’s封面报道:74%的207家互联网公司现金流为负,51家将在12个月内耗尽资金。纳斯达克随后暴跌78%,$5万亿市值蒸发。Bank of America最新调查:多数全球基金经理认为AI股票”是泡沫”。
2000年dotcom只有14%盈利,今天大型AI投资方是全球最赚钱的企业。Janus Henderson指出至少8个结构性差异(Y2K效应、审计标准、需求可见性等)。即使回调,GPU集群和数据中心如同2000年的光纤——后来支撑了Web 2.0。
本文不裁定AI是泡沫还是黎明。两方论据都有数据支撑,也都有盲区。但我们观察到一个双方都忽视的变量:无论AI是否处于泡沫中,双向黑盒问题都真实存在,且不会因为资本充裕或技术突破而自动消失。资本可以为AI续命,技术可以提升模型能力,但如果输入端质量不被管理、评价体系不被建立,系统的输出质量就不可能稳定。这是一个独立于泡沫争论之外的结构性问题。同时需要透明声明:本文AI协作方为Anthropic产品(Claude Opus 4.6),文中引用的Anthropic增长数据已尽量交叉验证于Bloomberg、Sacra、Epoch AI等第三方来源,但读者应知悉此潜在利益关联。
科研进步的非线性特征
无论读者倾向泡沫论还是乐观论,有一个事实双方都应承认:科研进步是非线性的。当前AI领域至少五条技术路线并行推进,各自处于不同发展阶段:
| 技术路线 | 当前阶段 | 潜在影响 |
|---|---|---|
| 多模态融合 | 商业化早期(GPT-4o、Gemini等已部署) | 打破文本-图像-视频-语音壁垒 |
| 推理增强 | 快速迭代中(o1/o3系列) | 改变模型深度思考和多步推理能力 |
| Agent架构 | 概念验证→早期商业化过渡 | 重塑人机交互:从对话到委托 |
| 具身智能 | 实验室→原型阶段 | 打通数字世界与物理世界 |
| 新型推理芯片 | 早期商业化(Groq、Cerebras) | 重新定义推理成本结构 |
任何一条路线的突破都可能改变整个产业的成本结构和使用范式。但”可能改变”不等于”一定改变”。用当下数据做线性外推是方法论错误——无论这个外推指向的是崩溃还是繁荣。
双向实时评价系统:一个正在开发中的框架
BRTES: A Framework Under Development — Not a Finished Solution
基于BBB理论和企业端实证数据,我们提出双向实时评价系统(Bidirectional Real-Time Evaluation System, BRTES)的探索方向。需要明确:这是一个仍在开发中的概念框架,而非成熟方案。我们没有完成验证,也不假装已经找到答案。以下呈现的是方向性思考,供产业界和学术界共同探索。
第一层:输入质量度量层(Input Quality Measurement Layer)
对人类使用者的Input进行实时量化评价,核心度量维度包括:
| 度量维度 | 定义 | 实现方式 |
|---|---|---|
| 意图清晰度 | 输入指令的歧义度评分 | 模型置信度反推、多义性检测 |
| 信噪比 | 有效信息与冗余/噪声的比率 | 信息密度分析、关键词提取率 |
| 上下文完整度 | 执行任务所需信息的覆盖率 | 必要条件检查、缺失信息提示 |
| 状态稳定性 | 同一用户跨时段的输入质量波动 | 历史基线比较、波动幅度追踪 |
| 领域匹配度 | 输入与目标任务的领域相关性 | 任务分类器、领域知识校验 |
关键设计原则:实时反馈而非事后评分。AI检测到模糊指令时主动告知用户——”你这个输入的信噪比很低,我有70%概率会跑偏,要不要补充这些信息?”将事后评价变成实时校准闭环。
第二层:输出质量度量层(Output Quality Measurement Layer)
对AI的Output进行客观、数值化的评价,与输入端进行双向比较分析:
| 度量维度 | 定义 | 实现方式 |
|---|---|---|
| 任务完成度 | 输出对输入意图的匹配程度 | 意图对齐评分、需求覆盖率 |
| 事实准确性 | 输出内容的事实正确率 | 知识库校验、引用验证 |
| 一致性 | 同一输入在不同时间的输出稳定性 | 重复测试、方差分析 |
| 价值密度 | 有效输出信息与总token数的比率 | 信息量/token比率计算 |
| 约束遵从度 | 输出对用户约束条件的执行率 | 约束条件核查、偏离率计算 |
第三层:双向比较与归因层(Bidirectional Comparison & Attribution Layer)
将输入和输出的度量数据进行横向比较,实现责任归因:
Input Score
→
Attribution Engine
←
Output Score
• 输入质量低 + 模型能力正常 → 用户端问题 → 触发输入改善建议
• 输入质量高 + 模型能力异常 → 模型端问题 → 记录模型缺陷
• 输入质量低 + 模型能力异常 → 双端问题 → 标记系统性风险
企业可用此数据客观评估员工AI使用能力和AI工具实际效能。
未解决的关键难题:谁来建?谁有动力建?
BRTES最大的障碍不在技术,而在组织政治和市场激励。大模型公司不会主动建——因为承认输出不稳定影响估值。企业不会主动建——因为承认输入端有问题等于承认”我们的人不行”。媒体不会推动——因为极端叙事比系统分析更有流量。这意味着BRTES的建设主体可能只能是:独立第三方评价机构、学术界-产业界联合体、或者政府标准机构。但这些主体目前都还没有动起来。
更深层的阻力来自人类心理:让AI评价人类的认知能力和表达精度——这在心理上和组织政治上都是巨大的挑战。AI评价工具大家觉得天经地义,但反过来让AI评价人类的输入质量,多数人会本能抵触。这个阻力不会因为技术方案多优雅而消失。
BRTES目前是一个正在探索中的方向,不是一个已经验证的解决方案。本文作者的实时评价系统仍在开发中。三层架构中的归因引擎在开放式任务中如何实现、输入质量的量化标准如何跨场景通用、组织政治阻力如何突破——这些都是尚未回答的问题。我们选择诚实地呈现这些未知,而非假装已经找到了答案。
我们提出问题,不假装拥有答案
We Raise Questions — We Don’t Pretend to Have All the Answers
AI至上论和AI泡沫论犯了同一个错误——盲人摸象。一方看到模型能力的上限,另一方看到落地效果的下限。两方都只有局部信息,且都缺失了对人类输入端变量的审视。本文试图补全这个被忽视的维度。
本文的贡献不在于给出答案,而在于提出一组被忽视的问题:
理论层面——BBB理论揭示了人机交互系统中两端不确定性超线性叠加的规律。这是否足以解释J曲线无法覆盖的那部分生产力悖论?需要更多的实证检验。
实证层面——六类企业端投诉证明BBB系统失灵是每天发生的现实。但这些投诉是否真的指向输入端质量问题,还是有其他解释?需要一手的对照实验。
工程层面——BRTES的三层架构是一个方向,但远非成熟方案。归因引擎在开放式任务中能否工作?输入质量评分会不会导致”KPI游戏化”?这些问题我们尚无法回答。
资本层面——泡沫论和乐观论的证据我们做了双向呈现。均衡点在哪里,不由我们裁定。但无论AI是否处于泡沫中,BBB问题都真实存在——这一点不受市场周期影响。
本文的局限性:BBB理论的信息熵公式为定性描述模型,尚需严格的信息论推导;BRTES三层架构未经实证验证;中国市场案例深度不足,BBB理论在不同政策和文化环境下的适用性有待研究;企业端投诉数据多来自行业调研报告而非一手实验;本文AI协作方为Anthropic产品,相关数据引用已交叉验证但潜在利益关联应被知悉。这些局限同时也是未来研究的方向。
本文的价值不在于告诉你AI会成功还是会失败。本文的价值在于指出一个被泡沫论和乐观论双方都忽视的结构性变量——人类输入端的质量。如果你是企业决策者,在评价AI工具之前,先审视你的团队给AI喂了什么。如果你是AI从业者,在优化模型之前,先思考你的用户为什么用不好。如果你是投资人,在判断AI估值之前,先考虑整个产业是否建立了让AI价值可量化的基础设施。两个黑盒之间需要一层透明的协议。这个协议目前还不存在。谁来建、怎么建、能不能建成——这些是开放的问题,不是本文有能力回答的。但我们至少可以确信一件事:不提出这个问题,就永远不会有人去回答它。
- NBER Working Paper (2026). Survey of 6,000 executives on AI impact on employment and productivity. NBER
- METR (2026). Randomized controlled trial on AI tools and developer productivity: −19% actual vs. +20% perceived. PEER-REVIEWED
- MIT GenAI Divide Report (2026). 95% failure rate of GenAI pilots beyond experimental phase. ACADEMIC
- PwC 2026 Global CEO Survey. 56% report zero gains; 12% report dual cost-revenue benefits. INDUSTRY
- Duke University / Federal Reserve CFO Survey (2026). Perceived vs. actual AI productivity gap. ACADEMIC
- UK Department for Business and Trade. Microsoft 365 Copilot controlled trial — no productivity evidence. GOVERNMENT
- ManpowerGroup 2026 Global Talent Barometer. AI use +13%, confidence −18%. INDUSTRY
- ActivTrak 2026 Behavioral Data Report. Email time +104%, messaging +145%, zero time savings. INDUSTRY
- Checkr / Pollfish Survey (Feb 2026). Manager AI trust 40% vs. employee trust 9%. INDUSTRY
- MetLife 2026 Workplace Report. 83% say faster, 67% say “new friction and mistrust.” INDUSTRY
- Boston Consulting Group (2026). “AI brain fry” — cognitive overload beyond 4+ tools. INDUSTRY
- Glance 2026 CX Trends Report. 75% consumer frustration with AI customer service. INDUSTRY
- Optro 2026 Risk Intelligence Report. 40% inaccurate outputs, 34% cite employee data input as top risk. INDUSTRY
- Duke University (2025). Social penalty study — 4,400 participants, AI users perceived as “cutting corners.” ACADEMIC
- Gallup (2026). 64% of U.S. adults plan to avoid AI “as long as possible.” INDUSTRY
- Brynjolfsson, Rock & Syverson. “The Productivity J-Curve: How Intangibles Complement GPTs.” NBER WP 25148. FOUNDATIONAL
- MIT Sloan / McElheran et al. (2025/2026). AI adoption J-curve in U.S. manufacturing. −1.33pp initial, 60% see 25%+ gains after 4yr. ACADEMIC
- Apollo Chief Economist Torsten Slok (2026). “AI is everywhere except in the incoming macroeconomic data.” INDUSTRY
- BCG (2026). Failing firms average 6.1 use cases vs. 3.5 for leaders; <1/3 upskilled 25% of workforce. INDUSTRY
- Deutsche Bank Research Institute (2025). European ChatGPT spending stagnation since May 2025. INDUSTRY
- Sacra Research (2026). OpenAI $25B ARR, Anthropic $19B ARR, paying user and revenue estimates. INDUSTRY
- RationalFX / TNGlobal (2026). 45,000+ tech layoffs Q1 2026, 20.4% AI-attributed. MEDIA
- Oxford Economics / Revelio Labs (2026). AI as pretext for corporate restructuring analysis. INDUSTRY
- CNN / TechCrunch / CNBC (2026). xAI co-founder departures (10/12 left) and Grok controversy. MEDIA
- NY State AG + 34 AG coalition (2026). Demand for xAI action on nonconsensual content. GOVERNMENT
- Robert Solow (1987). “You can see the computer age everywhere but in the productivity statistics.” FOUNDATIONAL
- Erik Brynjolfsson, FT (2026). “The AI productivity take-off is finally visible” — U.S. productivity ~2.7% in 2025. ACADEMIC
- Cornell University / Zitek (2024). AI surveillance reduces employee autonomy and productivity. ACADEMIC
- Anthropic (2026). Series G: $30B raised at $380B valuation. ARR $1B→$19B in 14 months. Claude Code $2.5B ARR in 9 months. INDUSTRY
- Epoch AI (2026). Anthropic 10×/year growth vs. OpenAI 3.4×/year; crossover projected mid-2026 at ~$43B. ACADEMIC
- SaaStr / Alex Clayton (2026). “We’ve looked at 200+ public software company IPOs — this growth rate has never happened.” INDUSTRY
- IntuitionLabs (2025/2026). Data-driven comparison: AI bubble vs. dot-com bubble — capex, valuations, capital structure. INDUSTRY
- Janus Henderson (2025). “8 reasons the AI wave is different” — Y2K, fraud standards, demand visibility, geopolitics. INDUSTRY
- Barron’s (2000). “Burning Up” cover: 74% of 207 internet companies had negative cash flows. FOUNDATIONAL
- Simply Wall St (2026). Dotcom P/E ~60× vs. current S&P 500 ~23×; today’s multiples supported by real earnings. INDUSTRY
- NVIDIA FY2026. Revenue $215.9B (+65% YoY); market cap ~$4.3T; P/E ~47× vs. Cisco 2000 peak ~472×. INDUSTRY