摘 要
2026年,全球AI产业进入史无前例的军备竞赛阶段。OpenAI、Anthropic、xAI(已与SpaceX合并,计划2026年中启动史上最大IPO)、Google四大AI公司在增长和上市压力驱动下,以七周一个新模型的速度疯狂迭代,同时将系统级权限的AI桌面代理——Cowork、Codex、Claude Code——部署到数亿台终端设备上。本文基于2025-2026年间已公开的安全事件、供应链攻击案例和行业数据,系统性地评估了AI基础设施面临的全球性安全风险。研究发现:AI公司在”Assume Trust”哲学下运营需要”Assume Breach”级别安全保障的系统级软件,违反了网络安全行业的所有基本原则。供应链投毒、模型泄露、未授权访问等威胁已从理论风险转化为已验证的攻击路径。本文推演了全球级AI安全事件爆发的可能路径及其对数字基础设施的连锁影响,并提出了强制监管框架建议。
目 录
引言:AI产业的结构性安全危机
2026年4月,全球AI产业呈现出一幅前所未有的图景:OpenAI(估值5,000亿美元)、Anthropic(估值3,500亿美元)、xAI(已与SpaceX合并,合并估值1.25万亿美元,计划2026年中以1.75万亿估值启动史上最大IPO)、Google——四大AI巨头在增长和上市压力下全速狂奔。ChatGPT已拥有超过9亿周活跃用户和5,000万付费订阅者。七周之内发布两个旗舰模型(GPT-5.4到GPT-5.5)已成为常态。
然而,在这场速度狂飙的背后,一个系统性的安全危机正在形成。AI公司将拥有系统级权限的桌面代理软件部署到数亿台终端设备上,这些软件能够读写文件、执行代码、操作浏览器、访问网络、连接企业内部系统——而所有这一切都在最低级别的监管下运行。
本文的核心论点是:AI行业正在用”Assume Trust”(假设信任)的哲学,运营需要”Assume Breach”(假设已被攻破)级别安全保障的关键基础设施级软件。这一根本性矛盾,叠加上市压力带来的速度优先倾向,正在将全球数字基础设施推向一个危险的临界点。
已验证的攻击面:2025-2026安全事件全景
以下事件并非假设场景,而是2025至2026年间已被独立安全研究者、媒体和官方报告确认的真实安全事故。四大AI公司无一幸免。
Anthropic
OpenAI
xAI
Chat AI与桌面代理:风险量级的本质差异
必须明确区分两类完全不同的AI产品,因为它们的安全风险处于完全不同的量级。
Chat AI(如claude.ai网页版、ChatGPT网页版)运行在浏览器沙箱内,受同源策略保护。关闭标签页后即失去所有能力。其最大风险是泄露用户在对话中主动输入的信息。严重,但没有传播力,不能感染其他系统。
桌面代理(Cowork、Codex、Claude Code、OpenClaw)则完全不同。它们直接运行在用户操作系统上,拥有以下能力组合——Kaspersky将其称为”恐怖五合一”:
桌面代理”恐怖五合一”权限模型
CRITICAL
CRITICAL
CRITICAL
CRITICAL
CRITICAL
关键差异在于传播力。Chat AI是隔离的。桌面代理连接着邮件、日历、代码库、云服务、企业内网、CI/CD管线。一旦被攻破,它不仅控制一台电脑,而是获得了沿着所有已连接服务横向移动的能力。而且因为这些代理本身就在24小时读写文件、执行代码、访问网络,恶意行为与正常工作行为几乎无法区分。
供应链投毒:从理论到现实
供应链投毒不再是理论威胁。2026年前四个月已经爆发了多起大规模真实攻击,攻击者已经掌握了成熟的攻击路径。
OpenClaw危机:AI代理安全崩溃的预演
OpenClaw——一个开源AI代理框架——在2026年1月爆红后,于三周内成为一场多向量安全危机的中心。它为我们提供了一个完整的预演案例:当系统级AI代理遇到真实攻击者时会发生什么。
OpenClaw是开源的、个人部署的,安全管理尚且如此糟糕。Cowork、Codex、Claude Code是商业闭源的,覆盖面更大、权限更高、用户更不了解其内部运作。如果它们的供应链被攻破,影响规模将是OpenClaw的千倍以上。
上市冲刺:最危险的时间窗口
上市压力与安全需求之间存在根本性矛盾。当前正是这一矛盾最尖锐的时刻。
风险因子同步峰值评估
极高
极高
极高
极高
高
极高
GPT-5.5于2026年4月23日发布,距GPT-5.4仅七周。OpenAI不再将其定位为”聊天模型”,而是”代理运行时”——它能自主规划、使用工具、操作软件、浏览网页、检查自身工作。OpenAI承认该模型达到了内部”高风险”分类标准,意味着它能放大网络安全攻击的现有路径。
与此同时,OpenAI全年实际API正常运行率仅为99.2%(承诺99.9%),相当于全年61小时宕机。78%的企业高管对自己能否通过AI治理审计缺乏信心。95%的企业生成式AI试点项目未能产生投资回报。整个行业建立在一个脆弱的、高速膨胀的、未经充分验证的基础之上。
全球级安全事件推演:多米诺路径
基于已验证的攻击路径和当前风险态势,以下是全球级AI安全事件的可能演化路径:
→
模型/更新污染
→
全球同步推送
→
数亿终端感染
→
企业内网渗透
→
代码库后门注入
→
下游软件污染
→
基础设施瘫痪
这一路径的每一环都已有真实案例验证。LiteLLM证明了AI基础设施库可以被投毒。Axios证明了全球级npm包可以被劫持。Vercel证明了AI平台可以成为企业渗透的跳板。OpenClaw证明了AI代理可以被静默控制。Mythos证明了武器级模型可以被未授权获取。
影响量级估算:ChatGPT 9亿周活跃用户 + Codex 400万活跃开发者 + 这些开发者的代码部署到的服务器和设备 = 潜在影响范围远超任何已知的网络安全事件。SolarWinds影响了1.8万个组织,AI桌面代理的覆盖面比SolarWinds大数个数量级。
最关键的认识是:这条链条中,“叫停”和”不叫停”都是灾难。不叫停,安全事件持续升级;叫停,依赖AI的企业大面积瘫痪。AI行业已经将自己——以及所有依赖它的人——推入了一个两难困境。
强制监管框架建议
基于以上风险评估,我们建议对所有拥有系统级权限的AI桌面代理实施关键基础设施级别的监管:
Chat AI可以在相对宽松的监管下继续运行。但所有拥有系统级权限的AI桌面代理必须被归类为关键基础设施级别软件,适用与金融系统、医疗设备和核设施同等级别的安全监管标准。
结论
全球AI产业正处于一个危险的悖论之中:模型能力越来越强,安全管理越来越跟不上;覆盖面越来越广,单点故障的影响越来越大;速度越来越快,审慎决策的空间越来越小。
网络安全行业的核心信条——”Assume Breach”——要求我们假设系统已经被攻破,然后从这个假设出发设计防御。将这一信条应用于AI桌面代理,意味着我们必须假设Cowork已经被攻破、Codex已经被攻破、Claude Code已经被攻破,然后问自己:在这个假设下,数亿台连接着企业内网和云服务的终端设备会面临什么?
答案是:一场规模超过SolarWinds数个数量级的全球级数字瘟疫的可能性。
这不是悲观主义,这是风险预估。所有风险因子——攻击能力、攻击面、时间窗口、防御缺口、速度压力——正在同时达到峰值。问题不是”会不会发生”,而是”什么时候以什么方式发生”。
我们呼吁:在不可逆的损害发生之前,对所有系统级AI代理软件实施关键基础设施级别的强制监管。时间窗口正在关闭。