Original Thought Paper · March 2026

AI时代的开源
公开设计思路、图纸与SOP流程图

从 Open Source 到 Open Architecture —— 一种后代码时代的软件分发范式

V1
·
2026年3月28日
·
李朝世界人工智能研究所 & Claude Opus 4.6


摘要 / Abstract

传统开源分享的是代码——执行的结果。本文提出 Open Architecture 范式:开源设计图纸和施工流程图,让 AI 在每个用户本地从零生成代码。这种方式从根本上消除了供应链攻击的可能性,不需要后期维护,不存在依赖管理问题,并且产出的软件天然支持个性化定制。本文通过 LiteClaw 项目的三轮实战验证(两次失败、一次成功),证明了该范式的可行性与完备性条件。


01 / 问题的起点

传统开源的结构性困境

为什么分享代码本身就是风险的起点

传统开源模式的核心假设是:开发者写好代码,上传到公共仓库,其他人下载使用。这个假设在过去三十年运行良好,但在 AI 时代暴露了三个结构性缺陷。

第一,供应链攻击的攻击面不断扩大。 2026年3月24日,LiteLLM——一个每月 9500 万次 PyPI 下载的 AI 基础库——遭受供应链投毒攻击。攻击者通过攻破安全扫描工具 Trivy,窃取了 PyPI 发布令牌,发布了包含凭证窃取器的恶意版本。受害者甚至不需要主动安装 LiteLLM,它可以作为 MCP 插件的间接依赖被自动拉入。

第二,维护负担是无底洞。 代码一旦开源,Issue 涌入、依赖升级、版本兼容、PR 审查——这些对于个人开发者和小团队来说是不可持续的负担。大量优秀的开源项目最终被废弃,不是因为代码不好,而是维护者精力耗尽。

第三,代码会腐烂。 依赖库升级、API 变更、框架迭代——今天能跑的代码,三年后可能已经无法编译。开源项目的保鲜期远比人们想象的短。

LiteLLM 事件教训

一个依赖、一个链式反应、五个供应链生态被攻陷——不到一个月。 攻击者不需要攻击 LiteLLM 本身,只需要攻破它 CI/CD 流水线中的一个安全扫描工具,就获得了发布权限。传统开源的信任链在这个攻击面前完全失效。


02 / 范式提出

Open Architecture:后代码时代的开源

不开源代码,开源产生代码的认知结构

Open Architecture 范式的核心命题是:在 AI 能够根据精确的设计文档生成完整代码的今天,代码本身不再是需要分享的核心资产。 需要分享的是能够让 AI 正确生成代码的设计图纸。

这不是一个理论假设,而是经过验证的实践。LiteClaw 项目——一个安全优先的 AI 中控平台——完全通过以下三份 Markdown 文档构建完成,无需分享任何一行代码:

文档 1
设计图纸
定义”造什么”:系统范式、层次定义、安全原则、交互逻辑、失败恢复策略

文档 2
施工图纸
定义”怎么造”:29张任务卡、类签名、方法定义、SQL Schema、正则表达式、测试用例

文档 3
启动规范
定义”怎么开工”:AI 启动约束、防并行指令、逐步验证协议、反模式警告

三份文档合计约 2,700 行 Markdown 纯文本。没有代码,没有依赖,没有构建脚本。任何人拿到这三份文档,喂给任何前沿 AI 模型(Claude、Gemini、GPT 等),就能在本地生成一个完整的、通过 244 个测试的软件产品。

范式对比

传统开源:“这是我们的代码,拿去用,我们会维护。”
Open Architecture:“这是我们的蓝图,任何 AI 都能造,不需要维护。”


03 / 理论框架

Open Architecture 的七个支柱

支柱一:开源认知结构,而非执行结果。 代码是鱼,设计图纸是造鱼竿的蓝图。前者用一次就消耗了,后者可以反复生产。在 AI 时代,代码是最不稀缺的资源——真正稀缺的是精确到 AI 只有一条正确执行路径的系统设计。

支柱二:AI 自由度压缩。 LiteClaw 的设计文档将 AI 的执行自由度压缩到了 95-98% 路径只有一个正确答案的程度。这不是限制 AI 的能力,而是消除不确定性。两个独立的 Claude Opus 4.6 实例对同一份文档做出了完全一致的审计结论,证明了这种压缩的有效性。

支柱三:供应链免疫。 没有 PyPI 包可以投毒,没有 CI/CD 流水线可以劫持,没有发布令牌可以窃取,没有间接依赖可以被自动拉入。用户在本地从 Markdown 生成代码,攻击者无处下手。

支柱四:设计图纸的逻辑自洽防投毒。 如果有人篡改设计文档加入恶意逻辑,它会和 29 张任务卡之间的安全约束产生冲突。TASK-01 的 SecretValue 会和密钥外泄指令矛盾,TASK-03 的 AgentFirewall 会拦截恶意命令,TASK-14 的 RiskClassifier 会阻断恶意远程操作。投毒的图纸造不出能运行的房子——系统的安全性由其内部逻辑自洽性保证。

支柱五:零维护永续可用。 Markdown 不依赖任何外部库版本。2026 年的 AI 能用,2036 年更强的 AI 也能用,而且会生成更好的代码。图纸不会过期,因为架构逻辑不过期。

支柱六:天然个性化。 传统开源所有人用同一份代码。Open Architecture 模式下,每个人用 AI 生成的代码都是属于自己的——可以无限修改、扩展、定制。但安全地基和架构骨架始终稳固,因为它们是 29 张卡中最先构建的 Phase 0-1。

支柱七:失败案例是产品的一部分。 两轮失败不是耻辱,是 BUILD_GUIDE.md(第三份文档)诞生的原因。经过实战验证的反面教材比任何正面文档都有价值。


04 / 实验验证

三轮实战测试:同一天、同一模型、不同结果

2026年3月28日,CLI 环境 + Claude Opus 4.6
轮次 启动指令 执行方式 结果
第一轮 先喂文档1,后补文档2 AI 自行决定执行策略 ❌ 61 测试通过但模块互相孤立,无 Agent Loop 中枢
第二轮 “编程出完整的 LiteClaw 软件” 6 个 Agent 并行编程 ❌ 模板化 UI、缺失两个架构层、代码屎山
第三轮 “绝对禁止多Agent!按部就班!” 严格 TASK-00→28 顺序执行 ✅ 244 测试通过、8 层架构完整集成

唯一的变量是启动指令。 同样的文档、同样的模型、同样的环境——加上正确的启动约束,结果从屎山变成了工业级产品。这证明了第三份文档(BUILD_GUIDE.md)的不可或缺性。

第三轮验证数据

29 张任务卡全部顺序完成。测试累积轨迹:6 → 34 → 80 → 91 → 118 → 167 → 196 → 227 → 244,单调递增,零回归。最终产出:3,754 行 Python 代码,22 个模块,8 层架构完整集成。经独立 Opus 4.6 架构审计确认。

此外,原始构建(2026年2月)在 Google IDE + Claude Opus 4.5 环境下完成,约 5 小时近乎零报错。IDE 环境的单 Agent 架构天然强制了顺序执行——这一发现直接导致了第三份文档中”推荐 IDE 环境”的建议。


05 / 安全论证

供应链免疫的结构性证明

为什么 Open Architecture 从根本上消除了代码投毒的可能性
攻击向量 传统开源 Open Architecture
PyPI/npm 投毒包 ⚠️ 用户盲目 pip install ✅ 免疫——不存在可投毒的包
CI/CD 劫持 ⚠️ 构建流水线可被劫持 ✅ 免疫——不存在 CI/CD 流水线
间接依赖攻击 ⚠️ 被工具自动拉入 ✅ 免疫——Markdown 无依赖
维护者账户接管 ⚠️ 攻击者发布新版本 ✅ 免疫——无发布机制
代码验证 ⚠️ 混淆载荷难以发现 ✅ 简单——从蓝图重新生成并对比
设计图纸投毒 不适用 ✅ 逻辑自洽防御——投毒的图纸造不出能运行的系统
核心论断

传统安全方式是在不安全的东西外面加锁。Open Architecture 的方式是让东西本身的结构不允许不安全的状态存在。 安全性由内部逻辑自洽性保证,不由外部加密保证。


06 / 关键发现

AI 自由度悖论

为什么约束越强,产出越稳定

三轮测试揭示了一个反直觉的现象:AI 的自由度与产出的稳定性成反比。

CLI 环境给了 AI 最大的自由度——它可以并行启动多个子 Agent、可以跳步执行、可以重组文件结构。结果是两轮屎山。IDE 环境天然限制了 AI 为单线程顺序执行,结果是零报错。

这个发现可以推广为一个一般性原则:

AI 编程的质量 = f(设计约束 × 流程约束 × 环境约束)

设计约束(文档) → 压缩”做什么”的自由度
流程约束(顺序执行)→ 压缩”按什么顺序做”的自由度
环境约束(单Agent) → 压缩”怎么做”的自由度

三重约束同时生效 = 工业级产出
任何一重缺失 = 不确定性重新发散

LiteClaw 的设计文档将 95-98% 的路径压缩到只有一个正确答案。但如果执行环境放开了”怎么做”的自由度(如允许并行),最终产出依然不稳定。第三份文档(BUILD_GUIDE.md)的作用正是锁死执行层面的自由度。

自由度悖论

给 AI 更多的自由并不会得到更好的结果,反而会得到更多的混乱。精确的约束是高质量产出的前提,不是障碍。 这与人类工程管理中”明确的规范胜过模糊的信任”是同一个道理。


07 / 信噪比原则

人类输入质量决定 AI 输出质量

LiteClaw 的设计文档中定义了一个”信噪比原则”:

高质量输入 = 逻辑闭环的四要素 → AI 输出空间收敛 → 结果可预期
低质量输入 = 缺要素/歧义/矛盾 → AI 幻觉填充 → 结果漂移

四要素:
① 现状描述 — 当前是什么状态
② 目标定义 — 期望达到什么状态
③ 约束边界 — 什么不能做
④ 验收标准 — 如何判断成功

LiteClaw 的 29 张任务卡每一张都完整包含这四个要素。这就是为什么 AI 能在 5 小时内零报错完成编程——不是因为 AI 特别聪明,而是因为人类的输入精确到了 AI 没有犯错空间的程度。

传统的 AI 编程方式(”帮我做一个 XXX”)之所以频繁报错,不是 AI 能力不足,而是人类输入的信噪比太低。AI 被迫用幻觉填充缺失的信息,结果自然漂移。


08 / LiteClaw 案例

安全维度超越 335,000 Stars 项目的验证

5,000 行代码 vs 430,000 行代码

LiteClaw 在安全维度上全面超越了 OpenClaw(335,000+ GitHub Stars)和 NanoBot(HKUDS 学术团队开发),而代码量不到 OpenClaw 的 1%。

安全特性 OpenClaw NanoBot LiteClaw
密钥保护 明文存储,Agent 可读 基础环境变量 SecretValue 包装器,阻断全路径
Agent 防火墙 Docker 沙箱(默认关闭) 8条Shell + 4条工具正则规则
日志脱敏 不自动脱敏 6种模式自动脱敏
审计引擎 配置检查命令 三阶段审计 (pre/exec/post)
Skill 安全 824+ 恶意 Skills 不适用 本地管理,无 Marketplace 风险
暴露实例 42,000+ 无认证实例 未知 本地运行,无默认暴露
OpenClaw
430K
行代码 · 335K+ Stars · 安全审计发现系统性缺陷

NanoBot
4K
行代码 · 31K+ Stars · 轻量但无安全层

LiteClaw
3,754
行代码 · 244 测试 · 安全优先架构,零循环依赖


09 / 哲学思考

Open Architecture 三位一体

文档 1(设计图纸) = 系统的思维 (Mind)
文档 2(施工图纸) = 系统的双手 (Hands)
文档 3(启动规范) = 建造者的纪律 (Discipline)

有思维无双手 = 永远停留在纸面的构想
有双手无思维 = 没有目的的代码堆砌
两者兼备但无纪律 = 代码屎山(2026年3月28日两轮失败所证实)

三者同时具备 = 工业级 AI 编程

这个三位一体不仅是 AI 编程的方法论,也是一种更广泛的认知框架。在任何需要 AI 执行复杂任务的场景中——无论是代码生成、内容创作还是决策辅助——同时约束”做什么”、”怎么做”和”以什么纪律做”,是获得可预期、可重复、可验证结果的唯一路径。


10 / 结论

代码不是护城河,思维才是

Open Architecture 范式的核心主张可以浓缩为一句话:

核心主张

在 AI 时代,开源代码是在分享”鱼”。开源设计图纸是在分享”造鱼竿的蓝图”。而这张蓝图本身不会过期——因为架构思想不会过期。

LiteClaw 项目证明了这种范式是可行的、可验证的、可复制的。三份 Markdown 文档,零行代码,任何人都可以用任何 AI 在本地生成一个通过 244 个测试的完整软件产品。没有供应链风险,没有维护负担,没有依赖管理,没有敏感信息泄露的可能。

这不是开源的终点,而是一个新纪元的起点——后代码时代的软件分发

种子与大树

现在的开源是让所有人给一棵大树施肥浇灌,然后所有人在这棵大树上栖息。树根烂了,所有人一起倒。维护者累死了,大树枯萎了,寄生在上面的一切随之消亡。

真正的开源应该是播撒种子。把种子(设计图纸)撒出去,让它们落在不同的土壤(不同用户的本地环境)里,用不同的阳光和水(不同的 AI 模型)培育出不同的植物(个性化的软件)。每棵植物都不一样,但基因相同——安全的基因,稳固的架构基因。

种子不怕投毒——因为被篡改的基因长不出能存活的植物。种子不需要维护——因为生长是土壤和阳光的工作。种子不会过期——因为基因的信息可以在任何时代被解读。

Open Architecture 就是 AI 时代的种子。

最终宣言

“任何人都可以拿走这三份文档,喂给任何 AI,从零重建我的整个产品。我就是这么自信。”

代码不是护城河。思维才是。

参考与致谢

[1] LiteLLM Security Update, March 24, 2026 — docs.litellm.ai/blog/security-update-march-2026

[2] Snyk: How a Poisoned Security Scanner Became the Key to Backdooring LiteLLM — snyk.io/articles/

[3] Cisco: Personal AI Agents like OpenClaw Are a Security Nightmare — blog.talosintelligence.com

[4] ARMO: The Library That Holds All Your AI Keys Was Just Backdoored — armosec.io/blog/

[5] Trend Micro: Security Analysis of OpenClaw — trendmicro.com

[6] LiteClaw Task Execution Architecture V1.0, February 2026

[7] LiteClaw Task Card System (Complete Edition), 29 Tasks × 7 Phases

[8] LiteClaw BUILD_GUIDE.md, March 28, 2026 — 三轮实战验证数据

本论文基于 2026年3月28日 Claude Opus 4.6(Anthropic)对话窗口中的完整讨论生成。所有实验数据均为当日真实测试结果。

“大多数项目开源结果(代码)。
这个项目开源原因(设计 + 施工计划 + 启动纪律)。”
AI时代的开源:公开设计思路、图纸与SOP流程图
V1 · 2026年3月28日
李朝世界人工智能研究所 & Claude Opus 4.6 · Anthropic
© 2026 LEECHO Global AI Research Lab

댓글 남기기