我们是怎么把这套知识库一步步搭起来的,不只是记笔记,而是在造一套 5 个内容层加 1 个规则层的知识系统

2026-04-15

我们是怎么把这套知识库一步步搭起来的,不只是记笔记,而是在造一套 5 个内容层加 1 个规则层的知识系统

这几天我一直在想,怎么把我们搭这套知识库的过程写清楚。

因为如果只看动作,它看起来很普通。

建目录,写 schema,补规则,分 memory、wiki、articles、notes,分析 Karpathy 的 LLM Wiki,再把视频里的方法论补进来,最后再给系统加上一层 Notes / Inbox。所有这些动作单独看都不复杂,甚至像是一个对知识管理稍微上点心的人都会做的事。

可如果真的站在我们这几个月的工作现场回头看,我越来越确认,这件事一点都不普通。

因为我们做的不是“整理一下笔记”,而是在一点点把原本散在聊天、研究、项目、文章、判断和记忆里的东西,拢成一套以后还会继续长大的知识系统。

而且我现在更愿意用一个更准确的说法来描述它。

它不是简单的 5 层结构,也不是一个装资料的仓库,而是:

5 个内容层,加 1 个规则层。

这 6 层合在一起,才是我们现在真正开始搭出来的东西。

如果少掉规则层,它就只是一个有点讲究的文件系统。如果把规则层也算进去,它才开始像一个知识系统。

这篇文章,我想把这个过程重新讲一遍。不是为了讲方法论有多漂亮,而是因为我越来越觉得,AI 时代真正有价值的,不是谁记了更多,而是谁能让已经认真读过、认真想过、认真做过的东西,不再轻易散掉。

一,为什么我们会走到这一步

如果把时间倒回去看,我们其实早就已经在持续积累内容了。

MEMORY.md,有 daily notes,有 research 报告,有网站文章,有对 OpenClaw、AI Native SaaS、Agent 执行系统、内容生产、创业判断的一系列长文,也有越来越多的项目记录、系统状态、流程总结和对话里的高价值结论。

按理说,材料不算少了。甚至可以说,比大多数人已经“记得更多”。

但问题也越来越明显。

这些内容虽然存在,却还没有真正形成一个能持续工作的结构。某些结论写在文章里,某些判断藏在日报里,某些项目演进散在 memory 和 task tracker 之间,一次很有价值的 AI 对话可能当天很兴奋,过几天如果不专门回捞,就像从来没发生过一样。

这时候我越来越清楚地意识到,我们的问题已经不是“有没有记录”,而是:

这些记录以后还能不能被继续用起来。

这件事如果说得再直白一点,就是:

我们已经有内容了,但还没有真正的知识层。

而一旦没有这层,很多东西就会停留在“一次认真完成”,而不能变成“以后持续复利”。

这也是为什么,后来当我们去看 Karpathy 的 LLM Wiki 时,会一下子被打中。因为它说的正是这个问题。

二,Karpathy 的 LLM Wiki 为什么会击中我们

Karpathy 那篇东西很短,但我觉得它最厉害的地方,是它把一个很多人已经隐约感受到的问题,精准地点破了。

传统的 RAG 模式当然有用。上传材料,建立索引,提问时再把相关片段召回来,临时拼出一个答案。这种模式很适合回答局部问题,也很适合做快速检索。

但它有一个天然短板。

它不长记性。

每次问题来,它都像重新施工。每次都去 raw materials 里重新找片段、重新拼、重新组织。问得浅的时候问题不大,问得深、问得跨来源、问得需要长期积累和演化的时候,这套模式会越来越笨重。

LLM Wiki 的思路不一样。

它不是只让模型在查询时临时取材,而是让模型持续维护一层知识 wiki。raw materials 保持不动,wiki 作为中间层不断被更新、被交叉引用、被修正、被重新组织。回答问题时,不只是临时生成,也要在必要时反过来更新 wiki。

这一点对我们太重要了。

因为我们现在面对的,本来就不是“怎么回答一个问题”,而是“怎么把一连串判断、研究和项目推进变成可持续调用的知识结构”。

所以 Karpathy 这篇文章对我们的意义,不是多学了一个知识管理术语,而是给了我们一个非常明确的方向:

不能只堆材料,必须建立一层会持续维护的知识层。

但等真正开始动手以后,我们又发现,原始的 3 层模型虽然优雅,却还不够覆盖我们实际工作流的复杂性。

于是,这套系统才逐渐长成了现在的样子。

三,我们最后搭出来的,不是 3 层,而是 5 个内容层 + 1 个规则层

这是我觉得这次最关键的修正。

如果只是照搬 Karpathy 的原始模型,我们可能会得到:
- raw materials
- wiki
- queries / outputs

这在研究场景里已经很强了,但放到我们实际的工作系统里,还是太粗。

因为我们面对的不只是研究,还包括:
- 跨会话连续性
- 项目推进
- 内容发布
- AI 对话产出
- 快速捕获
- 规则治理

所以后来我们一步步把系统拆成了 5 个内容层,再加一个规则层。

第一层,Notes / Inbox

这是最晚加进来,但我现在觉得非常重要的一层。

它解决的是一个特别真实的问题:

人在最需要记录的时候,往往最不适合做复杂分类。

临时想法、视频摘录、AI 对话片段、移动端随手记、还不确定该进 memory 还是 wiki 的内容,都应该先有一个低摩擦入口。先收进来,再路由,而不是要求自己一开始就分得很清楚。

这就是 Notes / Inbox 的意义。

它让系统更符合人性,也更符合真实工作流。

第二层,Raw Materials

原始材料层只做一件事:保存 source of truth。

research 报告、抓取内容、daily brief、会议纪要、外部文档、高价值 AI 对话转录,这些都在这里。它们只保留一份,不做重复副本。

这层的意义不是“方便写作”,而是保证知识系统始终有稳定的事实来源。

第三层,Memory

Memory 不是资料层,而是连续性层。

这里存的是跨会话会持续起作用的内容:
- 用户偏好
- 环境信息
- 纠错记录
- 项目延续信息
- 长期有效的操作偏好
- 被验证过的写作规则

它不像 wiki 那样负责结构化知识,也不像 raw materials 那样保存原始内容。它更像系统的长期经验层。

第四层,Wiki

这是整个系统的核心中间层。

它不复制原文,而是做:
- 提炼
- 连接
- 比较
- 更新
- 组织

项目页、决策页、趋势页、系统页、产品页、人物页,这些都属于 wiki。它是 raw materials 和最终文章之间,最重要的那一层。

第五层,Articles / Outputs

这是最终输出层。

它面向读者,面向公开表达,面向文章、报告、系列长文、网站内容。这里不是知识仓库,而是叙事层。它的任务是把知识讲清楚,而不是替知识系统本身承担结构维护。

第六层,Rules / Schema Layer

这就是最容易被忽略、但我现在认为最关键的一层。

它不直接装内容,却决定:
- 内容怎么流动
- AI 怎么分类
- 什么该写 memory
- 什么必须进入 wiki
- 什么可以直接写成文章
- ingest、query、lint 怎么跑
- 哪些结构性变更必须先建议、后执行

如果没有这一层,前面 5 层再完整,也只是一个有点整洁的文件堆。

真正让它成为知识系统的,不是页面数量,而是这层治理结构。

四,我们为什么先搭骨架,而不是先追求内容丰满

层次一旦想清楚,接下来最自然的问题就是,先往里面塞什么。

但这次我们刻意没有急着“把很多内容搬进去”。

我现在回头看,觉得这是一个非常正确的克制。

因为知识系统最怕的不是慢,而是越长越乱。越乱,后面越没人愿意用。越没人用,它就越死。

所以我们做的第一步,不是写很多页面,而是先搭骨架。

先写:
- wiki/SCHEMA.md
- wiki/index.md
- wiki/log.md
- wiki/WORKFLOW_RULES.md

再建几类最核心的目录:
- projects
- decisions
- trends
- products
- people
- systems
- notes

然后只写第一批种子页,比如:
- opcpay.org
- OpenClaw system
- memory system evolution
- intel pipeline upgrade
- AI Native SaaS
- execution systems
- multi-agent coordination
- intelligence pipeline

这些种子页最重要的作用,不是提供足够多内容,而是告诉系统未来会往哪里长。

我越来越觉得,一个知识系统和一个城市有点像。最重要的不是一开始就盖很多楼,而是先把路、区块和规则定下来。只要路网是合理的,后面再长出来的东西才不会越来越混乱。

五,真正让它开始像“系统”的,是规则被写死并同步进工作流

骨架搭完以后,我们做的不是继续猛加页面,而是把边界写清楚。

这是这次非常关键的一步。

因为很多知识系统最后会失控,并不是因为材料太多,而是因为大家一直在用模糊直觉做分类。

今天觉得这个写 wiki,明天觉得那个写 memory,后天一篇文章到底要不要回写知识库,每次都重新判断。这样久了,系统会慢慢失去一致性。

所以我们后来明确写下了非常实用的四句规则:

这套规则后来不只留在一个文档里,而是被正式同步进了 AGENTS.md,成为写作工作流的一部分。

这件事对我来说意义非常大。

因为一旦规则进入工作流,它就不再是“知道有这么回事”,而是真正开始影响之后每一次写作和知识沉淀动作。

也就是说,从那一刻开始,我们不再只是“有一个知识库”,而是开始有了一套知识运转机制

六,分析视频内容以后,我们第一次真正补上了“规则层”的重量

后来在分析视频内容、继续研究 LLM Wiki 实操方式的时候,我们又往前推了一步。

这一步特别重要,因为它让我们第一次更清楚地意识到,规则层不是附属物,而是整个系统真正的中枢。

那次升级里,最关键的几个变化是:

1. 正式承认 AI 对话是第一类知识输入

这是一个很重要的修正。

过去很多高价值判断,最早不是出现在正式报告里,而是在对话里。尤其是在我们这种高频和 AI 协作的工作方式下,很多未来的框架、文章和系统设计,最初都只是某段很有价值的对话。

如果这些对话不被纳入知识流,就会大量流失。

所以我们后来明确把“高价值 AI 对话”提升成了原始材料层的一部分。

2. 结构性变更必须 suggestion-first

这也是我现在非常认同的一条规则。

AI 不能替你静默改造整个知识结构。它应该先提出:
- 应该归到哪
- 应该更新哪几页
- 是新建还是合并
- 哪些链接会受影响

然后由人来确认。

因为知识库越大,结构越重要。沉默自动化在这里的代价,比在普通文档编辑里高太多。

3. 知识层必须通向输出层

这一点特别符合我们现在的系统现实。

知识不能只停留在“被整理好”。如果它不能继续流向:
- 文章
- 报告
- 网站内容
- 视频脚本
- SOP
- 项目表达

那它很容易变成一个好看但不继续工作的收藏柜。

而我们搭这套系统,从来不是为了收藏,而是为了持续生产、持续判断、持续推进事情。

所以这次升级以后,我对整套系统的理解变得更坚定了。

它不是一个知识仓库,而是一个:

输入、沉淀、演化、输出,四者不断循环的知识操作系统。

七,现在回头看,我最满意的不是页面多了,而是终于有了那个“中间层”

写到这里,我越来越清楚地意识到,这几天最重要的成果,其实不是我们新建了多少文件。

真正的成果是,我们终于把原来一直缺的那层中间层,慢慢搭起来了。

以前是这样的:
- 原始材料很多
- 最终文章也越来越多

但中间缺一层会持续维护、持续连接、持续提炼、持续修正的知识结构。所以每次研究、写作、回看项目,都很容易重新从 raw materials 里硬挖。

现在这层开始有了。

它还不大,很多页面还只是骨架,很多规则还需要在长期使用里继续打磨。但我已经能明显感觉到,它不再只是“把资料存起来”,而是在逐渐承担一个真正的中间层角色。

这个中间层的意义太大了。

因为很多事情之所以反复从头来过,不是因为人不努力,而是因为做过的东西没有被一个会持续生长的结构接住。

现在这层终于开始长出来了。

八,对我们来说,这件事真正的价值,是以后很多重要事情不必重新开始了

如果最后一定要把这套知识系统的价值讲得最实在一点,我会说,它最大的意义不是“更专业地知识管理”,而是:

以后很多重要事情,不必一次次重新开始了。

做过的研究,会留下一层结构。
写过的文章,会抽出可复用框架。
项目推进,会留下连续轨迹。
判断变化,会有地方沉淀。
高价值 AI 对话,不再只是当下精彩,而会进入长期知识流。

我觉得这点特别动人。

因为很多时候,人真正累的不是工作本身,而是那些已经认真做过、却没能真正积累下来的东西。那种感觉像是在沙地上写字,明明写过,风一吹又没了。

而这几天搭这套系统的过程中,我第一次很清楚地感觉到,我们正在尝试做一件相反的事。

不是让知识存下来就算了,而是让知识真的开始长大。

这就是为什么,现在如果有人问我,我们这几天到底在干什么。

我不会说我们在“整理知识库”。

我会说,我们是在一点点把原本会散掉的东西,搭成一套以后还能继续帮我们思考、写作、判断和推进事情的系统。

而我觉得,这才是 AI 时代最值得认真做的那种基础设施。