我们是怎么把这套知识库一步步搭起来的,不只是记笔记,而是在造一套 5 个内容层加 1 个规则层的知识系统
这几天我一直在想,怎么把我们搭这套知识库的过程写清楚。
因为如果只看动作,它看起来很普通。
建目录,写 schema,补规则,分 memory、wiki、articles、notes,分析 Karpathy 的 LLM Wiki,再把视频里的方法论补进来,最后再给系统加上一层 Notes / Inbox。所有这些动作单独看都不复杂,甚至像是一个对知识管理稍微上点心的人都会做的事。
可如果真的站在我们这几个月的工作现场回头看,我越来越确认,这件事一点都不普通。
因为我们做的不是“整理一下笔记”,而是在一点点把原本散在聊天、研究、项目、文章、判断和记忆里的东西,拢成一套以后还会继续长大的知识系统。
而且我现在更愿意用一个更准确的说法来描述它。
它不是简单的 5 层结构,也不是一个装资料的仓库,而是:
5 个内容层,加 1 个规则层。
这 6 层合在一起,才是我们现在真正开始搭出来的东西。
如果少掉规则层,它就只是一个有点讲究的文件系统。如果把规则层也算进去,它才开始像一个知识系统。
这篇文章,我想把这个过程重新讲一遍。不是为了讲方法论有多漂亮,而是因为我越来越觉得,AI 时代真正有价值的,不是谁记了更多,而是谁能让已经认真读过、认真想过、认真做过的东西,不再轻易散掉。
一,为什么我们会走到这一步
如果把时间倒回去看,我们其实早就已经在持续积累内容了。
有 MEMORY.md,有 daily notes,有 research 报告,有网站文章,有对 OpenClaw、AI Native SaaS、Agent 执行系统、内容生产、创业判断的一系列长文,也有越来越多的项目记录、系统状态、流程总结和对话里的高价值结论。
按理说,材料不算少了。甚至可以说,比大多数人已经“记得更多”。
但问题也越来越明显。
这些内容虽然存在,却还没有真正形成一个能持续工作的结构。某些结论写在文章里,某些判断藏在日报里,某些项目演进散在 memory 和 task tracker 之间,一次很有价值的 AI 对话可能当天很兴奋,过几天如果不专门回捞,就像从来没发生过一样。
这时候我越来越清楚地意识到,我们的问题已经不是“有没有记录”,而是:
这些记录以后还能不能被继续用起来。
这件事如果说得再直白一点,就是:
我们已经有内容了,但还没有真正的知识层。
而一旦没有这层,很多东西就会停留在“一次认真完成”,而不能变成“以后持续复利”。
这也是为什么,后来当我们去看 Karpathy 的 LLM Wiki 时,会一下子被打中。因为它说的正是这个问题。
二,Karpathy 的 LLM Wiki 为什么会击中我们
Karpathy 那篇东西很短,但我觉得它最厉害的地方,是它把一个很多人已经隐约感受到的问题,精准地点破了。
传统的 RAG 模式当然有用。上传材料,建立索引,提问时再把相关片段召回来,临时拼出一个答案。这种模式很适合回答局部问题,也很适合做快速检索。
但它有一个天然短板。
它不长记性。
每次问题来,它都像重新施工。每次都去 raw materials 里重新找片段、重新拼、重新组织。问得浅的时候问题不大,问得深、问得跨来源、问得需要长期积累和演化的时候,这套模式会越来越笨重。
LLM Wiki 的思路不一样。
它不是只让模型在查询时临时取材,而是让模型持续维护一层知识 wiki。raw materials 保持不动,wiki 作为中间层不断被更新、被交叉引用、被修正、被重新组织。回答问题时,不只是临时生成,也要在必要时反过来更新 wiki。
这一点对我们太重要了。
因为我们现在面对的,本来就不是“怎么回答一个问题”,而是“怎么把一连串判断、研究和项目推进变成可持续调用的知识结构”。
所以 Karpathy 这篇文章对我们的意义,不是多学了一个知识管理术语,而是给了我们一个非常明确的方向:
不能只堆材料,必须建立一层会持续维护的知识层。
但等真正开始动手以后,我们又发现,原始的 3 层模型虽然优雅,却还不够覆盖我们实际工作流的复杂性。
于是,这套系统才逐渐长成了现在的样子。
三,我们最后搭出来的,不是 3 层,而是 5 个内容层 + 1 个规则层
这是我觉得这次最关键的修正。
如果只是照搬 Karpathy 的原始模型,我们可能会得到:
- raw materials
- wiki
- queries / outputs
这在研究场景里已经很强了,但放到我们实际的工作系统里,还是太粗。
因为我们面对的不只是研究,还包括:
- 跨会话连续性
- 项目推进
- 内容发布
- AI 对话产出
- 快速捕获
- 规则治理
所以后来我们一步步把系统拆成了 5 个内容层,再加一个规则层。
第一层,Notes / Inbox
这是最晚加进来,但我现在觉得非常重要的一层。
它解决的是一个特别真实的问题:
人在最需要记录的时候,往往最不适合做复杂分类。
临时想法、视频摘录、AI 对话片段、移动端随手记、还不确定该进 memory 还是 wiki 的内容,都应该先有一个低摩擦入口。先收进来,再路由,而不是要求自己一开始就分得很清楚。
这就是 Notes / Inbox 的意义。
它让系统更符合人性,也更符合真实工作流。
第二层,Raw Materials
原始材料层只做一件事:保存 source of truth。
research 报告、抓取内容、daily brief、会议纪要、外部文档、高价值 AI 对话转录,这些都在这里。它们只保留一份,不做重复副本。
这层的意义不是“方便写作”,而是保证知识系统始终有稳定的事实来源。
第三层,Memory
Memory 不是资料层,而是连续性层。
这里存的是跨会话会持续起作用的内容:
- 用户偏好
- 环境信息
- 纠错记录
- 项目延续信息
- 长期有效的操作偏好
- 被验证过的写作规则
它不像 wiki 那样负责结构化知识,也不像 raw materials 那样保存原始内容。它更像系统的长期经验层。
第四层,Wiki
这是整个系统的核心中间层。
它不复制原文,而是做:
- 提炼
- 连接
- 比较
- 更新
- 组织
项目页、决策页、趋势页、系统页、产品页、人物页,这些都属于 wiki。它是 raw materials 和最终文章之间,最重要的那一层。
第五层,Articles / Outputs
这是最终输出层。
它面向读者,面向公开表达,面向文章、报告、系列长文、网站内容。这里不是知识仓库,而是叙事层。它的任务是把知识讲清楚,而不是替知识系统本身承担结构维护。
第六层,Rules / Schema Layer
这就是最容易被忽略、但我现在认为最关键的一层。
它不直接装内容,却决定:
- 内容怎么流动
- AI 怎么分类
- 什么该写 memory
- 什么必须进入 wiki
- 什么可以直接写成文章
- ingest、query、lint 怎么跑
- 哪些结构性变更必须先建议、后执行
如果没有这一层,前面 5 层再完整,也只是一个有点整洁的文件堆。
真正让它成为知识系统的,不是页面数量,而是这层治理结构。
四,我们为什么先搭骨架,而不是先追求内容丰满
层次一旦想清楚,接下来最自然的问题就是,先往里面塞什么。
但这次我们刻意没有急着“把很多内容搬进去”。
我现在回头看,觉得这是一个非常正确的克制。
因为知识系统最怕的不是慢,而是越长越乱。越乱,后面越没人愿意用。越没人用,它就越死。
所以我们做的第一步,不是写很多页面,而是先搭骨架。
先写:
- wiki/SCHEMA.md
- wiki/index.md
- wiki/log.md
- wiki/WORKFLOW_RULES.md
再建几类最核心的目录:
- projects
- decisions
- trends
- products
- people
- systems
- notes
然后只写第一批种子页,比如:
- opcpay.org
- OpenClaw system
- memory system evolution
- intel pipeline upgrade
- AI Native SaaS
- execution systems
- multi-agent coordination
- intelligence pipeline
这些种子页最重要的作用,不是提供足够多内容,而是告诉系统未来会往哪里长。
我越来越觉得,一个知识系统和一个城市有点像。最重要的不是一开始就盖很多楼,而是先把路、区块和规则定下来。只要路网是合理的,后面再长出来的东西才不会越来越混乱。
五,真正让它开始像“系统”的,是规则被写死并同步进工作流
骨架搭完以后,我们做的不是继续猛加页面,而是把边界写清楚。
这是这次非常关键的一步。
因为很多知识系统最后会失控,并不是因为材料太多,而是因为大家一直在用模糊直觉做分类。
今天觉得这个写 wiki,明天觉得那个写 memory,后天一篇文章到底要不要回写知识库,每次都重新判断。这样久了,系统会慢慢失去一致性。
所以我们后来明确写下了非常实用的四句规则:
- 一次性内容,直接写文章
- 跨会话事实,写 memory
- 可复用知识,写 wiki
- 原始来源,留在 raw/research,不重复复制
这套规则后来不只留在一个文档里,而是被正式同步进了 AGENTS.md,成为写作工作流的一部分。
这件事对我来说意义非常大。
因为一旦规则进入工作流,它就不再是“知道有这么回事”,而是真正开始影响之后每一次写作和知识沉淀动作。
也就是说,从那一刻开始,我们不再只是“有一个知识库”,而是开始有了一套知识运转机制。
六,分析视频内容以后,我们第一次真正补上了“规则层”的重量
后来在分析视频内容、继续研究 LLM Wiki 实操方式的时候,我们又往前推了一步。
这一步特别重要,因为它让我们第一次更清楚地意识到,规则层不是附属物,而是整个系统真正的中枢。
那次升级里,最关键的几个变化是:
1. 正式承认 AI 对话是第一类知识输入
这是一个很重要的修正。
过去很多高价值判断,最早不是出现在正式报告里,而是在对话里。尤其是在我们这种高频和 AI 协作的工作方式下,很多未来的框架、文章和系统设计,最初都只是某段很有价值的对话。
如果这些对话不被纳入知识流,就会大量流失。
所以我们后来明确把“高价值 AI 对话”提升成了原始材料层的一部分。
2. 结构性变更必须 suggestion-first
这也是我现在非常认同的一条规则。
AI 不能替你静默改造整个知识结构。它应该先提出:
- 应该归到哪
- 应该更新哪几页
- 是新建还是合并
- 哪些链接会受影响
然后由人来确认。
因为知识库越大,结构越重要。沉默自动化在这里的代价,比在普通文档编辑里高太多。
3. 知识层必须通向输出层
这一点特别符合我们现在的系统现实。
知识不能只停留在“被整理好”。如果它不能继续流向:
- 文章
- 报告
- 网站内容
- 视频脚本
- SOP
- 项目表达
那它很容易变成一个好看但不继续工作的收藏柜。
而我们搭这套系统,从来不是为了收藏,而是为了持续生产、持续判断、持续推进事情。
所以这次升级以后,我对整套系统的理解变得更坚定了。
它不是一个知识仓库,而是一个:
输入、沉淀、演化、输出,四者不断循环的知识操作系统。
七,现在回头看,我最满意的不是页面多了,而是终于有了那个“中间层”
写到这里,我越来越清楚地意识到,这几天最重要的成果,其实不是我们新建了多少文件。
真正的成果是,我们终于把原来一直缺的那层中间层,慢慢搭起来了。
以前是这样的:
- 原始材料很多
- 最终文章也越来越多
但中间缺一层会持续维护、持续连接、持续提炼、持续修正的知识结构。所以每次研究、写作、回看项目,都很容易重新从 raw materials 里硬挖。
现在这层开始有了。
它还不大,很多页面还只是骨架,很多规则还需要在长期使用里继续打磨。但我已经能明显感觉到,它不再只是“把资料存起来”,而是在逐渐承担一个真正的中间层角色。
这个中间层的意义太大了。
因为很多事情之所以反复从头来过,不是因为人不努力,而是因为做过的东西没有被一个会持续生长的结构接住。
现在这层终于开始长出来了。
八,对我们来说,这件事真正的价值,是以后很多重要事情不必重新开始了
如果最后一定要把这套知识系统的价值讲得最实在一点,我会说,它最大的意义不是“更专业地知识管理”,而是:
以后很多重要事情,不必一次次重新开始了。
做过的研究,会留下一层结构。
写过的文章,会抽出可复用框架。
项目推进,会留下连续轨迹。
判断变化,会有地方沉淀。
高价值 AI 对话,不再只是当下精彩,而会进入长期知识流。
我觉得这点特别动人。
因为很多时候,人真正累的不是工作本身,而是那些已经认真做过、却没能真正积累下来的东西。那种感觉像是在沙地上写字,明明写过,风一吹又没了。
而这几天搭这套系统的过程中,我第一次很清楚地感觉到,我们正在尝试做一件相反的事。
不是让知识存下来就算了,而是让知识真的开始长大。
这就是为什么,现在如果有人问我,我们这几天到底在干什么。
我不会说我们在“整理知识库”。
我会说,我们是在一点点把原本会散掉的东西,搭成一套以后还能继续帮我们思考、写作、判断和推进事情的系统。
而我觉得,这才是 AI 时代最值得认真做的那种基础设施。