ENZH

我造了个知识编译器,让 AI 自动帮我写 Wiki

我读了很多,但什么都没留下

你有没有这种感觉——

每天刷大量文章、论文、技术博客。读完的时候觉得 "哇,这个洞察太好了"。

三天后,只记得个大概。一个月后,连大概都忘了。

我之前的工作流是这样的:读完一篇文章,觉得不错,收藏。收藏夹里躺了 500 篇,再也没打开过。

Karpathy 说过一句话让我很受触动:他维护一个个人 Wiki,把读到的所有东西都喂进去,让条目之间互相引用、不断累积。Wiki 不是用一次的工具,它是一个越喂越聪明的知识体。

关键词:复利

每新加一篇文章,不只是多了一个条目。它会更新五个已有的页面,创建两个新的交叉链接,浮现一个你之前没注意到的模式。

问题是:手动维护这件事,累死人。

读完一篇文章,你得总结,找到相关的 Wiki 页面,手动加引用,更新索引。这比读原文还花时间。

所以我造了 Cortex

一句话解释

Cortex 是一个个人知识编译器。

脑子里的模型是这样的:

  • Obsidian 是 IDE — 你在这里浏览和阅读
  • LLM 是编译器 — 它读源材料,写 Wiki 文章
  • Wiki 是代码库 — 它不断增长、重构、复利累积

最反直觉的地方:Cortex 里面没有任何 LLM 代码。没有 API key,没有 prompt chain,没有 embedding。

它就是一个 MCP 服务器,提供 5 个文件读写工具。Claude Code 通过这 5 个工具来读你的源材料、写你的 Wiki。

真正的 "编译逻辑" 在哪?在一个 markdown 文件里。

这个文件教 AI 怎么思考知识组织:什么时候该新建文章,什么时候该更新旧的,怎么引用来源,什么情况下一个概念值得单独开一页。

你不是用 AI 编程。你是在编程 AI。

怎么用

往 Obsidian vault 的 inbox/ 丢一个链接或文件。

下次你打开 Claude Code,一个 hook 自动提醒:

"[Cortex] inbox/ 里有 3 个文件等着处理。"

然后 Claude Code 自动执行:

  1. Ingest — 读取源文件(URL 通过 Jina Reader 转成 markdown),生成元数据,存入 sources/
  2. Compile — 读源文件,决定创建还是更新哪些 Wiki 文章,加上 [[wikilinks]] 和来源引用
  3. Index — 更新总索引,记录操作日志

你在 Obsidian 里实时看到更新。新文章出现了,交叉引用更新了,知识图谱在生长。

极简到什么程度

15 个源文件。5 个依赖。零数据库。

每个决定都是刻意的。

没有数据库。 manifest 是一个 JSON 文件。索引是一个 markdown 文件。日志是一个只追加的 markdown 文件。整个状态都是人类可读的文件,放在 git 里,版本控制、备份、迁移全白送。

没有搜索引擎。 搜索不归我管——我配了 qmd(Shopify 创始人 Tobi Lutke 做的),一个专门做 markdown 搜索的 MCP 服务器。Cortex 负责写,qmd 负责读。两个 MCP 服务器,各做一件事。

没有 LLM 代码。 这是最违反直觉的。一个 "知识编译器" 里没有 AI 代码?对。因为编译逻辑属于 schema,不属于工具。想改编译方式?改一个 markdown 文件就行。不用改代码,不用重新部署。

没有编译流水线。 没有 DAG,没有任务队列,没有 build system。LLM 读 schema,用 5 个工具。"流水线" 就是 agent 的推理过程。模型升级了,文章质量就升级了,代码一行不用动。

五个工具,全部的 API

工具做什么
cortex_ingest读取 URL 或文件,提取内容,存为 source
cortex_write创建或更新 Wiki 文章,自动更新索引
cortex_diff显示 inbox 里有什么,哪些还没编译
cortex_log往操作日志里追加一条记录
cortex_status返回 vault 统计(source 数量、文章数量、最后活跃时间)

就这些。5 个工具,全是文件操作。智能在 schema 里,不在服务器里。

源不可变,Wiki 可变

这个架构决定我特别满意。

Source 一旦写入,永不修改。它是你读过什么的永久记录。

Wiki 文章则不断更新——新的交叉引用,随着相关源材料的增加而完善的总结,过时结论的修正。

这就把证据推理分开了。Wiki 里的每一句话都能追溯到 source。Source 有问题?更新引用它的 Wiki 文章,而不是改 source 本身。

复利效应

用了一段时间后,最让我惊喜的是这个:

喂了 50 篇 source 之后,我没有要求生成的文章开始自己出现了。

不是每篇 source 对应一篇 Wiki。是 AI 发现了跨 source 的主题——它自动写了 synthesis 文章,把分散在不同来源里的相关洞察连接在一起。

这就是复利。每一篇新 source 的价值不是线性的,而是指数的。因为它可以和已有的所有知识产生连接。

知识越多,每一条新知识越有价值。

试试看

npx cortex-kb init ~/my-wiki

注册 MCP 服务器到 Claude Code,然后开始往 inbox 丢链接。

代码在 github.com/xingfanxia/cortex。现在是 Phase 1,核心循环已经跑通了,我每天都在用。


最好的工具是你感觉不到它存在的工具。Cortex 没有 UI,没有设置页,没有仪表盘。5 个 MCP 工具加一个教 AI 怎么思考的 markdown 文件。剩下的交给 Obsidian。


© Xingfan Xia 2024 - 2026 · CC BY-NC 4.0