提示词 1: 科技概念封面图,一个发光的智能体(代表 AI 管理员)站在中心,四周漂浮着错落有致的半透明立体书页和知识卡片(代表 Markdown 文件),一条条光束在卡片之间穿梭,自动建立连接与索引。表现 AI 全职管理并自动编排个人知识库,冷色系,几何抽象风格,横版 16:9,无文字,无中文,无字母

提示词 2: 科技概念封面图,画面分为底层暗色的文件夹矩阵(原始资料)与上层发光的三维连接网络(成品 Wiki),一道明亮的数据流从底层被提取并编织进上层结构中,上方悬浮着一个抽象的指令星环。表现 AI 根据 Schema 规范自动化处理知识库,极简科技感,横版 16:9,无文字,无中文,无字母

1 Karpathy 是谁

Andrej Karpathy 是 OpenAI 的创始成员之一,前特斯拉的 AI 高级总监。他在 AI 圈很有影响力,经常写通俗易懂的技术博客,也做一些开源项目。

2 LLM Wiki 方案

26年4月,Karpathy 提出了一种构建个人知识库的新范式——LLM Wiki。它的核心是不用每次临时去查资料(传统 RAG 模式),而是让大模型当个“全职管理员”,把你丢给它的所有资料消化掉,整理成一套互相链接、不断更新的 Markdown 文件集合(Wiki)。

这主要是个设计思路和提示词方案,并不是一个装上就能用的现成软件(具体可以看他的 idea file: https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f )。

在这个思路里,AI 负责干脏活累活:总结重点、提取概念、建双向链接、更新索引、查漏补缺。 整个知识库就是你本地的 Markdown 文件和图片,数据不上云,全受你控制。你可以用 Obsidian 或任何编辑器打开它,也可以随时换不同的 AI 模型(比如 Claude 或 GPT)来处理里面的内容。

3 架构逻辑

这套方案有个清晰的三层架构,就像一个 AI 全权运作的“出版系统”:

层级 角色 职责 谁控制
原始资料层 (Raw Sources) 素材库 存你收集的文章、论文等原始文件。只读不写,保证源头不被改动。 你(负责收集)
Wiki层 (The Wiki) 成品区 AI 生成的 Markdown 文件。里面有摘要、概念解释、实体页面和交叉链接。 AI(负责编写维护)
模式层 (The Schema) 出版规范 配置文件(比如 AGENTS.md),告诉 AI 按什么结构和工作流来维护这个 Wiki。 你(定规矩)

4 核心工作流

系统靠这四步循环,会“越用越聪明”:

  1. 摄入 (Ingest):你往 raw/ 文件夹扔新文章并告诉 AI,它会立刻读取提取要点,然后同时去更新由于这篇新文章而受影响的其他十几个相关页面,并把改动记在日志里。
  2. 查询 (Query):你直接向 Wiki 提问。AI 先翻它自己写的目录索引 (index.md) 快速定位相关页面,再给你综合出一份带引用的回答。
  3. 归档 (File Back):如果你觉得回答很好,可以直接把答案存回 Wiki 里。这样你每次深入思考的过程,也就成了知识库的一部分。
  4. 自检 (Lint):可以定期让 AI 给整个 Wiki 做体检,自动找出前后矛盾的地方、过时的结论或者没挂上链接的孤岛页面,并尝试修复或提醒你。

4.1 相关工具

QMD 地址:https://github.com/tobi/qmd qmd是一个命令行工具,和之前介绍的 basic-memroy, mempalace 差不多,也用于对本地文档的增删改查。它由TypeScript和Python实现,是Karpathy推荐的构建LLM Wiki的辅助工具,具体操作由 qmd 实现。

5 参考资料