LLM+知识库_总结篇
1 个人知识库
结合LLM优化个人知识库的目标很明确,就是为了更好地整理手头的所有文档。
本周调研了三种实现方式: - LLM+知识库_01_basic-memory - LLM_知识库_02_记忆宫殿
- LLM_知识库_03_LLM_Wiki
本篇是对LLM+知识库的一些总结和思考。
1.1 核心点
根据几种方案的对比,以及自己的实验,总结如下核心点:
数据保存在本地
需要保存原始文本,尽量不在原始文本上修改
所有内容都要明文保存,包含原始内容和LLM生成的内容
系统本身需要具备自我进化的能力
文档和文档之间最好能自动建立连结
1.2 架构分层
在具体架构上,需要有一层清晰的划分,这里更倾向 LLM Wiki 的方案:
原始资料必须原样留档。
模型的输出结果需要存下来,避免每次提问都重新生成。这些存下来的输出未来如何持续更新,需要进一步设计逻辑。
面对复杂场景,单靠一个 Agent.md
可能不够。未来在和大模型交互时,大概率需要按需注入多套不同的独立规则。
1.3 具体实现
落实到具体实现上,大家都在摸索,不过有几个确定的方向。
首先,不管是跑出来的模型产出还是原始资料, ...
LLM_知识库_02_记忆宫殿
1 引言
看 basic-memory
的时候就想:这个也挺好用的。但大模型应用到现在,似乎不应该没有特别高星的数据存储类开源项目。难道正解还是
RAG?刚好就看到了 MemPalace。
MemPalace 也是一个给 AI
提供外挂记忆的本地知识库系统。
https://github.com/milla-jovovich/mempalace 目前已经有 37.9K Star
2 与其它工具对比
MemPalace 和 basic-memory 属于同一类工具,核心目的都是把 Agent
的“大脑(推理模型)”和“记忆(上下文)”解耦,且都通过 MCP 协议接入,让
Cursor、Claude 等不同工具能共享同一份记忆。
2.1 优点
直接存原文(Verbatim
Storage):它强制保留对话和文档的原始上下文,不依赖 AI
去盲目总结压缩。
建立“记忆宫殿”层级:引入翼(Wing,大型独立区域,配楼)、厅(Hall)、房(Room)三级结构。自带归类关系,大幅提升了查询准确度。
极低的上下文占用:平时唤醒 AI 时,只塞入约 170 Token
的核心事实。需要具体细节时, ...
LLM_知识库_03_LLM_Wiki
提示词 1: 科技概念封面图,一个发光的智能体(代表 AI
管理员)站在中心,四周漂浮着错落有致的半透明立体书页和知识卡片(代表
Markdown 文件),一条条光束在卡片之间穿梭,自动建立连接与索引。表现 AI
全职管理并自动编排个人知识库,冷色系,几何抽象风格,横版
16:9,无文字,无中文,无字母
提示词 2:
科技概念封面图,画面分为底层暗色的文件夹矩阵(原始资料)与上层发光的三维连接网络(成品
Wiki),一道明亮的数据流从底层被提取并编织进上层结构中,上方悬浮着一个抽象的指令星环。表现
AI 根据 Schema 规范自动化处理知识库,极简科技感,横版
16:9,无文字,无中文,无字母
1 Karpathy 是谁
Andrej Karpathy 是 OpenAI 的创始成员之一,前特斯拉的 AI
高级总监。他在 AI
圈很有影响力,经常写通俗易懂的技术博客,也做一些开源项目。
2 LLM Wiki 方案
26年4月,Karpathy 提出了一种构建个人知识库的新范式——LLM
Wiki。它的核心是不用每次临时去查资料(传统 RAG
模式),而是让大模型当个“全职管理员”,把你 ...
模仿欲望_读后感
|300
关于这本书
《模仿欲望》,英文原名 Wanting: The Power of Mimetic Desire in
Everyday Life,作者是美国创业者 Luke
Burgis。这本书的核心来自法国哲学家 René Girard
的理论:我们的欲望大多不是自发产生的,而是通过模仿"中介者"形成的——看到别人在追求某件东西,自己才开始想要它。书里讲的不只是消费习惯或社交关系,而是欲望本身从哪里来。读完之后,很难不回头问自己:那些以为是"我的想法"的东西,有多少真的属于我?
读后感
这本书是 ChatGPT 给我推荐的,话题是"欲望"。
开始读的时候觉得方向有点偏——我想要的是欲望的结构,那场追逐的游戏,求而不得的强化机制。这本书讲的是欲望从何而来:我们为什么把某件东西当成了值得追求的目标。后来周末整理旧文档,才发现之前提过的几个问题,这本书都给出了解释。
没到一天就读完了,没想到后劲挺大。当晚就做梦,梦里我和两个旧友处于同一个环境,和不同的人交流方式,展现出完全不同的自己:有趣活泼,和敏感试探。
不同的人激发出了不同的状态,再一次验证了"愿常远离恶知识"道理。这 ...
OpenAI的CUA_ComputerUseAgent
2025 年 1 月 24 日,OpenAI 发布了其首款 AI 智能体
Operator。这是一款能够在浏览器上执行简单在线任务的网络应用,例如预订音乐会门票和在线购买杂货。
Operator 由新模型 Computer-Using Agent(CUA)驱动,该模型基于 GPT-4o
构建。目前,该应用仅面向订阅每月 200 美元 ChatGPT Pro
服务的美国用户开放,未来将逐步向其他用户推广。
官方介绍: https://openai.com/index/computer-using-agent/
原理:
将 GPT-4
的推理能力结合视觉功能,用于操作电脑桌面(类似于操作浏览器)。
基于桌面解析和文字识别技术,可以控制键盘和鼠标,并在沙箱环境中进行操作。
问题:
安全问题:适合操作商场中机器人,对于个人数据/公司数据可能涉及安全问题。
目标用户是谁:像 Dify,扣子也有此问题。
应用场景:
浏览器使用:语法检查、退款总计、更新许可证、客户查询。
电脑使用:下载讲座、合并 PDF、压缩图像、计算价格、导出图像。
其它:
要 200 刀的 pro 才能用,而 ...
MCP_实用场景讨论
[!abstract 为什么用 MCP] 来源:本文分析 内容: - MCP
是给模型用的“远程遥控器”接口,设计上并非直接面向终端用户; -
在写代码场景下,MCP
补充的是“本地环境操作”的能力,而不是“智能生成”的能力; - 在 Obsidian
场景下,是否需要 MCP,取决于你要不要让
AI“主动参与、自动处理”,而不只是辅助。
相关主题:Agent 工具链、AI 插件生态、Obsidian
自动化、大模型与工具融合
引言
昨天在 B 站看到 UP 主黄益贺展示了一个用对话操作 Obsidian 的
MCP。朋友最近也推荐了一个 MCP 应用:文颜,它可以将 Obsidian
文件发布到微信公众号。文颜 MCP 需要一个 MCP Client 连接大模型和 MCP
Server 来处理 Obsidian 的 markdown 文件,理论上可以上传任意 markdown
到公众号的草稿箱。
文颜 MCP
有两个功能:列出支持的风格和上传草稿箱。使用这个工具需要设定微信账户、标题、封面图,以及安装必要的软件。虽然比直接用
Obsidian 插件复杂,但仍有一定用户。
当然,用 ...
Manus和OpenManus
1 Manus
1.1 概述
官网: https://manus.im/usecases
根据 Manus 发布会的数据,Manus 的功能覆盖了 76% 的垂直类 Agent
项目。其官网展示了 50
多个用例,主要应用于数据分析、调查研究和效率提升。工程方面,Manus
付出了大量努力,整体交互比其他产品优化了许多。
从个人体验来看,Manus
的推广和设计非常出色,与浏览器的整合也令人印象深刻。它有效填补了市场空白,市面上虽有众多开源的
agent 工具,但普遍缺乏易用性;即便是 coze
的图形化界面模块拼接,也存在一定的使用门槛。
Manus
的另一大优势在于其示例表现。一句简单提问,即能获得优质输出。在国内,类似体验的产品有
kimi(检索)和 deepseek-R1(推理),但它们通常只处理单个简单问题。而
Manus
不仅可以在线搜索数据,还能够进行多步操作,解决复杂问题。这一特点似乎填补了市场空白。不过,其实际效果及成本如何,尚需进一步观察和讨论。
1.2 用户交互
界面:打开网站上的实例,可以清晰看到工作过程,左侧展示模型思考,右侧展示工具调用,左右分区的交互流畅。 ...
Linux下用Docker安全部署OpenClaw
本文是我在 Linux 系统下,使用 Docker 方式安装和配置 OpenClaw
的实践记录,这样既不影响当前工作环境,又避免了误操作和数据泄露的风险。相对宿主机安装,Docker安装操作在浏览器时会稍微麻烦一点(使用CDP协议),但不用买新机器,又能保证数据安全,还挺重要的。
文中详细列出了从环境准备、安装步骤到实际使用中遇到的关键问题(如用户权限、服务配对和网络连接)及其解决方案,旨在为有类似需求的开发者提供一份可直接参考的避坑指南。
1 项目资源
官方网站:https://clawd.bot/
代码仓库: https://github.com/openclaw/openclaw (注:项目曾用名
Moltbot)
2 项目概况
OpenClaw 是一个以 TypeScript 为主的大型项目,代码量超过 50
万行。其运行环境要求 Node.js ≥ 22,同时官方也提供了 Docker
安装方式,便于部署。
项目配置主要涉及两个文件:
源码目录中的 .env 文件,用于设置环境变量。
根据用户配置生成的 $HOME/.openclaw/openclaw.json 文件 ...
让 OpenClaw 自己去网上查资料
OpenClaw
除了操作计算机、调用本地工具、利用模型内置的“记忆”,从网上查资源其实是
agent
非常核心的一项工作能力。很多时候,问题不是“会不会推理”,而是“能不能找到最新、准确、可用的资料”。
OpenClaw
安装完成后,理论上已经具备联网能力,但如果你真想让它“上网干活”,还需要额外做一些配置。不然它更多只是一个会思考、但信息来源受限的本地劳动力。
本文就围绕这一点,梳理一下在当前阶段,OpenClaw
想要访问互联网的几种可行方式,以及各自的配置方法和坑点。不讨论哪种最优,只尽量把路讲清楚,方便你按自己的环境和偏好来选。
1 自带的上网功能
在 OpenClaw
里,“上网”其实并不是一个单一的问题,大致可以分成以下几个场景:一类是已知目标的接口调用。比如查天气、查汇率、查某个服务的状态,这类场景往往已经知道具体的网站或
API,只需要把参数(位置、时间、代码等)通过 curl 或 SDK
传进去,就能直接拿到结果。这种更像是调用一个远程函数,很多 skill
本身就已经封装好了,基本不需要额外配置,上来就能用。
更常见、也更麻烦的,是不确定目标的信息获取。比如“搜一 ...
openclaw_把记忆变成配置文件
1 技术背景
当下多数 AI Agent
的能力已经趋同:接入模型、调用工具、操作本地环境、支持 skill / mcp
扩展。这些能力本身并不是全新发明。可能在某个时间点上,大模型成熟了,工具生态完善了,成本降低了,于是一个产品突然爆发。
Openclaw
做的事情,更像是把这些能力系统性地整合到一起,并且打磨到可日常使用的程度。从创新角度看,它与很多
agent
的差异,不一定在“会不会用工具”,而更可能在记忆的设计方式:分层抽象、可回溯、可编辑,并且以
markdown 明文形式存储在本地。
不少 agent 的长期记忆依赖向量库存储或隐式
embedding,对用户来说相对黑箱;而 openclaw
将部分长期特征外置为结构化文本,这是一个方向性的差异。
1.1 人格建模:从权重到配置
我原来以为,如果要训练一个“数字人”,必须训练一个模型、调参、微调权重。现在看,至少有一部分稳定特征,是可以抽取为文字的。更准确地说,并不是“非参数化建模取代了参数模型”,而是:一部分人格特征被显式化为可编辑的结构化文本。
原来是:不可解释、难控制、成本高。现在是:可解释、可编辑、可更新、可组合 ...
