
构建与 LLM 的本地记忆,保存用户相关信息和聊天记录,可读取、写入、整合和搜索用户的知识库
Basic Memory 使用户能够通过与大型语言模型 LLM 的自然对话构建持久的知识记忆,将这类内容保存在本地计算机上的 Markdown 文件中,操作简易,几乎不占内存。此 MCP 可以兼容任何模型和 OS,能够 (1) 读取、(2) 写入、(3) 整合和 (4) 搜索用户设置的本地知识库。
大多数 LLM 交互都是短暂的 —— 用户提问,得到答案,然后一切都被遗忘。每次对话都是全新的,没有之前的上下文或前置知识,而当前多数的解决方法有其局限性。
Basic Memory 通过一种简单的方法解决了这些问 —— 结构化的 Markdown 文件,既可由人类也可由 LLM 读写。下面为此方法优点:
使用 Basic Memory,用户可以:
假设用户正在探索咖啡冲泡方法,并希望记录相关的知识。以下是具体步骤:
(01) 首先开始正常的聊天:
我最近尝试了不同的咖啡冲泡方法,主要发现:
手冲咖啡(Pour over)比法压壶(French press)的风味更清澈鲜明
水温至关重要——约205°F(96°C)效果最佳
现磨咖啡豆对风味有显著提升
(...继续对话)
(02) 请大语言模型帮助整理这些知识:
写一个关于咖啡制作的偏好和方法
大语言模型会在用户的系统上创建一个新的 Markdown 文件:
---
title: 咖啡制作方法
permalink: 咖啡制作方法
tags:
- 咖啡
- 制作
---
# 咖啡制作方法
## 观察
- [方法] 手冲咖啡(Pour over)能提供更清澈的口感,突出细腻风味层次
- [技巧] 205°F(96°C)的水温可最佳萃取咖啡化合物
- [原理] 现磨咖啡豆能最大程度保留芳香物质和风味特性
## 关系
- 关联 [[咖啡豆产地]]
- 依赖 [[正确研磨技术]]
- 影响 [[风味萃取效果]]
该笔记嵌入了语义内容,并通过简单的 Markdown 格式链接到其他主题。用户会实时在当前项目目录(默认为 ~/$HOME/basic-memory)中看到这个文件。
在与 LLM 的对话中,用户可以引用某个主题:
帮我查看 "咖啡制作方法" 作为参考咖啡制作的步骤和内容
大语言模型现在可以从知识图谱中构建丰富的上下文,例如:
追溯「关联 [[咖啡豆产地]]」关系:
1. 已查找到埃塞俄比亚耶加雪菲产区的详细资料
2. 包含哥伦比亚咖啡豆坚果风味的特征笔记
3. 海拔高度对咖啡豆特性的影响分析
追溯「依赖 [[正确研磨技术]]」关系:
1. 平刀与锥刀研磨机的对比分析
2. 不同冲泡方式对应的研磨度建议
3. 颗粒均匀度对萃取效率的影响研究
每个相关的文档都可以提供更多上下文,从而构建对用户知识库的丰富语义理解,创建了一个双向流程,其中: