在 AI 助手越来越普及的今天,一个长期困扰开发者的问题浮出水面:每次对话结束后,所有信息都会消失。六个月的工作成果,在新会话开始时化为乌有——你不得不从头解释背景。MemPalace 就是要解决这个问题。
项目地址:https://github.com/MemPalace/mempalace
项目介绍
MemPalace 是一个本地运行的 AI 记忆系统,在 LongMemEval 基准测试中取得了 96.6% 的 R@5 得分——这是该基准测试有史以来公布的最高分数,而且完全免费。它不需要任何订阅、不需要云服务、完全本地运行,数据永远不会离开你的机器。
设计理念——宫殿记忆法
MemPalace 的核心设计借鉴了古希腊演说家的「宫殿记忆法」:演说家将想法放置在想象中建筑的各个房间里,走一遍建筑就能找到对应的想法。MemPalace 将同样的原理应用到 AI 记忆:对话被组织成「侧厅」(人物和项目)、「大厅」(记忆类型)和「房间」(具体想法)。不是由 AI 决定什么重要,而是保留所有内容,让结构为你提供可导航的地图,而非扁平的搜索索引。
核心技术特点
原始逐字存储:MemPalace 将你的真实对话内容存入 ChromaDB,不做摘要、不做提取。96.6% 的 LongMemEval 得分正是来自这种原始模式。我们不依赖 LLM 来决定「值得记住什么」——保留一切,让语义搜索来找到它们。
AAAK 实验性压缩方言:用于在重复实体规模下打包更多 Token 到更少空间中。可被任何 LLM(Claude、GPT、Gemini、Llama、Mistral)读取,不需要专门的解码器。但需要注意,在 LongMemEval 基准上,AAK 模式得分(84.2%)低于原始模式(96.6%)。
本地优先:完全在你自己的机器上运行,使用本地数据,不调用任何外部 API 或服务。
安装步骤
第一步,安装依赖。MemPalace 需要 Python 3.10+ 和 ChromaDB:
pip install mempalace chromadb
第二步,初始化记忆系统:
python -m mempalace init
第三步,配置存储路径(可选,使用本地目录):
python -m mempalace configure –storage ./memory_data
第四步,开始对话并自动存储:
python -m mempalace chat
使用方法和技巧
将项目相关的对话结构化组织:使用侧厅(wings)区分不同人物,大厅(halls)区分记忆类型,房间(rooms)存放具体想法。
善用语义搜索:即使没有手动分类,ChromaDB 的语义搜索也能帮你找到相关内容。
定期导出备份:虽然数据完全在本地,但仍建议定期备份记忆数据。
适用场景
需要 AI 记住长期项目背景的开发者;希望 AI 在多轮对话中保持连贯性的使用者;关注数据隐私、不想让对话数据上云的用户;需要 AI 辅助处理复杂长期任务的专业人士。
开源协议:项目采用 MIT 协议,完全开源,允许自由使用和修改。
注意事项
项目团队在发布后坦诚地承认了 README 中的一些问题:AAAK 的 Token 节省示例使用了粗略估算而非实际分词器;「30倍无损压缩」的说法被夸大;在 LongMemEval 上 AAAK 模式(84.2%)确实低于原始模式(96.6%)。团队态度非常诚实,值得肯定。这种开放的态度也是开源社区的宝贵品质。
服务支持:如有兴趣不会搭建,可以联系微信:WRYD6166,开源项目搭建10-50元。













暂无评论内容