OpenMemory MCP

OpenMemory MCP

OpenMemory MCP 服务器是一个以隐私为重的本地内存服务器,它在支持模型上下文协议的 AI 工具中提供统一的内存基础设施。通过提供持久的集中存储层来保存上下文和偏好,OpenMemory 使代理和助手能够在应用程序之间无缝记住和共享重要信息,同时确保用户的数据拥有权和安全性。

Author: mem0.ai


查看协议

什么是 OpenMemory MCP?

OpenMemory MCP 是一个开源、以本地为先的内存服务器,基于模型上下文协议构建。它规范了 AI 应用如何存储、访问和管理持久内存,允许多个 AI 客户端共享上下文和知识,而无需重复解释。所有数据都保留在您的计算机上,保证隐私和数据主权。

如何配置

  1. GitHub 克隆或下载 OpenMemory 仓库。
  2. 按照文档中的安装步骤设置依赖项,并在您的机器上本地启动 OpenMemory MCP 服务器。
  3. 配置您的 AI 工具(如 Cursor、Claude Desktop、Windsurf 或 Cline)以连接到 OpenMemory 服务器暴露的 MCP 端点。
  4. 可选地,访问统一的内存 UI 仪表板,查看和管理您的存储记忆,并控制客户端访问。

如何使用

  • 从任何支持的 AI 工具中通过调用与内存相关的操作,将重要项目细节、偏好或片段存储在内存中。
  • 在其他工具中自动或应请求检索相关上下文,消除重复说明信息的需要。
  • 使用 Memory UI 仪表板随时查看、添加或删除存储的记忆,并管理哪些客户端可以访问您的内存层。
  • 利用内置的 MCP 工具,通过协议端点以编程方式添加、搜索、列出或删除记忆。

关键特性

  • 私人本地存储:所有数据仅存储在您的设备上。没有云同步或外部存储,确保最大隐私和数据控制。
  • 跨客户端记忆共享:通过标准化的 MCP 接口,无缝传输多个 AI 应用之间的上下文和偏好。
  • 统一内存仪表板:从一个中央的、用户友好的 UI 管理、审计和策划您所有的存储信息。
  • 高效的令牌和低延迟:与远程或专有内存解决方案相比,极大减少令牌使用和延迟。
  • 开源且可扩展:自由使用和定制以适应您的工作流程,并且可以通过集成新的 MCP 工具轻松扩展。

使用场景

  • 一致的项目交接:在使用不同 AI 工具进行研究、代码编辑和调试会话时,携带项目上下文。
  • 全球用户偏好:在一个工具中设置偏好或风格指南,其他工具也可以自动使用。
  • 知识持久性:保存重要的项目笔记或知识,并可以从任何兼容客户端立即检索,避免重复设置上下文。
  • 团队协作(优先本地):在共享设备上,允许多个用户或代理安全访问和更新上下文。
  • 个性化 AI 助理:为您的代理提供真正反映您工作流程和需求的内存,同时保持数据隐私。

常见问题

问1:我的任何数据会发送到云端或第三方吗?
不,所有记忆都存储和处理在您自己的机器上。默认情况下没有云同步或外部存储,确保您的隐私。

问2:我可以与哪些客户端/应用程序一起使用 OpenMemory MCP?
任何支持模型上下文协议的 AI 工具都可以连接到 OpenMemory MCP,包括 Cursor、Claude Desktop、Windsurf 和 Cline。

问3:如果我想删除所有存储的记忆,会发生什么?
您可以通过调用 delete_all_memories 工具立即清除所有数据,无论是在客户端还是直接从 Memory UI。

问4:OpenMemory MCP 是开源的吗?我可以贡献吗?
是的,OpenMemory 是完全开源的。非常欢迎贡献——只需参考仓库中的 CONTRIBUTING.md 文件。

问5:我如何控制哪些工具可以访问我的内存?
您可以通过内置仪表板管理客户端访问权限,按客户端授予或撤销内存访问。