BrainLoom
Shares tags: ai
LLC Memory Server est un serveur MCP local et portable pour la mémoire LLM, conçu pour stocker, récupérer et gérer des faits personnels auprès de n'importe quel fournisseur.
<a href="https://www.stork.ai/en/llc-memory-server" target="_blank" rel="noopener noreferrer"><img src="https://www.stork.ai/api/badge/llc-memory-server?style=dark" alt="LLC Memory Server - Featured on Stork.ai" height="36" /></a>
[](https://www.stork.ai/en/llc-memory-server)
overview
LLC Memory Server est une solution de mémoire IA spécifique développée par LobeHub qui permet aux utilisateurs d'assistants IA et de LLM de stocker, récupérer et gérer des faits personnels auprès de n'importe quel fournisseur. Il stocke les entités et les relations des conversations de Claude dans un graphe de connaissances local et persistant. Cet outil, principalement exemplifié par le « Memory Server MCP » et le « Local Memory MCP Server » au sein de l'écosystème LobeHub, fonctionne comme un système de stockage de mémoire local et persistant pour les agents IA. Il permet aux modèles IA de sauvegarder, rappeler, supprimer et lister des souvenirs, en maintenant le contexte à travers les conversations et les sessions, résolvant ainsi le « problème du poisson rouge » où les assistants IA perdent souvent le contexte entre les interactions. Le serveur prend en charge le chiffrement AES-256-GCM optionnel au repos, configurable via la variable d'environnement MEMORY_MCP_PASSPHRASE, garantissant la confidentialité des données et le contrôle local.
quick facts
| Attribut | Valeur |
|---|---|
| Développeur | LobeHub |
| Modèle Économique | Freemium |
| Tarification | Freemium |
| Plateformes | API (auto-hébergé) |
| API Disponible | Oui |
| Intégrations | Claude, autres fournisseurs LLM via MCP |
| Standard de Chiffrement | AES-256-GCM |
| Type de Framework | Open-source |
| Étoiles GitHub | 73,800+ (plateforme LobeHub) |
features
Le LLC Memory Server offre un ensemble robuste de fonctionnalités conçues pour améliorer les capacités de mémoire des agents IA et des LLM, en se concentrant sur la persistance, la confidentialité et la portabilité. Son architecture prend en charge la gestion et la récupération avancées de la mémoire, rendant les interactions IA plus cohérentes et informées.
use cases
LLC Memory Server est principalement conçu pour les utilisateurs d'assistants IA et de LLM qui nécessitent une mémoire persistante, portable et privée pour leurs interactions. Il répond au défi de maintenir le contexte à travers les sessions et les différents fournisseurs d'IA, le rendant adapté à une gamme d'applications où la mémoire à long terme est critique.
pricing
LLC Memory Server fonctionne sur un modèle freemium. La fonctionnalité principale du serveur est disponible en tant que solution open-source, auto-hébergée, permettant aux utilisateurs de la déployer et de la gérer sur leur propre infrastructure sans coût direct. Ce modèle met l'accent sur le contrôle local et la confidentialité, car toutes les données restent sur la machine de l'utilisateur. Pour les instances auto-hébergées, les limites de débit de l'API sont configurables par l'utilisateur, offrant une flexibilité pour diverses échelles opérationnelles. Bien que l'offre principale soit open-source et gratuite, de futures fonctionnalités premium potentielles ou des services cloud gérés au sein de l'écosystème LobeHub plus large pourraient exister, bien que non explicitement détaillées pour le serveur de mémoire lui-même.
competitors
Le LLC Memory Server, en particulier au sein de l'écosystème LobeHub, se positionne comme une solution flexible, locale par défaut et compatible MCP pour la mémoire IA persistante. Il est en concurrence avec plusieurs autres plateformes qui visent à résoudre le problème de la mémoire IA, chacune avec des différenciateurs distincts.
LLC Memory Server est une solution de mémoire IA spécifique développée par LobeHub qui permet aux utilisateurs d'assistants IA et de LLM de stocker, récupérer et gérer des faits personnels auprès de n'importe quel fournisseur. Il stocke les entités et les relations des conversations de Claude dans un graphe de connaissances local et persistant.
Oui, LLC Memory Server fonctionne sur un modèle freemium. Sa fonctionnalité principale est disponible en tant que solution open-source, auto-hébergée, ce qui signifie que les utilisateurs peuvent la déployer et la gérer sans coût direct. Les limites de débit de l'API pour les instances auto-hébergées sont configurables par l'utilisateur.
Les principales fonctionnalités incluent le stockage des entités et des relations des conversations de Claude dans un graphe de connaissances local, le fonctionnement en tant que serveur MCP portable pour la mémoire LLM, la possibilité de stocker, récupérer, supprimer et lister des souvenirs avec des étiquettes et des horodatages, le support des recherches floues et basées sur le contenu, l'organisation des graphes de mémoire, et l'offre d'un chiffrement AES-256-GCM optionnel au repos. Il est construit sur un framework open-source et fournit une API.
LLC Memory Server est idéal pour les utilisateurs d'assistants IA et de LLM qui nécessitent une mémoire persistante, portable et privée pour leurs interactions. Cela inclut les utilisateurs d'assistants IA, les développeurs, les individus soucieux de la confidentialité, et ceux qui cherchent à améliorer les flux de travail IA ou à gérer le contexte de projet et de code avec des capacités de mémoire à long terme.
LLC Memory Server se différencie par son approche locale par défaut, open-source et compatible MCP pour la mémoire IA persistante. Comparé à Supermemory MCP Server, il se concentre sur un graphe de connaissances local pour Claude. Face à Basic Memory, il offre des fonctionnalités similaires mais avec des formats de stockage de données différents. Contrairement à Zep, il fournit une solution de mémoire plus ciblée plutôt qu'une plateforme complète d'ingénierie de contexte. Comparé à Persistent AI Memory, LLC Memory Server met l'accent sur son chiffrement et son intégration à l'écosystème LobeHub, tandis que Persistent AI Memory met en avant le stockage SQLite et les capacités de recherche sémantique.