BrainLoom
Shares tags: ai
LLC Memory Server は、Claude の会話からエンティティと関係を永続的なローカル知識グラフに保存する特定の MCP メモリサーバーです。
<a href="https://www.stork.ai/en/llc-memory-server" target="_blank" rel="noopener noreferrer"><img src="https://www.stork.ai/api/badge/llc-memory-server?style=dark" alt="LLC Memory Server - Featured on Stork.ai" height="36" /></a>
[](https://www.stork.ai/en/llc-memory-server)
overview
LLC Memory Server は、LobeHub が開発した特定の MCP メモリサーバーツールであり、AI アシスタントおよび LLM のユーザーが、あらゆるプロバイダー間で個人の事実を保存、取得、管理できるようにします。Claude の会話からエンティティと関係を永続的なローカル知識グラフに保存します。Memory Server MCP (Model Context Protocol) とも呼ばれるこのコンポーネントは、LLM がセッションや異なるモデル間でコンテキストを失うという課題に対処するように設計されています。AI エージェントは、ユニークなキーを使用してメモリを保存、呼び出し、削除、リスト化でき、タグ、タイムスタンプ、有効期限設定をサポートしています。このサーバーは、保存されたメモリ全体でファジー検索およびコンテンツベース検索を容易にし、リンクを通じてメモリ間の関係を整理できるようにすることで、AI インタラクションの永続的なコンテキストを保証します。
quick facts
| 属性 | 値 |
|---|---|
| 開発者 | LobeHub |
| ビジネスモデル | Freemium |
| 価格 | Freemium、月額 $9.9 から |
| プラットフォーム | API, Web (LobeHub 経由) |
| API 利用可能 | はい |
| 統合 | 70 以上の LLM プロバイダー (例: OpenAI, Anthropic Claude, Gemini, DeepSeek, Mistral, Ollama) |
| コンプライアンス | プライバシーポリシーは https://lobehub.com/privacy-policy で利用可能 |
features
LLC Memory Server は、LobeHub プラットフォームの一部として、AI エージェントのメモリを管理するための堅牢な機能セットを提供します。そのオープンソースフレームワークは、透明性と拡張性を保証し、幅広い AI モデルとマルチモーダル機能をサポートします。サーバーの設計はデータプライバシーと制御を優先し、保存された情報に対して高度な暗号化オプションを提供します。
use cases
LLC Memory Server は、AI インタラクションのために永続的でポータブルかつプライベートなメモリソリューションを必要とする個人やチーム向けに設計されています。その機能は、さまざまなアプリケーションで AI アシスタントおよび LLM の長期的な有効性とパーソナライゼーションを向上させるのに特に役立ちます。
pricing
LLC Memory Server は、さまざまな使用ニーズに対応するように設計された複数のサブスクリプションティアを持つフリーミアムモデルで運営されている LobeHub プラットフォームの一部です。価格は月間クレジット、ファイルストレージ、ベクターストレージのエントリを中心に構成されており、上位ティアでは容量の増加と優先サポートが提供されます。
competitors
LLC Memory Server は、LobeHub の Model Context Protocol (MCP) のコンポーネントとして、AI メモリおよびコンテキスト管理ソリューションの競争環境の中で位置付けられています。協調的なエージェントチーム、透過的なメモリ、および広範なエコシステムを強調しています。いくつかのツールが LLM の永続メモリに対応していますが、LLC Memory Server は LobeHub プラットフォームの広範な機能とオープンソースの性質との統合を通じて差別化されています。
LLC Memory Server は、LobeHub が開発した特定の MCP メモリサーバーツールであり、AI アシスタントおよび LLM のユーザーが、あらゆるプロバイダー間で個人の事実を保存、取得、管理できるようにします。Claude の会話からエンティティと関係を永続的なローカル知識グラフに保存します。
LLC Memory Server は、フリーミアムモデルで運営されている LobeHub プラットフォームの一部です。無料プランが利用可能で、月間 500,000 クレジットと 10.0 MB のファイルストレージを提供します。有料プランはスタータープランで月額 $9.9 から始まり、容量の増加と追加機能が提供されます。
主な機能には、オープンソースフレームワーク、70 以上の AI モデルのサポート、マルチモーダル機能、プラグインシステム、利用可能な API が含まれます。オプションの AES-256-GCM 保存時暗号化を提供し、タグ、タイムスタンプ、有効期限付きでメモリの保存、呼び出し、削除、リスト化を可能にします。このサーバーは、ファジー検索およびコンテンツベース検索、メモリグラフの整理もサポートしています。
LLC Memory Server は、AI アシスタントおよび LLM のユーザーで、インタラクションのために永続的でポータブルかつプライベートなメモリを必要とする方を対象としています。これには、AI エージェントを構築する開発者、マルチエージェントコラボレーションに従事するチーム、および自身のデータのローカル制御を維持しながらパーソナライズされた AI エクスペリエンスを求める個人が含まれます。
LLC Memory Server は、LobeHub MCP コンポーネントとして、LLM メモリ用のローカルでポータブルな知識グラフに焦点を当てています。要約とベクトル検索を備えた AI エージェントのための一時的なコンテキストグラフを構築する Zep のようなより広範なプラットフォームとは異なります。RLabs-Inc/memory と比較すると、どちらも MCP メモリサーバーですが、LLC Memory Server はローカル知識グラフを使用するのに対し、RLabs-Inc/memory はローカルのマークダウンデータベースを使用します。一般的な知識グラフ構築のためにグラフデータベースを活用する Neo4j LLM Knowledge Graph Builder とは異なり、LLC Memory Server は LobeHub エコシステム内の会話コンテキストのための特定のコンポーネントです。