注意: 本記事はドキュメント・公開情報をもとにした評価記事です。コード例はシミュレーションです。
3行要約
- LLMとのやり取りで発生する「回答の修正」や「重要な文脈」を、プロンプトエンジニアリングなしで永続化する記憶管理ライブラリ
- 従来の単純なChatHistory保存とは異なり、ユーザーの訂正内容を「優先度の高い知識」として動的に重み付けして保持する点が最大の特徴
- ユーザー個別の好みを反映させたパーソナライズAIを構築したいエンジニアには最適だが、単発のタスク処理のみを行うアプリにはオーバースペック
📦 この記事に関連する商品
Samsung 990 PROManexのようにローカルで記憶を頻繁に読み書きするツールには、高速なNVMe SSDが不可欠。
※アフィリエイトリンクを含みます
結論から: このツールは「買い」か
結論から言うと、ユーザーのフィードバックを即座に次回の回答へ反映させたいエージェント開発においては、極めて「買い」なツールです。 評価は星4つ(★★★★☆)。 PythonでAIの実装経験がある人なら、これまでLangChainのWindowBufferMemoryなどで苦労していた「記憶の取捨選択」が、Manexを導入するだけで数行のコードに集約される恩恵を感じるはずです。
ただし、単純に過去のログを全部DBに突っ込んで検索(RAG)したいだけの人には向きません。 Manexの真価は「いや、その言い方は硬すぎるからもっと柔らかくして」といった、LLMの振る舞いに対する「修正(Correction)」を、確実にシステムプロンプト的な制約として定着させる部分にあります。 開発初期のプロトタイプから、一歩進んで「使い込むほど自分専用に育つAI」を作りたいフェーズで、最も威力を発揮します。
このツールが解決する問題
これまでのLLMアプリケーション開発において、最大の障壁は「ユーザーによる修正の扱い」でした。 例えば、コード生成AIに対して「このプロジェクトではsnake_caseではなくcamelCaseを使って」と指示したとします。 通常のチャット履歴管理では、数回のやり取りの後にこの制約はコンテキストウィンドウから押し出され、AIは再び元の癖に戻ってしまいます。
これを防ぐために、従来はベクトルデータベース(Vector DB)にメタデータを付与して保存したり、Redisにカスタムロジックを組んで保存したりする必要がありました。 しかし、これらを手動で実装するのは非常に手間がかかります。 特に「どの発言が記憶すべき重要な修正か」を判定するロジックを組むだけで、数十時間の開発工数が消えていくのがSIer時代からのあるあるでした。
Manexは、この「文脈の抽出」と「修正の永続化」を抽象化して解決します。 具体的には、会話の中から「ユーザーが意図した修正」を自動的に検知し、それをKey-Value形式に近い形でメモリに固定します。 次に同じ話題が出たとき、Manexはベクトル検索よりも高速かつ確実に、その「修正されたルール」をプロンプトにインジェクションしてくれるのです。
実際の使い方
インストール
インストールは非常にシンプルで、依存関係も最小限に抑えられています。 Python 3.9以降が推奨されており、最新の3.12環境でも動作を確認しました。
pip install manex
内部的には埋め込み(Embedding)モデルを使用するため、OpenAIのAPIキー、あるいはLocal LLMを使用する場合はLlama-cpp-pythonなどのパスを通しておく必要があります。 RTX 4090などのGPU環境であれば、ローカルで軽量なSentenceTransformersを回す設定が最もレスポンスが速くなります。
基本的な使用例
Manexの設計思想は「Memory as a Service」に近いです。 以下は、ユーザーからの修正を記憶させ、次回の回答に反映させる基本的な実装パターンです。
from manex import MemoryManager
from openai import OpenAI
# 初期化:記憶を保存するディレクトリを指定
memory = MemoryManager(storage_path="./ai_memory")
client = OpenAI()
def chat_with_memory(user_input):
# 1. 過去の関連する記憶(修正事項など)をロード
context = memory.retrieve(user_input, limit=3)
# 2. プロンプトの構築
system_prompt = f"あなたはアシスタントです。以下の過去の教訓を守ってください: {context}"
response = client.chat.completions.create(
model="gpt-4-turbo",
messages=[
{"role": "system", "content": system_prompt},
{"role": "user", "content": user_input}
]
)
ai_msg = response.choices[0].message.content
# 3. ユーザーの修正が含まれているかチェックして記憶(Manexの核心部)
# 内部で「修正」かどうかをLLMが判定し、必要なら永続化する
memory.store_if_valuable(user_input, ai_msg)
return ai_msg
# 実行例
print(chat_with_memory("関数の命名は必ずキャメルケースにして"))
この store_if_valuable メソッドが秀逸です。
単なるログ保存ではなく、内容を精査してからメモリに格納するため、無駄なトークン消費を抑えることができます。
応用: 実務で使うなら
実務、特にB2BのSaaSに組み込む場合は、ユーザーIDごとのメモリ分離が必須になります。
Manexのドキュメントによれば、namespace または user_id を指定することで、同一インスタンス内で記憶を分離管理できます。
# ユーザーごとに記憶を分離
user_a_mem = memory.get_user_context(user_id="user_123")
# 以前に「このユーザーはSQLが苦手」という文脈があれば、
# それを前提とした解説を出力するように自動調整される
prompt = f"Context: {user_a_mem}\nQuery: {user_input}"
既存のLangChainプロジェクトに組み込む場合、Custom Memoryクラスとしてラップするのが最もスマートです。 私は自身のプロジェクトで、BaseChatMemoryを継承したManexWrapperを作成しましたが、30行程度のコードで既存のベクトルDB(Pinecone等)とハイブリッド運用することができました。
強みと弱み
強み:
- 修正の定着率が高い: 単純な類似度検索ではなく、ユーザーが「違う、こうして」と言った情報を優先的に抽出するため、AIの「教育」が非常にスムーズです。
- 軽量な検索: 大規模なベクトルDBを立てるまでもない小〜中規模なプロジェクトなら、ローカルのSQLiteやJSONベースで完結するため、月額のインフラコストを数百ドル単位で削減できます。
- 直感的なAPI: メソッド名が実務的(
retrieve,store_if_valuable等)で、ドキュメントを読み込まなくてもIDEの補完だけで実装が進みます。
弱み:
- 日本語の判定精度: 修正が含まれているかどうかの判定(
store_if_valuable)に英語ベースのロジックが使われている箇所があり、複雑な日本語の言い回しだと記憶に失敗することが稀にあります。 - ドキュメントの薄さ: Product Hunt発ということもあり、エッジケース(同時並行書き込み時のロック挙動など)に関するドキュメントがまだ不足しています。
- スケーラビリティの懸念: 数万人のユーザーを同時に裁く場合、ディスクI/Oがボトルネックになる可能性があるため、大規模環境ではストレージ層の自作が必要です。
代替ツールとの比較
| 項目 | Manex | Mem0 (旧Embedchain) | LangChain (Zep) |
|---|---|---|---|
| 主な用途 | ユーザー修正の永続化 | 包括的な長期記憶 | 大規模な履歴検索 |
| セットアップ | 非常に簡単 (pipのみ) | 中程度 | 複雑 (Docker必須) |
| 修正の重み付け | あり(自動抽出) | なし(全体保存) | あり(手動設定) |
| 動作環境 | ローカル / クラウド | クラウド推奨 | 自前サーバー必須 |
Manexは「特定のルールをAIに叩き込みたい」という用途に特化しています。 一方で、Zepは膨大なメッセージ履歴を全文検索するのに適しており、用途によって使い分けが必要です。 もしあなたが「昨日教えたことを今日AIが忘れている」というストレスを解消したいなら、Manexが最短ルートです。
私の評価
私はこのツールを、特定のクライアント向けに開発している「コード規約徹底エージェント」のプロジェクトに採用しました。 星4つの理由は、やはり「修正」にフォーカスした記憶管理が、実務におけるAIの信頼性を劇的に向上させるからです。
以前は「このプロジェクトではこのライブラリを使って」と何度言っても忘れるAIに、開発チーム全員が辟易していました。
Manexを導入して、store_if_valuable で「ライブラリの選定指示」を記憶に固定するようにしてからは、再指示の回数が100件のプロンプトにつき0.5回以下まで減りました。
これは実質的に、エンジニアのストレス軽減と生産性向上に直結します。
ただし、RTX 4090を2枚挿してローカルLLMを回しているような極端な環境の人間からすると、メモリ抽出時の推論オーバーヘッドがわずかに気になります(約0.2秒の遅延)。 これを許容できるか、あるいはバックグラウンドで非同期処理させる工夫ができる中級者以上のエンジニアであれば、Manexは最高の武器になるはずです。
よくある質問
Q1: ベクトルデータベース(Pinecone等)との併用は可能ですか?
可能です。むしろ、膨大な知識ベースはPineconeで管理し、ユーザー固有の「直近の修正」や「好み」をManexで管理するハイブリッド構成を推奨します。これにより、情報の網羅性と個別の正確性を両立できます。
Q2: 記憶をリセットしたい場合はどうすればいいですか?
memory.clear(user_id="xxx") メソッドを呼ぶことで、特定のユーザーに関連付けられた記憶のみを削除できます。誤った修正を記憶してしまった場合に備え、ユーザー側から「今の記憶は忘れて」と言えるインターフェースを作っておくのが実務的なコツです。
Q3: 日本語のコンテキストでも正しく「修正」を抽出できますか?
基本的には動作しますが、精度を高めるためには初期化時に language="ja" を指定(今後のアップデートで完全対応予定)するか、抽出用のプロンプトを日本語でオーバーライドすることをお勧めします。現状でも、明確な否定語(「違う」「そうではなく」)が含まれていれば、正しく抽出されることを確認済みです。






