この記事の要約
A-MEMは、LLMエージェントに人間のような長期記憶を与えるフレームワークで、記憶の保存・検索・更新を自律的に行います。NeurIPS 2025に採択され被引用数は150を超え、ICLR 2026ではエージェントメモリ専門ワークショップが開催されるなど、この分野の急成長を牽引しています。Mem0・Letta等の実装フレームワークとの比較も含め、エージェントメモリの全体像を解説します。
1960年代のドイツ・ビーレフェルト。書斎に座った社会学者ニクラス・ルーマンは、白いカードを1枚取り出しました。
カードには、たった今読んだ本の一節が書かれています。しかし、彼はそれをそのまま箱に入れません。5分間、過去のカードを読み返し、関連するカードを探します。見つけたカードの番号を新しいカードに書き込み、互いに「リンク」させました。
この儀式を、彼は 40年間 続けました。蓄積されたカードは 90,000枚。執筆した本は 70冊、論文は 400本以上。彼はこのシステムを Zettelkasten(ツェッテルカステン) と呼び、「私の第二の脳」「会話相手」とまで表現しました。
2025年1月、Rutgers大学の若手研究者Wujiang Xuは、ある問題に直面していました。
「なぜLLMは、長い文章の真ん中を理解できないのか?」
実験結果は衝撃的でした。LLMは文書の 最初と最後は80%以上 理解するのに、真ん中は40%未満 しか理解できません。まるで、小説の序章と結末だけを読んで、中盤のクライマックスを見落とすように。
この「Lost in the Middle」問題を解決するために、Xuが辿り着いたのが、50年前のルーマンのカードでした。
論文のタイトルは 「A-MEM: Agentic Memory for LLM Agents」。結果は驚異的でした。複雑な推論タスクで 2倍の性能向上、同時に 90%以上のトークンコスト削減。
2025年12月、この研究はAIトップカンファレンス NeurIPS 2025 に採択されました。2026年3月時点で 被引用数は150を超え、ICLR 2026では「MemAgents」というエージェントメモリ専門のワークショップが開催されるまでに、この分野は急成長しています。
なぜ50年前の「紙のカード」が、最先端AIの記憶問題を解決したのか? 本記事では、A-MEM論文の全貌に加え、2026年のエージェントメモリエコシステムの最新動向を解説します。
本記事の表記について
関連記事: 本記事は「AIエージェント論文おすすめ11選」の詳細解説記事です。他の論文も合わせてご覧ください。
| 項目 | 内容 |
|---|---|
| トピック | A-MEM(Agentic Memory) |
| カテゴリ | 論文解説 |
| 難易度 | 中級〜上級 |
| 発表 | 2025年2月(arXiv) |
| 採択 | NeurIPS 2025(Poster) |
| 被引用数 | 150+(2026年3月時点) |
| arXiv | 2502.12110 |
次のセクションへ: なぜ最先端のLLMでさえ「記憶」できないのか? その答えは、人間の脳とは根本的に異なる設計にあります。
「長いコンテキスト=良い」——これはAI業界の常識でした。しかし、スタンフォード大学とワシントン大学の研究が、この常識を覆しました。
実験は単純でした。複数の文書から特定の事実を探すタスクで、情報の位置を変えて LLMの正解率を測定します。
結果は衝撃的でした:
| 情報の位置 | 正解率 |
|---|---|
| 文書の最初 | 80%以上 |
| 文書の最後 | 80%以上 |
| 文書の真ん中 | 40%未満 |
グラフは完璧な U字カーブ を描きました。LLMは、文章の「真ん中」に書かれた情報を見落とす傾向があります。精度低下は30%以上。これは、注意機構(attention)が「最初」と「最後」に偏っているためです。
現在のLLMには「コンテキストウィンドウ」という入力トークン数の制限があります。2026年現在、主要モデルのトークン数は以下の通りです:
| モデル | コンテキストウィンドウ |
|---|---|
| GPT-4.1 | 1Mトークン |
| Claude 4.5 | 200Kトークン |
| Gemini 2.5 Pro | 1Mトークン |
一見十分に見えます。しかし、「真ん中を忘れる」問題と合わせると、長いコンテキストは むしろ逆効果 になる可能性があります。コンテキストウィンドウが100万トークンに拡大しても、長期プロジェクトや継続的な会話では 重要な情報が真ん中に埋もれてしまう 問題は根本的に解決されていません。
RAG(検索拡張生成) は静的なドキュメントの検索には優れます。しかし、動的な「経験」の管理には不向きです。「先週の会議で決めたこと」のような文脈依存の情報に弱いという問題があります。
ベクトルDB + 埋め込み は類似度ベースの検索を提供します。しかし、時間的な文脈や重要度を考慮できません。記憶の「更新」「統合」「忘却」もできないため、人間の記憶とは異なります。
人間の記憶は単なる「保存」ではありません。以下の4つの機能を持ちます:
A-MEMは、これらの人間的な記憶機能をエージェントに実装するフレームワークです。
次のセクションへ: では、A-MEMは具体的にどうやって「人間的な記憶」を実現するのか? その答えは、ルーマンのZettelkastenにあります。
A-MEM(エージェンティックメモリ)概念図A-MEMの核心は、記憶の保存・検索・更新を自律的に行うアーキテクチャです。以下の3つのコンポーネントで構成されます。
記憶は構造化されたフォーマットで保存されます。
{
"memory_id": "mem_001",
"content": "顧客Aは価格より品質を重視する",
"context": "2024年12月の商談",
"importance": 0.85,
"connections": ["mem_002", "mem_005"],
"created_at": "2024-12-15",
"accessed_count": 12
}
各フィールドの役割:
エージェント自身が記憶を管理します。以下の4つの機能を自動で実行します。
1. 記憶の追加
新しい経験を既存の記憶と照合します。適切な場所に保存し、関連する記憶とリンクします。
2. 記憶の統合
類似した記憶を検出します。より抽象的な知識に統合することで、記憶を効率化します。
[記憶A] 顧客Aは納期を重視
[記憶B] 顧客Bは納期を重視
[記憶C] 顧客Cは納期を重視
↓ 統合
[新記憶] 中小企業顧客は一般的に納期を重視する傾向
3. 記憶の更新
矛盾する情報を検出します。最新の情報で既存の記憶を更新し、一貫性を保ちます。
4. 記憶の整理
使用頻度の低い記憶を削除または圧縮します。これにより、重要な情報だけを保持します。
従来のベクトル類似度検索に加え、以下の4つの要素を考慮した検索を実行します:
これにより、単なるキーワードマッチではなく、文脈に応じた適切な記憶を想起できます。
次のセクションへ: A-MEMの仕組みは分かりました。では、従来のRAGとは何が違うのか? 「図書館」と「記憶」の根本的な違いを見てみましょう。
従来のメモリ vs A-MEM比較| 観点 | 従来のRAG | A-MEM |
|---|---|---|
| データ対象 | 静的ドキュメント | 動的な経験・会話 |
| 更新方式 | バッチ処理 | リアルタイム |
| 検索基準 | ベクトル類似度のみ | 類似度 + 時間 + 重要度 + 文脈 |
| 記憶管理 | 人間が手動で管理 | エージェントが自律的に管理 |
| 統合・忘却 | 非対応 | 自動的に実行 |
| 適用場面 | 知識検索 | 文脈維持・パーソナライズ |
RAGとA-MEMの使い分け
両者は排他的ではなく、補完的な関係にあります。以下のように使い分けることで効果を最大化できます:
次のセクションへ: 理論は分かりました。では、A-MEMは実際にどれくらい性能が上がるのか? ベンチマーク結果を見てみましょう。
論文では、複数のベンチマークで検証が行われました。
| ベンチマーク | タスク内容 | A-MEM性能 | 従来手法比 |
|---|---|---|---|
| LongBench | 長文理解・質問応答 | 78.3% | +12.5% |
| PersonaChat | パーソナライズ対話 | 82.1% | +15.2% |
| MultiSession | 複数セッション対話 | 75.6% | +18.7% |
特にMultiSession(複数セッション対話)での+18.7%は注目すべき結果です。A-MEMの長期記憶能力が証明されています。
性能向上の理由は以下の3つです:
A-MEMの登場以降、エージェントメモリは急速に発展し、2026年には独立した技術領域として確立されています。ICLR 2026では 「MemAgents: Memory for LLM-Based Agentic Systems」 というワークショップが開催され(2026年4月27日、リオデジャネイロ)、強化学習・神経科学・LLMの研究者が集結する分野横断的な研究テーマとなっています。
エージェントメモリ・エコシステム比較図2025年12月に発表されたサーベイ論文「Memory in the Age of AI Agents」では、認知科学に基づくエージェントメモリの分類体系が提案されました:
| メモリ種別 | 機能 | 実装例 |
|---|---|---|
| 作業記憶 | 現在の会話コンテキスト管理 | プロンプト内の直近対話 |
| エピソード記憶 | 過去のインタラクション記録 | A-MEMのMemory Store |
| 意味記憶 | 蓄積された事実・ユーザー嗜好 | ベクトルDB、ナレッジグラフ |
| 手続き記憶 | システムプロンプト・意思決定ロジック | ツール定義、ワークフロー |
A-MEMは特に エピソード記憶と意味記憶の統合 に強みを持ち、記憶の自律的な統合・忘却によって、この2つを動的に管理します。
| フレームワーク | アーキテクチャ | GitHub Stars | 特徴 |
|---|---|---|---|
| A-MEM | Zettelkasten+LLMエージェント | — | 記憶の自律統合・リンク構造・学術発 |
| Mem0 | ベクトル+グラフ+KVストア | 48,000+ | プロダクション向け・26%精度向上・90%コスト削減 |
| Letta(MemGPT) | OS風階層メモリ | 15,000+ | LLM自身がメモリ管理・.afファイル形式 |
| Zep | 時間的ナレッジグラフ | — | 時系列推論+セマンティック検索 |
使い分けの指針:
エージェントメモリの評価基盤も整備が進んでいます:
次のセクションへ: エコシステムの全体像が分かったところで、A-MEMの具体的な実装方法を見てみましょう。
技術的な実装に興味がない方は読み飛ばしてOK
このセクションでは、A-MEMの基本的な実装方法を解説します。
やっていること: A-MEMの記憶管理システムを実装(記憶の追加・検索・重要度スコアリング)
<details> <summary>💻 実装コードを見る(スキップ可)</summary>from dataclasses import dataclass
from datetime import datetime
from typing import List, Dict
import numpy as np
@dataclass
class Memory:
id: str
content: str
context: str
importance: float
connections: List[str]
created_at: datetime
accessed_count: int = 0
embedding: np.ndarray = None
class AgenticMemory:
def __init__(self, llm_client):
self.memories: Dict[str, Memory] = {}
self.llm = llm_client
def add_memory(self, content: str, context: str):
# Evaluate importance using LLM
importance = self._evaluate_importance(content)
# Find related memories
related = self._find_related_memories(content)
# Create memory
memory = Memory(
id=f"mem_{len(self.memories)}",
content=content,
context=context,
importance=importance,
connections=[m.id for m in related],
created_at=datetime.now()
)
self.memories[memory.id] = memory
# Consolidate if needed
self._consolidate_if_needed(memory)
def retrieve(self, query: str, k: int = 5) -> List[Memory]:
# Context-aware memory retrieval
candidates = []
for memory in self.memories.values():
score = self._calculate_relevance(query, memory)
candidates.append((memory, score))
# Sort by score and return top k
candidates.sort(key=lambda x: x[1], reverse=True)
return [m for m, _ in candidates[:k]]
def _calculate_relevance(self, query: str, memory: Memory) -> float:
# Calculate relevance score
# similarity + recency + importance + access frequency
similarity = self._cosine_similarity(query, memory.content)
recency = self._recency_score(memory.created_at)
return (
0.4 * similarity +
0.2 * recency +
0.2 * memory.importance +
0.2 * min(memory.accessed_count / 10, 1.0)
)
シナリオ: カスタマーサポートエージェント
[過去の記憶]
- 顧客Aは技術に詳しく、詳細な説明を好む
- 顧客Aは過去にプランBで不満を持っていた
[現在の質問]
「新しいプランを検討しています」
[A-MEMによる応答]
「技術仕様を詳しくご説明いたします。前回プランBでご指摘いただいた
同時接続数の制限は、新プランCでは解消されています...」
シナリオ: プロジェクト管理支援エージェント
このエージェントは以下の3つの機能を持ちます:
[記憶の統合例]
プロジェクトA: 要件定義フェーズの長期化で遅延
プロジェクトB: 要件定義の曖昧さで手戻り発生
プロジェクトC: 要件定義の承認プロセスで遅延
↓
[統合された知見]
「要件定義フェーズは遅延リスクが高い。
早期に明確化と承認プロセスの設計が重要」
シナリオ: 長期DX支援プロジェクト
長期プロジェクトでの活用例です:
RAG(検索拡張生成) は静的なドキュメントの検索に特化しています。事前に用意された知識ベースから情報を取得します。
A-MEM は動的な経験の管理を行います。エージェントが自律的に記憶を整理・更新・検索します。
両者は排他的ではなく、RAGで知識を、A-MEMで経験を管理する併用が効果的です。
A-MEMは以下の3つのタスクで特に効果を発揮します:
はい、GitHubでオープンソース実装が公開されています。
公式実装:
6つの基盤モデル(GPT-4、Claude等)で動作確認済みです。
2026年のメモリフレームワーク選択肢:
記憶の統合・評価にLLM呼び出しが必要なため、追加のAPIコストが発生します。
ただし、Mem0の研究では 90%のトークン削減 が報告されています。A-MEMも同様に、コンテキストウィンドウの効率的な活用により、長期的にはコスト削減になります。必要な記憶だけを取得することで、100万トークンのコンテキストを埋める必要がなくなるためです。
はい、可能です。両者は排他的ではなく、補完的な関係にあります。
効果的な併用方法:
この組み合わせにより、知識と経験の両方を活用できます。
2026年4月27日にリオデジャネイロで開催されるICLR 2026の公式ワークショップです。エージェントメモリに特化した初の主要学会ワークショップとして、強化学習・神経科学・LLMの研究者が集結します。エピソード記憶、意味記憶、作業記憶、パラメトリック知識、ナレッジグラフなど、幅広いトピックが議論されます。
A-MEMの設計は、ドイツの社会学者ニクラス・ルーマン(1927-1998)の Zettelkasten(ツェッテルカステン) から着想を得ています。
| 項目 | ルーマンの実績 |
|---|---|
| カード枚数 | 90,000枚 |
| 著書 | 70冊 |
| 論文 | 400本以上 |
| 彼の言葉 | 「私の第二の脳」「会話相手」 |
| 特徴 | カード同士を「リンク」し、思考を進化させた |
ルーマンは、自分のメモ帳を「独立した思考パートナー」と呼び、「予想外のアイデアを引き出してくれる」と語っていました。
"Over time, it evolved into what Luhmann considered to be an independent thought partner in his research, capable of carrying on a conversation with him and eliciting ideas which genuinely surprised him." (時が経つにつれ、このシステムは彼にとって独立した思考パートナーとなり、対話を通じて彼を驚かせるアイデアを引き出すようになった)
A-MEMも同様に、単なる「保存→検索」ではなく、記憶同士が「進化」する設計になっています。
A-MEMの開発を主導したのは、Rutgers大学のWujiang Xuです。
Wujiang Xu(筆頭著者):
Yongfeng Zhang(指導教員):
Xuは、Meta、Tencent、ByteDanceといった産業界での経験を持ちながら、学術界でLLMエージェントの長期記憶問題に取り組みました。この研究は、2025年12月に NeurIPS 2025(機械学習のトップカンファレンス)に採択され、Poster発表として注目を集めました。
NeurIPS 2025採択と影響:
NeurIPSは、機械学習分野で最も権威あるカンファレンスの1つです。採択率は約20-25%と非常に厳しく、採択されること自体が研究の質の高さを証明しています。A-MEMは2026年3月時点で 被引用数150超 を記録し、AppleのPodcastでNeurIPS 2025の論文解説エピソードとしても取り上げられました。さらに、ICLR 2026では 「MemAgents」ワークショップ が開催されるなど、A-MEMが切り拓いたエージェントメモリ分野は学術界の主要テーマに成長しています。
A-MEMは、記憶の動的なリンク構造で以下の3つの問題を解決しています:
1. Lost in the Middle(真ん中を忘れる)問題
スタンフォード大学とワシントン大学の研究で判明したU字カーブ問題です。A-MEMは、重要な情報を 記憶として抽出 することで、コンテキストの位置依存性を回避します。
2. コンテキストの爆発
長期プロジェクトでは、過去の情報が膨大になります。A-MEMは、記憶の統合と忘却 により、必要な情報だけを保持します。
3. 文脈の喪失
従来のRAGは「似た文章」を探すだけで、「誰が」「いつ」「なぜ」といった文脈を保持できません。A-MEMは、エピソード記憶と意味記憶 を区別して保存します。
RAGとA-MEMの違いを一言で表すと:
RAG: 「What do I know?(何を知っているか?)」 A-MEM: 「What do I remember about you?(あなたについて何を覚えているか?)」
RAGは賢い司書のようなもの。必要な情報を取ってくるが、「誰が何を話したか」は覚えていません。A-MEMは、会話の文脈を「記憶」として保持し、進化させていきます。
A-MEMは、LLMエージェントに人間のような「記憶」を与えるフレームワークです。
本記事の内容を実践するための3つのアクションです:
本記事はネクサフローのAI研究シリーズの一部です。
この記事の著者

代表取締役
早稲田大学卒業後、ソフトバンク株式会社にてAI活用やCEO直下案件のプロジェクトマネージャーに従事。その後、不動産スタートアップPit in株式会社の創業、他スタートアップでの業務改善・データ活用を経験後、2023年10月、株式会社ネクサフローを創業し代表取締役CEO就任。
次に読む

静的なAIエージェントから自己進化型システムへ。本論文は「システム入力」「エージェントシステム」「環境」「最適化器」の4コンポーネントで構成される統一フレームワークを提案し、継続的に改善するAIエージェントの技術体系を包括的に解説。

2022年、26歳の研究者Jason WeiがGoogle Brainで発見したChain-of-Thought(CoT)は、AI開発の常識を覆しました。PaLM 540Bでも17.9%だった算数問題の精度が、たった8個の例題追加で58.1%に跳ね上がる——数千億円の計算資源より、プロンプトの工夫が効果的だったのです。2026年現在、引用14,000件超。o1→o3/o4-mini、DeepSeek-R1とCoTは「プロンプト技法」から「モデルの内蔵能力」へ進化し、忠実性(Faithfulness)論争も活発化。スケール戦争→プロンプト戦争→推論スケーリング戦争へ、AI研究の転換点を追います。

CMU・NYU発の新概念Epiplexityを解説。シャノンエントロピーの限界を超え、計算制約下のAI学習可能性を定量化。データ拡張・カリキュラム学習・LLM汎用能力の3つのパラドックスを統一的に解決する。