この記事の要約
A-MEM は、LLM エージェントが過去のやり取りを単に保存するのではなく、ノート化し、相互リンクし、後から更新できるようにする記憶システムです。論文で提案された Note Construction / Link Generation / Memory Evolution を中心に、RAG との違いと実装時の論点を整理します。
長い会話や複数セッションをまたぐ AI エージェントでは、単にコンテキストウィンドウを広げるだけでは足りません。必要なのは、過去のやり取りを「あとで検索できるログ」として残すことではなく、将来の判断に使える形へ再構成することです。
A-MEM は、そのための設計を提案した論文です。Zettelkasten の発想を取り入れ、各やり取りをノート化し、関連する記憶どうしをリンクし、新しい経験が入るたびに古い記憶の表現まで更新します。
本記事では、引用数や「最新エコシステム」のランキングではなく、A-MEM 論文そのものが何を提案し、どこが実務で再利用しやすいのかに絞って整理します。
本記事の前提
関連記事: 本記事は「AIエージェント論文おすすめ11選」の詳細解説記事です。他の論文も合わせてご覧ください。
| 項目 | 内容 |
|---|---|
| トピック | A-MEM(Agentic Memory) |
| カテゴリ | 論文解説 |
| 公開 | 2025年2月(arXiv) |
| 会議 | NeurIPS 2025 |
| 評価設定 | LoCoMo を使った長期対話メモリ評価 |
| 論文 | 2502.12110 |
| 評価コード | WujiangXu/AgenticMemory |
| システム実装 | agiresearch/A-mem |
長いコンテキストを扱えるモデルが増えても、それだけで長期対話の問題が解けるわけではありません。A-MEM 論文が立脚しているのは、エージェントは過去のやり取りをそのまま抱え込むのではなく、再利用しやすい単位に整理し直す必要があるという考え方です。
背景としてよく参照されるのが、長い入力の中ほどにある情報が扱いにくくなる Lost in the Middle 問題です。モデルが長文を読めても、
までは自動では解けません。
論文の問題設定は明確です。従来のメモリ層は、
を開発者が先に決め打ちしがちでした。
このやり方は、FAQ 検索や会話ログ保管には有効です。ただし、長期プロジェクトの意思決定履歴、ユーザー嗜好、複数セッションをまたぐ関係性のように、あとから意味づけが変わる情報には弱いです。
A-MEM 的な記憶設計が効きやすいのは、たとえば次のような場面です。
逆に、製品マニュアルや法令のような正本が別にある静的知識は、まず RAG で扱う方が自然です。
次のセクションへ: A-MEM の特徴は、「記憶を保存する」ことではなく「記憶をノート化し、リンクし、進化させる」ことにあります。
A-MEM(エージェンティックメモリ)概念図論文の中核は、記憶を単なるチャットログではなく 構造化ノートの集合 として扱うことです。A-MEM では、新しいやり取りが入るたびに次の 3 段階が走ります。
論文では、各インタラクションを原文のまま保存するだけでなく、LLM を使って複数の属性を持つノートへ変換します。主に含まれるのは次の要素です。
概念的には、以下のような形です。
{
"content": "顧客Aは価格よりも導入スピードを重視している",
"timestamp": "2026-04-15T09:30:00Z",
"keywords": ["顧客A", "導入スピード"],
"tags": ["商談", "優先条件"],
"context": "初回提案後のフォローアップ会話で判明した意思決定条件",
"links": ["mem_021", "mem_087"]
}
重要なのは、ノートが raw log より情報量の少ない要約ではなく、再利用しやすい意味単位へ変換された表現である点です。
次に A-MEM は、新しいノートと既存ノートのつながりを作ります。論文ではまず埋め込みで近い候補を取り出し、そのうえで LLM に
を見させています。
この段階があるため、記憶は単なる「似ている文章の一覧」ではなく、あとでたどれる知識ネットワークになります。
A-MEM がいちばん特徴的なのはここです。新しいノートを追加したら終わりではなく、関連する既存ノートの
も更新対象になります。
つまり、「古い記憶は不変で、新しい記憶だけ後ろに足す」という append-only 型ではありません。新しい経験が、過去の経験の意味づけそのものを変える設計です。
この考え方は、人間があとから「前の出来事は実はこういう意味だった」と理解を更新するのに近いです。
以下は、論文の考え方を実装の責務に分解した概念コードです。
from dataclasses import dataclass, field
from datetime import datetime
@dataclass
class MemoryNote:
content: str
timestamp: datetime
keywords: list[str]
tags: list[str]
context: str
links: list[str] = field(default_factory=list)
class AgenticMemory:
def __init__(self, llm, vector_index):
self.llm = llm
self.vector_index = vector_index
self.notes: dict[str, MemoryNote] = {}
def add_interaction(self, raw_text: str, ts: datetime) -> str:
note = self._construct_note(raw_text, ts)
related_ids = self._retrieve_neighbors(note)
note.links = self._generate_links(note, related_ids)
self._evolve_related_notes(note, related_ids)
note_id = f"mem_{len(self.notes)}"
self.notes[note_id] = note
self.vector_index.upsert(note_id, self._serialize(note))
return note_id
この設計で重要なのは検索ロジックよりも、書き込み時にノートをどう構造化し、どの範囲まで過去ノートを再解釈するかです。
次のセクションへ: A-MEM は RAG の代替というより、RAG が扱いにくい「経験の記憶」を補う設計です。
従来のメモリ vs A-MEM比較RAG と A-MEM は競合というより役割分担が異なります。
| 観点 | 従来の RAG | A-MEM |
|---|---|---|
| 主な対象 | 仕様書、FAQ、社内文書などの静的知識 | 会話履歴、判断履歴、ユーザー嗜好などの動的経験 |
| 更新単位 | 文書更新や再インデックス | 新しいインタラクションごとのノート化と再解釈 |
| 検索の軸 | 類似度ベースの検索が中心 | 類似度に加えて、リンクと進化した文脈表現を使う |
| 強み | 正本がある知識を確実に引く | 長期対話の文脈や関係性を保つ |
| 弱み | 経験の変化や意味更新は苦手 | 正本管理や厳密な出典提示は別設計が必要 |
たとえば営業支援エージェントなら、
という分担が自然です。
重要なのは、「何を覚えるか」と「何を引くか」を分けることです。全部をメモリに寄せると出典管理が崩れ、全部を RAG に寄せると長期文脈が死にます。
A-MEM 論文は、長期対話向けデータセット LoCoMo を用いて評価しています。論文によると LoCoMo は、
を含み、単発 QA よりも長期記憶の扱いを見やすい構成になっています。
また、論文は 6 つの foundation model に対して比較を行い、複数の指標で既存手法より改善したと報告しています。
論文を読むうえで重要なのは、単一の派手な数値より次の 3 点です。
特にアブレーションでは、リンク生成と記憶進化を外すと性能が落ちます。つまり、A-MEM の価値は「ベクトル検索を付けた」ことではなく、書き込み後に記憶構造が変わることにあります。
一方で、この結果だけで「どの SaaS エージェントでもすぐ 2 倍強くなる」とは言えません。論文の評価は主に長期会話ベンチマークであり、
では、別の評価軸が必要です。
次のセクションへ: A-MEM を実装へ落とすときは、論文の構造をそのまま移植するより「どの責務を自分で持つか」を決めるのが先です。
論文が直接リンクしているコードは 2 系統あります。
本番導入を考えるなら、A-MEM のアイデアは次の 3 つの責務に分解すると扱いやすいです。
どのイベントを記憶対象にするかを決めます。すべての会話を保存するのではなく、
のような「あとで効く情報」だけをノート化するのが現実的です。
近いノートを集めるだけでは不十分です。リンクの粒度を決める必要があります。
ここを曖昧にすると、検索結果は増えても「使える記憶」になりません。
過去ノートを書き換える機能は強力ですが、同時に危険でもあります。特に実務では、
という設計が重要です。
A-MEM は全社ナレッジ基盤のような巨大領域より、
のように、関係性が長く続き、かつ正本が別に分かれている領域から入る方が失敗しにくいです。
A-MEM 型の記憶は、あとから文脈説明やタグが更新されます。これは便利ですが、監査上は「元の発話」と「後から作った解釈」を分けて残す必要があります。
Note Construction、Link Generation、Memory Evolution はすべて追加処理です。単に prompt に履歴を足す方式より、書き込みコストとレイテンシが増えます。
したがって、頻繁に変わるが再利用価値の低い情報までノート化すると割に合いません。
論文は「進化する記憶」を示していますが、何をいつ忘れるかはユースケース依存です。
を同じ扱いにすると、記憶層がすぐ濁ります。
製品仕様、料金、契約条件、法令などは、記憶層ではなく current docs 側を引くべきです。A-MEM は「経験の整理」には強いですが、正本の置き換えには向いていません。
いいえ。A-MEM は、静的文書検索の代わりではありません。RAG が得意なのは「正本がある知識を引くこと」、A-MEM が得意なのは「経験を記憶として育てること」です。
複数セッションをまたぎ、以前のやり取りの意味があとから変わるタスクに向いています。営業、CS、秘書、長期プロジェクト支援などが典型です。
はい。論文からは WujiangXu/AgenticMemory と agiresearch/A-mem が案内されています。前者は評価再現、後者はメモリシステム実装を見るのに向いています。
可能です。ただし、単にベクトル DB を足すだけでは A-MEM にはなりません。最低でも
の 3 責務をどこで持つかを決める必要があります。
少なくとも次を見てください。
A-MEM の新しさは、「履歴を保存する」ことではなく、履歴をノートとして再構成し、関連づけ、あとから進化させることにあります。
本記事はネクサフローの AI 研究シリーズの一部です。
この記事の著者

代表取締役
早稲田大学卒業後、ソフトバンク株式会社にてAI活用やCEO直下案件のプロジェクトマネージャーに従事。その後、不動産スタートアップPit in株式会社の創業、他スタートアップでの業務改善・データ活用を経験後、2023年10月、株式会社ネクサフローを創業し代表取締役CEO就任。
次に読む

Self-Evolving AI Agents は、AI エージェントを System Input / Agent System / Environment / Optimizer の4要素で捉え、何をどう更新すると「自己進化」と呼べるのかを整理したサーベイ論文です。本記事では、進化の3軸と評価・安全性の論点を中心に読み解きます。

Chain-of-Thought(CoT)は、答えだけでなく途中の推論ステップを例示・出力させることで、複数ステップの算術や論理問題を解きやすくするプロンプト技法です。2022年の論文で報告されたGSM8Kの17.9%→58.1%という改善を起点に、Few-shot / Zero-shotの違い、モデルサイズ依存、忠実性とコストの注意点を整理します。

CMU・NYU発の新概念Epiplexityを解説。シャノンエントロピーの限界を超え、計算制約下のAI学習可能性を定量化。データ拡張・カリキュラム学習・LLM汎用能力の3つのパラドックスを統一的に解決する。