AI、データ活用、業務改善に関する最新情報やNexaflowの取り組みをお届けします
AIサマリー
ReActは推論と行動を統合するAIエージェントのフレームワークで、従来の手法の課題を克服し、HotPotQAで+6%、ALFWorldで+34%の性能向上を達成。Thought-Action-Observationのループを用いて複雑なタスクを段階的に解決し、実際のビジネスシナリオでの自動化に高い実用性を示す。具体的なユースケースとして、競合価格調査や見積もり支援が成功率100%で実施された。
AIエージェント開発に携わる方なら、一度は「ReAct」という名前を耳にしたことがあるのではないでしょうか。ReActは、現在のAIエージェント技術の基礎となった重要な論文です。本記事では、ReAct論文の内容を解説するとともに、Claude Codeで実際にReActエージェントを構築・検証した結果をお伝えします。
関連記事: 本記事は「AIエージェント論文おすすめ9選」の詳細解説記事です。他の論文も合わせてご覧ください。
| 項目 | 内容 |
|---|---|
| タイトル | ReAct: Synergizing Reasoning and Acting in Language Models |
| 著者 | Shunyu Yao, Jeffrey Zhao, Dian Yu, Nan Du 他 |
| 発表 | ICLR 2023 |
| arXiv | 2210.03629 |
ReActの核心は、Thought-Action-Observationの3ステップを繰り返すループ構造です。

LLMが現在の状況を分析し、次のアクションを決定します。従来のChain-of-Thought(CoT)と同様の推論プロセスですが、ReActでは行動を前提とした推論を行う点が異なります。
[Thought] ユーザーは消費税込み価格から税抜き価格を求めている。
計算ツールを使って 1000 / 1.1 を計算する必要がある。
推論結果に基づいて、適切なツールを選択・実行します。
[Action] calculator(1000 / 1.1)
ツールの実行結果を受け取り、次のThoughtに活用します。
[Observation] 計算結果: 1000 / 1.1 = 909.09
このループを繰り返すことで、複雑なタスクを段階的に解決していきます。
論文では、3つのベンチマークで検証が行われました。
| ベンチマーク | タスク内容 | 性能向上 |
|---|---|---|
| HotPotQA | 複数文書からの質問応答 | +6% |
| ALFWorld | テキストベースのゲーム | +34% |
| WebShop | Web操作によるショッピング | +10% |
特に**ALFWorldでの+34%**は驚異的です。これは、推論だけでなく「行動して結果を確認する」ことの重要性を示しています。
from langchain_openai import ChatOpenAI
from langchain_core.tools import tool
from langgraph.prebuilt import create_react_agent
# ツールの定義
@tool
def calculator(expression: str) -> str:
"""数学的な計算を行う"""
result = eval(expression)
return f"{expression} = {result}"
@tool
def search_knowledge(query: str) -> str:
"""情報を検索する"""
# 検索ロジック
return search_result
# エージェント作成
llm = ChatOpenAI(model="gpt-4o", temperature=0)
agent = create_react_agent(llm, [calculator, search_knowledge])
# 実行
result = agent.invoke({"messages": [("user", "100 × 5 を計算して")]})
実行環境: Claude Code + LangGraph + gpt-4o
ユースケース: プライシング業務での競合SaaS価格調査
AIチャットボットSaaS(Intercom、Zendesk、Tidio、Drift)の価格を自動調査し、比較レポートを生成するエージェントを構築しました。
使用ツール:
web_search: 競合サービスの価格情報をWeb検索calculator: 年額→月額変換、為替計算(1ドル=150円)generate_comparison_report: Markdown形式の比較表生成実行結果:
[行動] web_search({'query': 'Intercom pricing 2025'}...)
[行動] web_search({'query': 'Zendesk pricing 2025'}...)
[観察] snippet: Intercom pricing starts at $39/month...
[行動] calculator({'expression': '468 / 12'}) # 年額→月額変換
[観察] 計算結果: 468 / 12 = 39.00
| 処理時間 | 成功 | 実用性評価 |
|---|---|---|
| 8.41秒 | ✓ | ★★★★☆ |
月額5万円以下のサービスとしてTidio、Driftを推奨する比較レポートを自動生成しました。
ユースケース: DX支援案件の概算見積もり作成
ECサイトリニューアル案件(商品数500点、決済機能、会員機能、在庫連携)の見積もりを自動作成するエージェントです。
使用ツール:
analyze_requirements: 要件を分析し開発項目を抽出calculate_man_hours: 各項目の工数を計算calculator: 工数合計・金額計算generate_estimate: 見積書ドラフト生成実行結果:
[行動] analyze_requirements({'requirements': '商品数: 約500点, 決済機能...'})
[観察] 抽出された開発項目: フロントエンド開発、バックエンド開発、インフラ構築、テスト
[行動] calculate_man_hours({'item': 'フロントエンド開発', 'complexity': 'medium'})
[観察] 「フロントエンド開発」の想定工数: 40人日
[行動] calculator({'expression': '40 + 60 + 10 + 20'})
[観察] 計算結果: 40 + 60 + 10 + 20 = 130
[行動] generate_estimate({'project_name': '中小企業向けECサイトリニューアル', ...})
生成された見積書:
| 項目 | 数量 | 単価 | 金額 |
|---|---|---|---|
| 開発工数 | 130人日 | 50,000円 | 6,500,000円 |
| 消費税(10%) | - | - | 650,000円 |
| 合計 | - | - | 7,150,000円 |
| 処理時間 | 成功 | 実用性評価 |
|---|---|---|
| 8.15秒 | ✓ | ★★★★☆ |
ユースケース: クライアントへの技術提案準備
AIエージェントフレームワーク(LangChain、LlamaIndex、CrewAI)を調査し、社内ナレッジと組み合わせて比較レポートを生成します。
使用ツール:
web_search: 各フレームワークの最新情報を検索knowledge_db: 社内ナレッジベースから過去の評価を取得generate_comparison_table: 比較表テンプレート生成実行結果:
[行動] web_search({'query': 'LangChain AI framework 2025 updates'})
[行動] knowledge_db({'topic': 'LangChain'})
[観察] 【LangChain 社内評価】導入実績: 5案件、評価: ★★★★☆
[行動] generate_comparison_table({'items': 'LangChain, LlamaIndex, CrewAI'})
生成された比較表:
| 観点 | LangChain | LlamaIndex | CrewAI |
|---|---|---|---|
| 主要機能 | エージェント開発、RAG構築 | 知識アシスタント、データ接続 | マルチエージェント協調 |
| 学習コスト | 高 | 中 | 低 |
| 社内実績 | 5案件 | 3案件 | 1案件(PoC) |
| 総合評価 | ★★★★☆ | ★★★★☆ | ★★★☆☆ |
推奨: 複雑なエージェント開発にはLangChainを推奨
| 処理時間 | 成功 | 実用性評価 |
|---|---|---|
| 18.66秒 | ✓ | ★★★★★ |
| シナリオ | タスク | 成功 | 処理時間 | 実用性 |
|---|---|---|---|---|
| 競合価格調査 | SaaS価格比較 | ✓ | 8.41秒 | ★★★★☆ |
| 見積もり支援 | 開発見積もり作成 | ✓ | 8.15秒 | ★★★★☆ |
| 技術リサーチ | フレームワーク比較 | ✓ | 18.66秒 | ★★★★★ |
全シナリオ成功率: 3/3(100%)
| 項目 | 数値 |
|---|---|
| 使用モデル | gpt-4o |
| 平均処理時間 | 8〜19秒/タスク |
| 推定API費用 | 約$0.01〜0.05/タスク |
上記の検証で示したように、ReActは実際のビジネスシナリオで高い実用性を発揮します。
業務プロセス自動化(検証済み)
データ収集・分析
社内ナレッジ活用
複数SaaSの価格情報を自動収集
為替換算・年額月額変換も自動処理
「なぜこの価格か」を論理的に説明
推論過程の可視化で意思決定を支援
「AIで業務を自動化したいが、単純な質問応答だけでは不十分」
ReActは「調べながら考える」ができるため、より複雑なタスクに対応可能です。
| 手法 | 特徴 |
|---|---|
| Reflexion | 失敗から学習して改善 |
| LATS | 木探索で複数の選択肢を評価 |
| Tree of Thoughts | 分岐する推論パス |
CoT(Chain-of-Thought): 推論のみ。外部ツールは使わない。
ReAct: 推論 + 行動。ツールを使って外部情報を取得。

論文自体はMITライセンス。実装に使用するLangChain/LangGraphもMITライセンスで商用利用可能です。
ReActは、LLMに「考えながら行動する」能力を与えた画期的なフレームワークです。本記事では、Claude Codeを使って実際にReActエージェントを構築し、以下を確認しました。
全シナリオ成功率: 100%
AIエージェント開発の第一歩として、ぜひReActを試してみてください。
本記事の検証はすべてClaude Codeで実施しました。
こちらの記事も参考にしてください

Epiplexityは計算制約のあるAIモデルの学習可能性を定量化する新しい情報理論の尺度であり、シャノンエントロピーの限界を克服します。特に、データ拡張、カリキュラム学習、LLMの汎用能力など、従来の理論では説明できなかった現象を統一的に解決します。Epiplexityは、データセット設計や事前学習の最適化に新たな指針を提供し、今後のAI研究において重要な概念とされています。

MetaGPTは、複数のAIエージェントが協調してソフトウェア開発を自動化するフレームワークであり、各エージェントが特定の役割を持ち、標準作業手順(SOP)に従って作業を行います。HumanEvalで85.9%の高い性能を達成し、従来の手法に比べて大幅な品質向上を実現しています。プロトタイプ開発やドキュメント自動生成に応用可能で、商用利用も可能です。

SwarmはOpenAIが提案する軽量なマルチエージェント協調フレームワークで、エージェントとハンドオフの2つの概念を用いてシンプルな協調を実現します。教育や実験に最適で、カスタマーサポートや航空券予約システムなどの具体的なユースケースが紹介されています。実運用には不向きで、OpenAI APIに依存していますが、マルチエージェントの基本を学ぶには適しています。