Nexaflow
ホームサービス導入事例
ブログお知らせ会社情報
資料請求お問い合わせ

Nexaflow

社会を支える人々と伴に、未来の希望を創る

サービス

  • プライシング戦略支援
  • Nexalog

会社情報

  • 会社概要
  • ミッション
  • メンバー

リソース

  • ブログ
  • 導入事例
  • お知らせ
  • 資料ダウンロード

© 2026 Nexaflow. All rights reserved.

プライバシーポリシー

ブログ

AI、データ活用、業務改善に関する最新情報やNexaflowの取り組みをお届けします

ホーム/ブログ/【論文解説】ReAct: 推論と行動を統合するAIエージェントの原点
最終更新: 2026/01/11

【論文解説】ReAct: 推論と行動を統合するAIエージェントの原点

AI業務自動化パフォーマンス向上

AIサマリー

ReActは推論と行動を統合するAIエージェントのフレームワークで、従来の手法の課題を克服し、HotPotQAで+6%、ALFWorldで+34%の性能向上を達成。Thought-Action-Observationのループを用いて複雑なタスクを段階的に解決し、実際のビジネスシナリオでの自動化に高い実用性を示す。具体的なユースケースとして、競合価格調査や見積もり支援が成功率100%で実施された。

目次
01ReActとは?3行でわかる論文の要点─論文情報02ReActの仕組みを図解で理解─Thought(推論):次に何をすべきか考える─Action(行動):外部ツールを呼び出す─Observation(観察):結果を受け取る03実験結果:どれくらい性能が上がるのか04実装方法:LangChain/LangGraphでReActエージェントを作る─基本的なコード構造─ポイント05【実際に動かしてみた】ビジネスシナリオでの検証─シナリオ1: 競合価格調査エージェント─シナリオ2: 見積もり支援エージェント─シナリオ3: 技術リサーチエージェント─検証結果サマリー─コスト概算06【ネクサフローでの活用視点】─DX支援での適用可能性─プライシング業務での活用例(シナリオ1で実証)─顧客からよくある質問との関連─導入を検討する際のアドバイス07ReActの限界と発展─ReActの弱点─後続研究08FAQ─Q1. ReActとCoTの違いは?─Q2. どんなタスクに向いている?─Q3. 商用利用は可能?09まとめ10次に読むべき論文11参考リソース

AIエージェント開発に携わる方なら、一度は「ReAct」という名前を耳にしたことがあるのではないでしょうか。ReActは、現在のAIエージェント技術の基礎となった重要な論文です。本記事では、ReAct論文の内容を解説するとともに、Claude Codeで実際にReActエージェントを構築・検証した結果をお伝えします。

関連記事: 本記事は「AIエージェント論文おすすめ9選」の詳細解説記事です。他の論文も合わせてご覧ください。


ReActとは?3行でわかる論文の要点

  1. 従来手法の課題: LLMは「考える」か「行動する」かのどちらか一方しかできなかった
  2. ReActのアプローチ: 推論(Reasoning)と行動(Acting)を交互に実行する「Thought-Action-Observation」ループを提案
  3. なぜ重要か: HotPotQAで+6%、ALFWorldで+34%の性能向上を達成し、現在のエージェントフレームワークの基盤となった

論文情報

項目内容
タイトルReAct: Synergizing Reasoning and Acting in Language Models
著者Shunyu Yao, Jeffrey Zhao, Dian Yu, Nan Du 他
発表ICLR 2023
arXiv2210.03629

ReActの仕組みを図解で理解

ReActの核心は、Thought-Action-Observationの3ステップを繰り返すループ構造です。

記事に関連する画像

Thought(推論):次に何をすべきか考える

LLMが現在の状況を分析し、次のアクションを決定します。従来のChain-of-Thought(CoT)と同様の推論プロセスですが、ReActでは行動を前提とした推論を行う点が異なります。

[Thought] ユーザーは消費税込み価格から税抜き価格を求めている。
         計算ツールを使って 1000 / 1.1 を計算する必要がある。

Action(行動):外部ツールを呼び出す

推論結果に基づいて、適切なツールを選択・実行します。

[Action] calculator(1000 / 1.1)

Observation(観察):結果を受け取る

ツールの実行結果を受け取り、次のThoughtに活用します。

[Observation] 計算結果: 1000 / 1.1 = 909.09

このループを繰り返すことで、複雑なタスクを段階的に解決していきます。


実験結果:どれくらい性能が上がるのか

論文では、3つのベンチマークで検証が行われました。

ベンチマークタスク内容性能向上
HotPotQA複数文書からの質問応答+6%
ALFWorldテキストベースのゲーム+34%
WebShopWeb操作によるショッピング+10%

特に**ALFWorldでの+34%**は驚異的です。これは、推論だけでなく「行動して結果を確認する」ことの重要性を示しています。


実装方法:LangChain/LangGraphでReActエージェントを作る

基本的なコード構造

from langchain_openai import ChatOpenAI
from langchain_core.tools import tool
from langgraph.prebuilt import create_react_agent

# ツールの定義
@tool
def calculator(expression: str) -> str:
    """数学的な計算を行う"""
    result = eval(expression)
    return f"{expression} = {result}"

@tool
def search_knowledge(query: str) -> str:
    """情報を検索する"""
    # 検索ロジック
    return search_result

# エージェント作成
llm = ChatOpenAI(model="gpt-4o", temperature=0)
agent = create_react_agent(llm, [calculator, search_knowledge])

# 実行
result = agent.invoke({"messages": [("user", "100 × 5 を計算して")]})

ポイント

  1. ツールの説明文が重要: LLMはツールの説明文を読んで使用判断するため、明確な説明が必要
  2. temperature=0: 再現性のために推論時は0に設定
  3. max_iterations: 無限ループ防止のため上限を設定

【実際に動かしてみた】ビジネスシナリオでの検証

実行環境: Claude Code + LangGraph + gpt-4o

シナリオ1: 競合価格調査エージェント

ユースケース: プライシング業務での競合SaaS価格調査

AIチャットボットSaaS(Intercom、Zendesk、Tidio、Drift)の価格を自動調査し、比較レポートを生成するエージェントを構築しました。

使用ツール:

  • web_search: 競合サービスの価格情報をWeb検索
  • calculator: 年額→月額変換、為替計算(1ドル=150円)
  • generate_comparison_report: Markdown形式の比較表生成

実行結果:

[行動] web_search({'query': 'Intercom pricing 2025'}...)
[行動] web_search({'query': 'Zendesk pricing 2025'}...)
[観察] snippet: Intercom pricing starts at $39/month...
[行動] calculator({'expression': '468 / 12'})  # 年額→月額変換
[観察] 計算結果: 468 / 12 = 39.00
処理時間成功実用性評価
8.41秒✓★★★★☆

月額5万円以下のサービスとしてTidio、Driftを推奨する比較レポートを自動生成しました。


シナリオ2: 見積もり支援エージェント

ユースケース: DX支援案件の概算見積もり作成

ECサイトリニューアル案件(商品数500点、決済機能、会員機能、在庫連携)の見積もりを自動作成するエージェントです。

使用ツール:

  • analyze_requirements: 要件を分析し開発項目を抽出
  • calculate_man_hours: 各項目の工数を計算
  • calculator: 工数合計・金額計算
  • generate_estimate: 見積書ドラフト生成

実行結果:

[行動] analyze_requirements({'requirements': '商品数: 約500点, 決済機能...'})
[観察] 抽出された開発項目: フロントエンド開発、バックエンド開発、インフラ構築、テスト

[行動] calculate_man_hours({'item': 'フロントエンド開発', 'complexity': 'medium'})
[観察] 「フロントエンド開発」の想定工数: 40人日

[行動] calculator({'expression': '40 + 60 + 10 + 20'})
[観察] 計算結果: 40 + 60 + 10 + 20 = 130

[行動] generate_estimate({'project_name': '中小企業向けECサイトリニューアル', ...})

生成された見積書:

項目数量単価金額
開発工数130人日50,000円6,500,000円
消費税(10%)--650,000円
合計--7,150,000円
処理時間成功実用性評価
8.15秒✓★★★★☆

シナリオ3: 技術リサーチエージェント

ユースケース: クライアントへの技術提案準備

AIエージェントフレームワーク(LangChain、LlamaIndex、CrewAI)を調査し、社内ナレッジと組み合わせて比較レポートを生成します。

使用ツール:

  • web_search: 各フレームワークの最新情報を検索
  • knowledge_db: 社内ナレッジベースから過去の評価を取得
  • generate_comparison_table: 比較表テンプレート生成

実行結果:

[行動] web_search({'query': 'LangChain AI framework 2025 updates'})
[行動] knowledge_db({'topic': 'LangChain'})
[観察] 【LangChain 社内評価】導入実績: 5案件、評価: ★★★★☆

[行動] generate_comparison_table({'items': 'LangChain, LlamaIndex, CrewAI'})

生成された比較表:

観点LangChainLlamaIndexCrewAI
主要機能エージェント開発、RAG構築知識アシスタント、データ接続マルチエージェント協調
学習コスト高中低
社内実績5案件3案件1案件(PoC)
総合評価★★★★☆★★★★☆★★★☆☆

推奨: 複雑なエージェント開発にはLangChainを推奨

処理時間成功実用性評価
18.66秒✓★★★★★

検証結果サマリー

シナリオタスク成功処理時間実用性
競合価格調査SaaS価格比較✓8.41秒★★★★☆
見積もり支援開発見積もり作成✓8.15秒★★★★☆
技術リサーチフレームワーク比較✓18.66秒★★★★★

全シナリオ成功率: 3/3(100%)

コスト概算

項目数値
使用モデルgpt-4o
平均処理時間8〜19秒/タスク
推定API費用約$0.01〜0.05/タスク

【ネクサフローでの活用視点】

上記の検証で示したように、ReActは実際のビジネスシナリオで高い実用性を発揮します。

DX支援での適用可能性

業務プロセス自動化(検証済み)

  • 競合調査、見積もり作成、技術リサーチを自動化
  • 「調べて → 計算して → レポート化する」の一連の流れ

データ収集・分析

  • 外部APIを叩きながら情報を整理
  • Web検索 + 社内データベースの統合(シナリオ3で実証)

社内ナレッジ活用

  • 社内評価データと最新情報を組み合わせた意思決定支援
  • 過去の案件実績を踏まえた提案資料の自動生成

プライシング業務での活用例(シナリオ1で実証)

  1. 競合価格リサーチの自動化
  • 複数SaaSの価格情報を自動収集

  • 為替換算・年額月額変換も自動処理

  1. 価格設定根拠の説明
  • 「なぜこの価格か」を論理的に説明

  • 推論過程の可視化で意思決定を支援

顧客からよくある質問との関連

「AIで業務を自動化したいが、単純な質問応答だけでは不十分」

➡️

ReActは「調べながら考える」ができるため、より複雑なタスクに対応可能です。

導入を検討する際のアドバイス

  1. 最初は単純なタスクから始める: 計算や検索などシンプルなツールから
  2. ツールの選定が重要: 信頼性の高いAPIを選ぶ
  3. 人間のレビューを挟む: 重要な意思決定は人間が最終確認

ReActの限界と発展

ReActの弱点

  • 長いタスクでの精度低下: ステップが増えるとエラーが蓄積
  • 推論コスト: 毎回LLMを呼び出すためAPI費用が増加
  • ツール依存: 適切なツールがないと性能が発揮できない

後続研究

手法特徴
Reflexion失敗から学習して改善
LATS木探索で複数の選択肢を評価
Tree of Thoughts分岐する推論パス

FAQ

Q1. ReActとCoTの違いは?

CoT(Chain-of-Thought): 推論のみ。外部ツールは使わない。

ReAct: 推論 + 行動。ツールを使って外部情報を取得。

記事に関連する画像

Q2. どんなタスクに向いている?

  • 複数ステップの調査・分析
  • 外部情報の取得が必要なタスク
  • 計算や検索を含む複合タスク

Q3. 商用利用は可能?

論文自体はMITライセンス。実装に使用するLangChain/LangGraphもMITライセンスで商用利用可能です。


まとめ

ReActは、LLMに「考えながら行動する」能力を与えた画期的なフレームワークです。本記事では、Claude Codeを使って実際にReActエージェントを構築し、以下を確認しました。

  • 競合価格調査: SaaS4社の価格比較レポートを8.41秒で自動生成
  • 見積もり支援: ECサイト開発の見積書を8.15秒で作成
  • 技術リサーチ: フレームワーク比較表を18.66秒で生成

全シナリオ成功率: 100%

AIエージェント開発の第一歩として、ぜひReActを試してみてください。


次に読むべき論文

前の論文次の論文
CoT: Chain-of-ThoughtComputer Use
➡️

AIエージェント論文おすすめ9選に戻る


参考リソース

  • arXiv論文
  • Google Research Blog
  • 公式プロジェクトページ
  • GitHub
  • 本記事の検証コード

本記事の検証はすべてClaude Codeで実施しました。

この記事をシェア

XFacebookLinkedIn

関連記事

こちらの記事も参考にしてください

【論文解説】Epiplexityとは?AIの情報理論を再定義する新概念
2026/01/12

【論文解説】Epiplexityとは?AIの情報理論を再定義する新概念

Epiplexityは計算制約のあるAIモデルの学習可能性を定量化する新しい情報理論の尺度であり、シャノンエントロピーの限界を克服します。特に、データ拡張、カリキュラム学習、LLMの汎用能力など、従来の理論では説明できなかった現象を統一的に解決します。Epiplexityは、データセット設計や事前学習の最適化に新たな指針を提供し、今後のAI研究において重要な概念とされています。

AI新技術革新データ分析
【論文解説】MetaGPT: ソフトウェア開発を自動化するマルチエージェントフレームワーク
2026/01/11

【論文解説】MetaGPT: ソフトウェア開発を自動化するマルチエージェントフレームワーク

MetaGPTは、複数のAIエージェントが協調してソフトウェア開発を自動化するフレームワークであり、各エージェントが特定の役割を持ち、標準作業手順(SOP)に従って作業を行います。HumanEvalで85.9%の高い性能を達成し、従来の手法に比べて大幅な品質向上を実現しています。プロトタイプ開発やドキュメント自動生成に応用可能で、商用利用も可能です。

AI業務自動化新技術革新
【論文解説】Swarm: OpenAIが提案するマルチエージェント協調フレームワーク
2026/01/11

【論文解説】Swarm: OpenAIが提案するマルチエージェント協調フレームワーク

SwarmはOpenAIが提案する軽量なマルチエージェント協調フレームワークで、エージェントとハンドオフの2つの概念を用いてシンプルな協調を実現します。教育や実験に最適で、カスタマーサポートや航空券予約システムなどの具体的なユースケースが紹介されています。実運用には不向きで、OpenAI APIに依存していますが、マルチエージェントの基本を学ぶには適しています。

AI業務自動化データ分析

サービスについて詳しく知りたい方へ

お気軽にお問い合わせください。貴社の課題をお聞かせください。

資料請求お問い合わせ