Nexaflow
ホームサービス導入事例
ブログお知らせ会社情報
資料請求お問い合わせ

Nexaflow

社会を支える人々と伴に、未来の希望を創る

サービス

  • プライシング戦略支援
  • Nexalog

会社情報

  • 会社概要
  • ミッション
  • メンバー

リソース

  • ブログ
  • 導入事例
  • お知らせ
  • 資料ダウンロード

© 2026 Nexaflow. All rights reserved.

プライバシーポリシー

ブログ

AI、データ活用、業務改善に関する最新情報やNexaflowの取り組みをお届けします

ホーム/ブログ/【論文解説】Chain-of-Thought: LLMの推論能力を覚醒させたプロンプト技法
最終更新: 2026/01/11

【論文解説】Chain-of-Thought: LLMの推論能力を覚醒させたプロンプト技法

AIパフォーマンス向上データ分析

AIサマリー

Chain-of-Thought(CoT)は、AIに考えるプロセスを与えることで推論能力を大幅に向上させる手法で、従来の方法では複雑な問題で失敗していたLLMが、ステップバイステップで考えることで精度を大きく改善。GSM8Kでの精度が17.9%から58.1%に向上し、MultiArithでは17.7%から93.0%に達した。CoTは特に100B以上のモデルで効果が顕著であり、ReActなどの後続手法の基盤ともなっている。

目次
01Chain-of-Thoughtとは?3行でわかる論文の要点─論文情報02Chain-of-Thoughtの仕組みを図解で理解─従来のプロンプト(Standard Prompting)─Chain-of-Thoughtプロンプト032つのCoTアプローチ─1. Few-shot CoT(元論文のアプローチ)─2. Zero-shot CoT(後続研究)─Few-shot vs Zero-shot04実験結果:どれくらい性能が上がるのか─GSM8K(小学校レベルの算数文章題)─MultiArith(複数ステップの算術問題)─SVAMP(代数文章題)─モデルサイズの影響05なぜChain-of-Thoughtは効果があるのか─1. 作業メモリの外部化─2. 問題の分解─3. エラー検出と修正─4. 学習データとの整合性06ReActとの関係─CoT vs ReAct─ReActにおけるCoTの役割07実践:CoTを今すぐ使う方法─シンプルな実装例─出力例08FAQ─Q1. CoTは全てのタスクで効果がある?─Q2. 日本語でもCoTは効果がある?─Q3. CoTを使うとコストは増える?─Q4. どのモデルで使うべき?09まとめ10関連記事11参考リソース

AIに「考えるプロセス」を与えることで、複雑な推論タスクの性能が劇的に向上する。2022年にGoogleが発表したChain-of-Thought(CoT)プロンプティングは、現在のLLM活用における最も基本的かつ重要なテクニックの一つです。本記事では、CoT論文の内容を徹底解説し、なぜ「段階的に考えさせる」だけで性能が向上するのかを明らかにします。

関連記事: 本記事は「AIエージェント論文おすすめ9選」の詳細解説記事です。他の論文も合わせてご覧ください。


Chain-of-Thoughtとは?3行でわかる論文の要点

  1. 従来手法の課題: LLMは複雑な算数・論理問題で「いきなり答え」を出そうとして失敗していた
  2. CoTのアプローチ: 「ステップバイステップで考えさせる」プロンプトを追加するだけで推論能力が飛躍的に向上
  3. なぜ重要か: GSM8Kで17.9%→58.1%(+40%以上)の精度向上を達成。現在のLLM活用の基盤技術となった

論文情報

項目内容
タイトルChain-of-Thought Prompting Elicits Reasoning in Large Language Models
著者Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter 他(Google)
発表NeurIPS 2022
arXiv2201.11903

Chain-of-Thoughtの仕組みを図解で理解

CoTの核心は非常にシンプルです。**「答えを出す前に、考える過程を出力させる」**というだけのこと。しかし、このシンプルなアイデアがLLMの推論能力を大きく引き出しました。

従来のプロンプト(Standard Prompting)

Q: カフェでコーヒーを3杯とケーキを2個買いました。
   コーヒーは1杯400円、ケーキは1個500円です。合計はいくらですか?

A: 2200円

LLMはいきなり答えを出そうとします。単純な問題なら正解できますが、複雑になると間違いやすい。

Chain-of-Thoughtプロンプト

Q: カフェでコーヒーを3杯とケーキを2個買いました。
   コーヒーは1杯400円、ケーキは1個500円です。合計はいくらですか?

A: まず、コーヒーの合計を計算します。
   コーヒー3杯 × 400円 = 1200円

   次に、ケーキの合計を計算します。
   ケーキ2個 × 500円 = 1000円

   最後に、全体の合計を計算します。
   1200円 + 1000円 = 2200円

   答え: 2200円

途中の計算過程を明示的に出力させることで、LLMは各ステップを正確に実行できるようになります。


2つのCoTアプローチ

1. Few-shot CoT(元論文のアプローチ)

Few-shot CoTは、推論過程を含む例を数個提示してからタスクを与える方法です。

[例1]
Q: ロジャーはテニスボールを5個持っています。
   テニスボールが3缶入ったパックを2つ買いました。
   各缶には3個のボールが入っています。彼は今何個のボールを持っていますか?

A: ロジャーは最初に5個のボールを持っていました。
   各缶には3個のボールが入っていて、2缶買ったので、
   3 × 2 = 6個のボールを追加で手に入れました。
   5 + 6 = 11個
   答え: 11個

[例2]
Q: (別の例題と推論過程)

[本題]
Q: あなたが解きたい問題...

2. Zero-shot CoT(後続研究)

「Let's think step by step」と一言添えるだけで、Few-shotの例なしでもCoTが発動する発見です(Kojima et al., 2022)。

Q: カフェでコーヒーを3杯とケーキを2個買いました。
   コーヒーは1杯400円、ケーキは1個500円です。合計はいくらですか?

Let's think step by step.

これだけでLLMは自動的に段階的な推論を始めます。

Few-shot vs Zero-shot

観点Few-shot CoTZero-shot CoT
準備コスト例題の作成が必要一言添えるだけ
精度より高いやや劣る
適用範囲特定タスクに最適化汎用的
推奨場面重要なタスクプロトタイプ・軽量な用途

実験結果:どれくらい性能が上がるのか

論文では、複数の算術・推論ベンチマークで検証が行われました。

GSM8K(小学校レベルの算数文章題)

手法精度
Standard Prompting17.9%
Chain-of-Thought58.1%
改善幅+40.2%

MultiArith(複数ステップの算術問題)

手法精度
Standard Prompting17.7%
Chain-of-Thought93.0%
改善幅+75.3%

SVAMP(代数文章題)

手法精度
Standard Prompting63.1%
Chain-of-Thought79.0%
改善幅+15.9%

モデルサイズの影響

興味深いことに、CoTの効果はモデルサイズが大きいほど顕著になります。

モデルサイズStandardCoT改善幅
8B4.5%5.3%+0.8%
62B12.3%33.0%+20.7%
540B (PaLM)17.9%58.1%+40.2%

小さなモデルではCoTの効果は限定的ですが、100B以上のモデルで劇的な効果が現れます。これは「創発的能力(Emergent Ability)」と呼ばれる現象の一例です。


なぜChain-of-Thoughtは効果があるのか

1. 作業メモリの外部化

人間が複雑な計算をするとき、紙に途中式を書きますよね。CoTも同じです。

  • 従来: 全ての計算を「頭の中」(モデル内部)で処理 → 情報が失われる
  • CoT: 途中結果を「紙」(出力テキスト)に書き出す → 情報が保持される

LLMは生成したテキストを次のトークン予測に使えるため、途中結果を「外部メモリ」として活用できます。

2. 問題の分解

複雑な問題を小さなステップに分解することで、各ステップは単純な処理になります。

複雑な問題: 「3杯 × 400円 + 2個 × 500円」

↓ 分解

ステップ1: 「3 × 400 = ?」 → 1200
ステップ2: 「2 × 500 = ?」 → 1000
ステップ3: 「1200 + 1000 = ?」 → 2200

3. エラー検出と修正

途中経過が可視化されることで、モデル自身がエラーを発見・修正しやすくなります。

ステップ1: 3 × 400 = 1200 OK
ステップ2: 2 × 500 = 100 ...あれ、計算が間違っている
          2 × 500 = 1000 OK

4. 学習データとの整合性

LLMの学習データには、教科書や解説サイトなど「段階的な説明」が多く含まれています。CoTプロンプトは、そうした学習データのパターンを引き出していると考えられます。


ReActとの関係

CoTは「推論」に特化したテクニックですが、これを行動(Action)と組み合わせたのがReActです。

CoT vs ReAct

観点CoTReAct
対象推論タスク推論 + 行動タスク
外部ツール使用しない使用する
ループ一方向Thought-Action-Observation
適用例数学、論理問題検索、計算、API呼び出し

ReActにおけるCoTの役割

ReActの「Thought」部分は、まさにCoTの推論プロセスです。

[Thought] ユーザーは東京の明日の天気を知りたがっている。
         天気APIを使って情報を取得する必要がある。

[Action] weather_api(location="Tokyo", date="tomorrow")

[Observation] 明日の東京: 晴れ、最高気温15度、最低気温8度

CoTが「考える力」を与え、ReActがそれを「行動する力」と結合したと言えます。


実践:CoTを今すぐ使う方法

シンプルな実装例

import openai

def cot_prompt(question):
    prompt = f'''
質問: {question}

この問題をステップバイステップで考えてください。
各ステップで何を計算しているか説明し、最後に答えを出してください。
'''

    response = openai.chat.completions.create(
        model="gpt-4o",
        messages=[{"role": "user", "content": prompt}],
        temperature=0
    )

    return response.choices[0].message.content

# 使用例
question = "ある店で、りんご5個とみかん8個を買いました。りんごは1個120円、みかんは1個80円です。1000円札で払うとお釣りはいくらですか?"
answer = cot_prompt(question)
print(answer)

出力例

ステップ1: りんごの合計金額を計算します。
りんご5個 × 120円 = 600円

ステップ2: みかんの合計金額を計算します。
みかん8個 × 80円 = 640円

ステップ3: 購入金額の合計を計算します。
600円 + 640円 = 1240円

ステップ4: お釣りを計算します。
1000円では足りないため、お釣りは出ません。
むしろ240円不足しています。

答え: 1000円札では240円不足するため、お釣りは出ません。

CoTを使うことで、「1000円では足りない」という重要な気づきも得られています。


FAQ

Q1. CoTは全てのタスクで効果がある?

いいえ。CoTが効果的なのは主に以下のタスクです。

  • 複数ステップの算術問題
  • 論理的推論が必要なタスク
  • 常識推論
  • 記号操作

単純な事実の検索や創作タスクでは効果が限定的です。

Q2. 日本語でもCoTは効果がある?

はい、効果があります。「ステップバイステップで考えてください」「順番に説明してください」などのフレーズで同様の効果が得られます。

Q3. CoTを使うとコストは増える?

はい。出力トークン数が増えるため、APIコストは増加します。ただし、精度向上による再試行の減少を考えると、総合的には効率的な場合が多いです。

Q4. どのモデルで使うべき?

100B以上のパラメータを持つモデル(GPT-4、Claude 3、PaLM 2など)で効果が顕著です。小さなモデルでは効果が限定的です。


まとめ

Chain-of-Thought(CoT)は、LLMに「考えるプロセスを出力させる」というシンプルなアイデアで、推論能力を飛躍的に向上させた画期的な手法です。

主な成果:

  • GSM8Kで17.9%→58.1%(+40%以上)の精度向上
  • MultiArithで17.7%→93.0%(+75%以上)の精度向上
  • 現在のLLM活用の基盤技術として定着

実践のポイント:

  • 「ステップバイステップで考えて」と指示するだけで効果あり
  • 100B以上のモデルで効果が顕著
  • ReActなど後続手法の基盤となった

LLMを活用する全ての人にとって、CoTは最初にマスターすべきテクニックです。


関連記事

前の論文次の論文
Transformer: AIの言語理解を変えた革命ReAct: 推論と行動を統合するAIエージェントの原点
➡️

AIエージェント論文おすすめ9選に戻る


参考リソース

  • arXiv論文
  • Google AI Blog
  • Zero-shot CoT論文
  • OpenAI Cookbook: CoT

本記事はネクサフローのAI研究シリーズの一部です。

この記事をシェア

XFacebookLinkedIn

関連記事

こちらの記事も参考にしてください

【論文解説】Epiplexityとは?AIの情報理論を再定義する新概念
2026/01/12

【論文解説】Epiplexityとは?AIの情報理論を再定義する新概念

Epiplexityは計算制約のあるAIモデルの学習可能性を定量化する新しい情報理論の尺度であり、シャノンエントロピーの限界を克服します。特に、データ拡張、カリキュラム学習、LLMの汎用能力など、従来の理論では説明できなかった現象を統一的に解決します。Epiplexityは、データセット設計や事前学習の最適化に新たな指針を提供し、今後のAI研究において重要な概念とされています。

AI新技術革新データ分析
【論文解説】MetaGPT: ソフトウェア開発を自動化するマルチエージェントフレームワーク
2026/01/11

【論文解説】MetaGPT: ソフトウェア開発を自動化するマルチエージェントフレームワーク

MetaGPTは、複数のAIエージェントが協調してソフトウェア開発を自動化するフレームワークであり、各エージェントが特定の役割を持ち、標準作業手順(SOP)に従って作業を行います。HumanEvalで85.9%の高い性能を達成し、従来の手法に比べて大幅な品質向上を実現しています。プロトタイプ開発やドキュメント自動生成に応用可能で、商用利用も可能です。

AI業務自動化新技術革新
【論文解説】Swarm: OpenAIが提案するマルチエージェント協調フレームワーク
2026/01/11

【論文解説】Swarm: OpenAIが提案するマルチエージェント協調フレームワーク

SwarmはOpenAIが提案する軽量なマルチエージェント協調フレームワークで、エージェントとハンドオフの2つの概念を用いてシンプルな協調を実現します。教育や実験に最適で、カスタマーサポートや航空券予約システムなどの具体的なユースケースが紹介されています。実運用には不向きで、OpenAI APIに依存していますが、マルチエージェントの基本を学ぶには適しています。

AI業務自動化データ分析

サービスについて詳しく知りたい方へ

お気軽にお問い合わせください。貴社の課題をお聞かせください。

資料請求お問い合わせ