Nexaflow
サービス導入事例ブログ勉強会会社情報
資料請求お問い合わせ

Nexaflow

社会を支える人々と伴に、
未来の希望を創る

サービス

  • プライシング戦略支援
  • Nexalog
  • AIトランスフォーメーション

会社情報

  • 会社概要
  • ミッション
  • メンバー

リソース

  • ブログ
  • 導入事例
  • お知らせ
  • 資料ダウンロード

© 2026 Nexaflow Inc. All rights reserved.

利用規約プライバシーポリシー
ホーム/スタートアップ分析/LangChainとは?LangGraph・LangSmith・Deep Agentsで読むエージェント構築ガイド
スタートアップ分析

LangChainとは?LangGraph・LangSmith・Deep Agentsで読むエージェント構築ガイド

14分で読める|2026/04/15|
LangChainAIエージェントLangGraphLLM開発

この記事の要約

LangChain を company metric の物語ではなく、LangChain、LangGraph、LangSmith、Deep Agents の役割分担から読み直す。agent loop、middleware、persistence、human-in-the-loop、eval を軸に導入判断を整理する。

AI・DX活用について相談する

最適なプランをご提案します。

お問い合わせ資料ダウンロード

よく読まれている記事

  1. 1【完全解説】Claude Coworkとは?非エンジニア向けAIエージェントの使い方・活用例
  2. 2Ada徹底解説:ARR成長率108%、ノーコードAIエージェントの先駆者を完全分析
  3. 3Clay(クレイ)とは?評価額31億ドルのGTMオートメーションを完全解説
  4. 4a16z(エーシックスティーンゼット)とは?読み方・投資先・特徴を解説
  5. 5イーロン・マスクが語る2026年AGI実現とユニバーサル高所得の未来

この記事をシェア

B!

LangChain を今読むなら、企業スナップショットや人気指標の話よりも先に、どのレイヤーが何を担当するのか を切り分ける方が実務的です。

現行の公式 docs では、LangChain は agent を素早く組み始めるための framework、LangGraph は長時間・状態付きの orchestration runtime、LangSmith は observability と eval、Deep Agents はそれらを束ねた batteries-included な harness として整理されています。

最初に押さえたい current state の見方

  • 現行 docs は、まず Deep Agents、より細かく組みたいなら LangChain、さらに低レイヤー制御が必要なら LangGraph という順で読むことを勧めています
  • API surface は継続的に整理されているため、古い notebook や blog post の import をそのまま信じず、現行の公式 docs と migration guide を優先してください
  • durable な価値は、人気指標ではなく agent loop、middleware、state persistence、human approval、eval loop の設計にあります

本記事の表記について

  • 下線付きの用語にカーソルを合わせると解説が表示されます
  • 料金、提供形態、deployment surface は変わりうるため、採用前に現行の公式 docs と pricing page を確認してください
“

関連記事: 軽量な handoff 設計から見たい場合は OpenAI Swarmとは?Agent と Handoff で学ぶ軽量マルチエージェント設計 も参考になります。


この記事でわかること

  1. LangChain stack の読み方: LangChain、LangGraph、LangSmith、Deep Agents の役割差分
  2. 実装の分岐点: どこまでを LangChain で済ませ、どこから LangGraph を意識すべきか
  3. 導入前の確認事項: persistence、human-in-the-loop、eval、legacy API の見極め方

基本情報

項目内容
トピックLangChain ecosystem の current guide
主な一次情報LangChain docs、LangGraph docs、LangSmith docs、LangChain GitHub
中核レイヤーLangChain、LangGraph、LangSmith、Deep Agents
向いている読み方役割分担、state 管理、運用境界を整理する導入ガイド
先に見るべき論点agent loop、middleware、checkpoints、thread_id、tracing、eval
LangChainエコシステムLangChainエコシステム

LangChain を今読む価値は「1つの名前に全部載せない」こと

古い LangChain 記事が読みづらくなる理由は、framework、runtime、deployment、quality review を全部「LangChain」という1語で説明してしまうからです。

現行 docs は、ここをかなり明確に分けています。

  • Deep Agents: planning、subagents、file systems、long-term memory を同梱した最短の入口
  • LangChain: prebuilt agent architecture と model / tool integrations
  • LangGraph: long-running で stateful な agent orchestration runtime
  • LangSmith: tracing、monitoring、eval、deployment の運用面

この切り分けを先に理解しておくと、「簡単に始めたい」の話と「本番で止まらずに再開したい」の話を混同しなくなります。


まず切り分けたい 4 つのレイヤー

レイヤー何を担当するかどんなときに使うか
Deep Agentsplanning、subagents、virtual filesystem、long-term memory をまとめた harnessまず複雑な agent を最短で動かしたい
LangChainagent loop、models、tools、messages、middlewarecustom agent を比較的高い抽象度で作りたい
LangGraphdurable execution、persistence、interrupts、memory、subgraphs長時間実行、approval、state 再開、細かい orchestration が必要
LangSmithtracing、dashboards、alerts、datasets、offline / online evalsdemo を超えて品質測定、回帰検知、運用観測を回したい

大事なのは、これらを全部同時に採用しなければならないわけではないことです。PoC なら LangChain だけで始めてもよいですし、既に独自 runtime があるなら LangSmith だけで observability を入れる選択もあります。


LangChain の中心は「agent loop と middleware」

LangChain overview は、LangChain を prebuilt agent architecture と integrations for any model or tool を備えた open source framework と説明しています。要するに、最初の価値は「複雑な graph を自作する前に、tool-calling agent を短いコードで組める」ことです。

現行 docs の最小例は次のような形です。

from langchain.agents import create_agent


def get_weather(city: str) -> str:
    return f"It's always sunny in {city}!"


agent = create_agent(
    model="anthropic:claude-sonnet-4-6",
    tools=[get_weather],
    system_prompt="You are a helpful assistant",
)

このレイヤーで整理したいのは、派手な benchmark ではなく次の 4 点です。

  1. model をどう差し替えるか
  2. tool をどの責務単位で許可するか
  3. messages と short-term memory をどう扱うか
  4. middleware でどこまで制御を差し込むか

middleware が「実務で LangChain を使う」入口になる

middleware docs では、LangChain の middleware を agent 実行の各段階を制御する仕組みとして説明しています。logging、tool selection、retries、fallbacks、rate limits、PII detection、human approval を agent loop の中に差し込めるのがポイントです。

from langchain.agents import create_agent
from langchain.agents.middleware import (
    HumanInTheLoopMiddleware,
    SummarizationMiddleware,
)


agent = create_agent(
    model="openai:gpt-4.1",
    tools=[search_docs, send_email],
    middleware=[
        SummarizationMiddleware(...),
        HumanInTheLoopMiddleware(...),
    ],
)

LangChain を単なる「便利 wrapper」としてではなく、tool 実行の境界をどこに置くかを制御する層 と見ると、採用判断がかなり現実的になります。


LangGraph が必要になる瞬間は「state を止めて再開したい」とき

LangGraph overview は、LangGraph を long-running, stateful agents のための low-level orchestration framework と説明しています。ここで重要なのは、「高機能だから使う」ではなく、途中停止、再開、分岐、承認、履歴追跡 が必要になったら必要になる、ということです。

LangGraph docs で繰り返し出てくるキーワードは次の通りです。

  • durable execution
  • persistence
  • interrupts
  • memory
  • subgraphs
  • thread_id

persistence を理解すると production の論点が見える

persistence docs では、graph state を step ごとに checkpoint として保存し、thread 単位で履歴を管理する仕組みが中心に置かれています。これにより次が可能になります。

  1. human-in-the-loop: 人間が途中で state を確認し、承認して再開する
  2. memory: 同じ thread に対して会話や実行状態を保持する
  3. time travel: 過去の checkpoint から replay する
  4. fault tolerance: 失敗後に最後の成功地点から再開する

つまり LangGraph では、agent は「毎回ゼロから考える関数」ではなく、thread と checkpoints を持った runtime 上の process として扱われます。

interrupt は human approval を後付けせずに設計できる

interrupt docs の実例では、interrupt() を呼ぶと graph execution が停止し、state が保存され、外部入力を受け取ってから Command(resume=...) で再開できます。

from langgraph.types import Command, interrupt


def approval_node(state):
    approved = interrupt("Do you approve this action?")
    return {"approved": approved}


config = {"configurable": {"thread_id": "thread-1"}}
graph.invoke({"input": "draft"}, config=config)
graph.invoke(Command(resume=True), config=config)

この仕組みから読み取れる設計原則は明快です。

  • 危険な side effect の前で止める
  • 同じ thread_id で再開する
  • interrupt 前の処理は再実行されうるので idempotent にする

LangChain で prototype が作れても、本番の approval workflow や長時間タスクで詰まるのはこのあたりです。


Deep Agents は「全部自分で wiring したくない」チーム向けの入口

Deep Agents overview では、Deep Agents を planning、file systems、subagent-spawning、long-term memory を備えた agent harness と位置づけています。LangChain の agent loop を核にしつつ、LangGraph runtime 上で durable execution や human-in-the-loop を利用する構成です。

ここからわかるのは、Deep Agents は LangChain の代替というより、LangChain の上に置く実装済みの運用ひな形 だということです。

Deep Agents が向くケース

  • task planning を最初から built-in で使いたい
  • subagent を責務単位で切って context を分離したい
  • file system や long conversation compression を最初から持ち込みたい
  • coding agent や research agent のような multi-step task をすぐ試したい

それでも LangGraph を知っておいた方がよい理由

Deep Agents を使っても、最終的に見るべき論点は消えません。

  • permission をどこで掛けるか
  • human approval をどの action に置くか
  • state をどの単位で thread 化するか
  • subagent 間で何を共有し、何を共有しないか

batteries-included で始めても、production で問われるのは結局 責務分割、state 境界、tool 権限 です。

Deep Agents階層構造Deep Agents階層構造

LangSmith は「動く」を「測れる」に変える

LangSmith observability docs は、tracing、view traces、dashboards、alerts、automations、feedback collection を中心機能として整理しています。LangSmith の eval docs は、offline eval と online eval を分けて、dataset、evaluators、experiments、feedback loop を回す流れを説明しています。

ここでの本質は、LangSmith を「ログ可視化ツール」とだけ見ないことです。

observability で見るべきもの

  • trace: どの prompt、model、tool call で失敗したか
  • monitoring: latency、error、quality drift をどう追うか
  • alerts / automations: 閾値超過や evaluator 結果をどう通知するか
  • feedback: 人手レビューをどう次の dataset に戻すか

eval で見るべきもの

  1. offline eval: curated dataset で比較し、回帰を先に見つける
  2. online eval: 実運用 traffic 上で quality と safety を監視する
  3. feedback loop: 失敗 trace を dataset に戻し、evaluators を更新して再検証する

多くのチームが agent 導入で詰まるのは、「いい demo が出る」までは速い一方で、「悪化をどう検知するか」が未設計なまま本番へ行くからです。LangSmith を読む価値はまさにそこにあります。


current docs から見える本当の難所は legacy API との距離

LangChain v1 docs は、create_agent を標準の入口に寄せ、langchain namespace を agent building に集中させ、古い chains や retrievers などの legacy 機能を langchain-classic へ移したことを明示しています。

これは重要です。なぜなら、LangChain の学習コストの多くは「難しい理論」ではなく、古い sample と current docs の距離 から生まれるからです。

まず確認したい migration の観点

確認項目なぜ重要か
create_agent かcurrent docs の基本導線に乗れているかを判断しやすい
langchain-classic 依存旧 tutorial 由来の code path が混ざっていないか確認できる
tool 権限危険な action を middleware や approval で止められるか
thread_id 設計run 再開、memory、human review をどう紐づけるかが決まる
tracing / eval失敗例を trace と dataset に戻せるか

旧い例をそのまま採用しない方がよい理由

旧記事や notebook には、LLMChain、旧 OpenAI wrapper、古い retrieval API を中心にした例が今も多く残っています。これらが即座に無価値というわけではありませんが、今から新規導入するなら、現行 docs が何を標準としているか を優先した方が運用しやすくなります。


LangChain を選ぶかどうかは「機能数」ではなく運用境界で決める

比較表だけで選ぶと、LangChain はたいてい「高機能だが複雑」と要約されます。ですが実務では、もっと具体的な問いの方が役に立ちます。

LangChain が向くケース

  • tool-calling agent を短いコードで立ち上げたい
  • provider をまたぐ model integration をまとめたい
  • middleware で guardrails、fallbacks、human approval を入れたい
  • 将来的に LangGraph や LangSmith へ拡張する余地を残したい

LangGraph を先に意識すべきケース

  • 長時間実行タスクを途中再開したい
  • review / approval を step の途中に入れたい
  • state 履歴や replay が必要
  • 複数ノードや subgraph の実行順・分岐を細かく制御したい

Deep Agents から入るとよいケース

  • planning や subagent を最初から使う
  • coding / research の multi-step workflow をすぐ試したい
  • file handling や long context management も含めて最短で触りたい

FAQ

Q1. LangChain は無料で使えますか?

LangChain と LangGraph は open source として公開されています。LangSmith や managed deployment の料金・プランは変わりうるため、採用前に current pricing page を確認するのが安全です。

Q2. まず LangChain と LangGraph のどちらから始めるべきですか?

まず agent を早く組みたいなら LangChain、途中停止や再開、approval、stateful workflow を最初から強く意識するなら LangGraph です。現行 docs は、さらに簡単な入口として Deep Agents も用意しています。

Q3. 古い LangChain 記事と今の docs が噛み合わないのはなぜですか?

LangChain v1 で入口と namespace がかなり整理され、legacy 機能の一部が langchain-classic に移ったためです。現行 docs の create_agent と migration guide を基準に読むと整理しやすくなります。

Q4. human-in-the-loop は LangChain だけで足りますか?

軽い approval なら middleware で表現できますが、途中停止した state を保存して後で再開する ところまで必要なら LangGraph の interrupts と persistence を理解した方が安全です。

Q5. eval は本当に必要ですか?

必要です。agent は prompt、tool、model、data source の組み合わせで品質が揺れやすく、offline / online の両面で見ないと regressions を見落としやすくなります。LangSmith docs は、この feedback loop をかなり具体的に整理しています。

Q6. LangChain を一言で言うと何ですか?

agent loop を素早く組み始めるための高レベル framework です。ただし本番運用まで見据えるなら、LangGraph の state 管理と LangSmith の observability / eval をどこで併用するかまで含めて設計した方が失敗しにくくなります。


まとめ

LangChain を今読む価値は、かつての headline story をなぞることではなく、agent stack の責務分解 を学べる点にあります。

主要ポイント

  1. LangChain は agent loop と middleware の入口
  2. LangGraph は persistence、interrupts、thread_id を持つ runtime
  3. Deep Agents は planning と subagent を同梱した harness
  4. LangSmith は trace、eval、feedback loop を回す運用面
  5. 難所は人気指標ではなく、legacy API と current docs の距離 にある

次のステップ

  • LangChain overview と LangChain v1 docs を読み、create_agent と middleware の current API を確認する
  • approval や long-running task があるなら、LangGraph の persistence / interrupts docs まで続けて読む
  • deployment 前に LangSmith の tracing と eval を入れ、dataset と feedback loop を先に作る

関連記事

  • OpenAI Swarmとは?Agent と Handoff で学ぶ軽量マルチエージェント設計
  • AIエージェント論文・仕様おすすめ9選

参考リソース

公式 docs

  • LangChain overview
  • What’s new in LangChain v1
  • LangChain middleware overview
  • LangGraph overview
  • LangGraph persistence
  • LangGraph interrupts
  • Deep Agents overview
  • LangSmith Observability
  • LangSmith pricing

リポジトリ

  • LangChain GitHub

本記事はネクサフローのAI研究シリーズの一部です。

この記事の著者

中村 知良

中村 知良

代表取締役

早稲田大学卒業後、ソフトバンク株式会社にてAI活用やCEO直下案件のプロジェクトマネージャーに従事。その後、不動産スタートアップPit in株式会社の創業、他スタートアップでの業務改善・データ活用を経験後、2023年10月、株式会社ネクサフローを創業し代表取締役CEO就任。

この記事をシェア

XFacebookはてなLinkedIn

次に読む

あわせて読みたい

Swarm解説: AgentとHandoffで学ぶ軽量マルチエージェント設計

Swarm解説: AgentとHandoffで学ぶ軽量マルチエージェント設計

Swarm は、Agent と handoff を最小単位にした lightweight な multi-agent orchestration の実験実装です。本記事では popularity や年次の話ではなく、README とサンプルから読み取れる責務分割、context_variables の扱い、運用へ持ち込む前に確認すべき論点を整理します。

2026/04/15
AI業務自動化データ分析
AIエージェント開発に役立つ一次文献11選|基礎論文から最新仕様まで

AIエージェント開発に役立つ一次文献11選|基礎論文から最新仕様まで

AIエージェント開発を理解するために参照したい一次文献11本を厳選。Transformer、CoT、ReAct などの基礎論文に加え、Computer Use、Swarm、MCP、A2A といった公式実装・仕様も含めて、設計・評価・運用の観点から読み方を整理します。

2026/01/18
AI新技術革新

まずは無料相談・資料請求

AIやDXの導入について、具体的な進め方や費用対効果など、まずはお気軽にご相談ください。貴社の状況に合わせた最適なプランをご提案します。

お問い合わせ

お気軽にご相談ください