Nexaflow
サービス導入事例ブログ勉強会会社情報
資料請求お問い合わせ

Nexaflow

社会を支える人々と伴に、
未来の希望を創る

サービス

  • プライシング戦略支援
  • Nexalog
  • AIトランスフォーメーション

会社情報

  • 会社概要
  • ミッション
  • メンバー

リソース

  • ブログ
  • 導入事例
  • お知らせ
  • 資料ダウンロード

© 2026 Nexaflow Inc. All rights reserved.

利用規約プライバシーポリシー
ホーム/対談・インタビュー/OpenAI Greg Brockman『人間の注意が新しいボトルネックになる』
対談・インタビュー

OpenAI Greg Brockman『人間の注意が新しいボトルネックになる』

12分で読める|2026/05/09|
AIOpenAIAGIAIエージェント組織設計

この記事の要約

OpenAIのGreg Brockmanが語る、AIの制約がcomputeからhuman attentionへ移るという見立てを、能力供給、プロダクト化、人間の判断、組織のattention設計として整理する。

AI・DX活用について相談する

最適なプランをご提案します。

お問い合わせ資料ダウンロード

よく読まれている記事

  1. 1【完全解説】Claude Coworkとは?非エンジニア向けAIエージェントの使い方・活用例
  2. 2Ada徹底解説:ARR成長率108%、ノーコードAIエージェントの先駆者を完全分析
  3. 3Clay(クレイ)とは?評価額31億ドルのGTMオートメーションを完全解説
  4. 4a16z(エーシックスティーンゼット)とは?読み方・投資先・特徴を解説
  5. 5イーロン・マスクが語る2026年AGI実現とユニバーサル高所得の未来

この記事をシェア

B!

Greg Brockmanの対談は、computeの話から始まる。OpenAIのような企業にとって、計算資源の確保は事業の根幹である。しかしこの対談の面白さは、computeだけでは終わらない点にある。

モデル能力が上がり、利用可能なAIの量が増えるほど、次に詰まるのは人間の注意である。何を試すか、何を信じるか、何を止めるか、どの出力を採用するか。AIが増やす選択肢を、人間が処理しきれなくなる。

本記事では、Brockmanの議論を、compute、能力供給、human attention bottleneck、AGI実装、組織設計に分けて整理する。

“

この記事は OpenAI's Greg Brockman: Why Human Attention Is the New BottleneckOpenAI's の内容を基に、2026-05-09 取得の英語字幕から再構成している。

本記事の前提

  • 直訳ではなく、対談・講演の主張をトピック別に再構成している
  • 動画内の主張と、記事側の実務的な補足・解釈を分けて整理している
  • Sequoia AI Ascent 2026 の関連動画群を横断して読めるよう、関連記事も最後にまとめている

読む前の補助線

この動画を読むときの中心問いは「モデル能力が伸びた後、人間の注意はどこで詰まるのか」である。動画内では会話の流れに沿って論点が移るが、記事化するときは順番をそのまま追うより、AIプロダクトを導入・運用する経営者、PdM、開発組織が判断に使える単位へ並べ替えた方が理解しやすい。

特に注意したいのは、「human attention bottleneck」を大きな流行語として受け取らないことだ。今回の対談で価値があるのは、未来予測そのものより、どの条件が変わり、どの責任が残り、どの組織能力を先に作るべきかが見えてくる点にある。

逆に読み違えると、computeやモデル性能だけを追い、人間の判断、評価、採用、制度設計を後回しにすることが起きる。だから本記事では、動画の発言を単純な時系列ではなく、テーマごとに整理しながら、人間の注意配分、評価ループ、実験優先順位、意思決定の設計へ接続して読む。AIで候補案を増やすほど、人間が何を見て、何を見ないかを明示しないと組織は詰まる。

また、この一本だけで閉じて読むより、Sequoia AI Ascent 2026の他セッションと並べると位置づけがはっきりする。ある動画はモデル能力を語り、別の動画は開発組織やロボティクス、インフラ、運用を語る。本記事ではその中で、Greg Brockmanの発言がどの論点を担っているのかを明確にする。


Computeはまだ重要だが、唯一の制約ではなくなる

Brockmanの対談は、computeの重要性から始まる。AI企業にとって、計算資源はモデル能力、提供速度、競争力を左右する。

AI能力の供給チェーンAI能力の供給チェーン

まず押さえるべきは、この章の話が単独の予測ではなく「モデル能力が伸びた後、人間の注意はどこで詰まるのか」という問いの入り口になっている点である。何が新しくなったのかと同時に、何をまだ人間側で設計しなければならないのかを分けて読む。

computeはAI能力の供給源である。

学習にも推論にも計算資源が必要であり、需要が伸びるほど、どれだけ確保できるかが事業上の制約になる。

OpenAIがcompute確保に積極的である理由は、モデル開発だけでなく、顧客に能力を供給するためでもある。

実務では、この主張を「何が可能になったか」だけで終わらせない方がよい。AIで候補案を増やすほど、人間が何を見て、何を見ないかを明示しないと組織は詰まる。そう読むと、この論点は新機能の紹介ではなく、次に整えるべき開発・事業プロセスの話になる。

しかしcomputeを増やしても、価値に変換するには別の工程がある。

モデルを訓練し、推論基盤に載せ、プロダクトにし、ユーザーのワークフローへ接続し、フィードバックを得る必要がある。

計算資源は必要条件だが、十分条件ではない。AI能力を価値に変えるには、プロダクトと組織の設計が要る。

AIプロダクトを導入・運用する経営者、PdM、開発組織にとって重要なのは、この変化を個人の工夫で吸収しないことである。人間の注意配分、評価ループ、実験優先順位、意思決定の設計を組織の標準に近づけるほど、同じモデルやツールを使っても成果の安定度が変わる。

能力供給が増えるほど、人間が処理すべき判断も増える。

AIが多くの案を出し、多くの作業を進めるほど、どれを採用し、どれを止め、どれを改善するかを決める必要がある。

ここからhuman attention bottleneckの問題が見えてくる。

ここで焦点を外すと、computeやモデル性能だけを追い、人間の判断、評価、採用、制度設計を後回しにすることにつながる。だからこの論点は、動画内の一発言ではなく、意思決定の前提を点検する材料として読む方がよい。

computeはAI時代の基礎インフラであり続ける。しかし、computeを能力に変え、その能力を価値に変える過程で、人間の注意が新しい制約になる。


Human Attention Bottleneckとは何か

human attention bottleneckとは、AIができることの量に対して、人間が見る、判断する、責任を持つ能力が追いつかなくなる現象である。

Compute Bottleneck から Attention Bottleneck へCompute Bottleneck から Attention Bottleneck へ

ここでは「human attention bottleneck」を、抽象的なキーワードではなく実務上の判断材料として扱う。動画の順番に沿って理解するより、AI活用・組織設計で起きる責任分担の変化として見る方が、論点の重みがつかみやすい。

AIは選択肢を爆発的に増やす。

企画案、コード差分、調査結果、顧客対応、実験計画。AIは短時間で大量の候補を出せる。

候補が増えるほど、ボトルネックは生成ではなく選択になる。

AIプロダクトを導入・運用する経営者、PdM、開発組織にとって重要なのは、この変化を個人の工夫で吸収しないことである。人間の注意配分、評価ループ、実験優先順位、意思決定の設計を組織の標準に近づけるほど、同じモデルやツールを使っても成果の安定度が変わる。

人間の注意はスケールしにくい。

人間は同時に見られる量に限界がある。疲労し、判断がぶれ、重要な例外を見落とす。

AI活用組織では、すべてを人間が見る設計は破綻する。どこを自動化し、どこを人間へ上げるかの設計が必要である。

ここで焦点を外すと、computeやモデル性能だけを追い、人間の判断、評価、採用、制度設計を後回しにすることにつながる。だからこの論点は、動画内の一発言ではなく、意思決定の前提を点検する材料として読む方がよい。

attention bottleneckは、レビューだけでなく方向づけでも起きる。

AIに何をさせるか、どの実験を優先するか、どの顧客課題を解くか。上流の判断も人間の注意を消費する。

AI時代の組織課題は、作業の自動化だけでなく、意思決定の集中と分散をどう設計するかである。

実務では、この主張を「何が可能になったか」だけで終わらせない方がよい。AIで候補案を増やすほど、人間が何を見て、何を見ないかを明示しないと組織は詰まる。そう読むと、この論点は新機能の紹介ではなく、次に整えるべき開発・事業プロセスの話になる。

AIが増やすのは生産量だけではない。判断すべきものの量も増やす。ここを設計しないと、AI導入は人間の認知負荷を増やすだけになる。


人間の注意が詰まるポイントを設計する

attention bottleneckを避けるには、人間が見るべき場所を選ぶ必要がある。すべてをレビューするのではなく、重要な分岐点を設計する。

人間の注意が詰まる場所人間の注意が詰まる場所

この章の論点は、技術の優劣だけでは完結しない。人間の注意配分、評価ループ、実験優先順位、意思決定の設計をどう整えるかまで含めて読むと、対談の発言がそのまま組織設計やプロダクト設計の宿題に変わる。

まず、AIに任せてよい仕事と、人間に上げる仕事を分類する。

低リスクで検証可能な作業は自動化しやすい。一方、顧客影響、法務、セキュリティ、ブランドに関わる判断は人間に上げるべきである。

AI導入の最初の設計は、ユースケース一覧ではなく、エスカレーション設計である。

ここで焦点を外すと、computeやモデル性能だけを追い、人間の判断、評価、採用、制度設計を後回しにすることにつながる。だからこの論点は、動画内の一発言ではなく、意思決定の前提を点検する材料として読む方がよい。

次に、評価基準をAIと人間で共有する。

人間が何を見て判断しているのかが曖昧だと、AIはよい候補を出せない。評価基準を明文化すれば、AIも前処理できる。

レビュー観点、品質基準、NG条件をドキュメント化するほど、人間の注意は高い判断へ集中できる。

実務では、この主張を「何が可能になったか」だけで終わらせない方がよい。AIで候補案を増やすほど、人間が何を見て、何を見ないかを明示しないと組織は詰まる。そう読むと、この論点は新機能の紹介ではなく、次に整えるべき開発・事業プロセスの話になる。

最後に、例外だけを人間に届ける仕組みを作る。

人間が全件を見るのではなく、不確実性が高いもの、ルールに反するもの、顧客影響が大きいものを上げる。

AI時代のマネジメントは、人間が見るべき例外を設計する仕事になる。

AIプロダクトを導入・運用する経営者、PdM、開発組織にとって重要なのは、この変化を個人の工夫で吸収しないことである。人間の注意配分、評価ループ、実験優先順位、意思決定の設計を組織の標準に近づけるほど、同じモデルやツールを使っても成果の安定度が変わる。

attention bottleneckは根性で解けない。組織のワークフローとして、人間の注意を配分する必要がある。


AGIに近づくほど、feedback loopが重要になる

Brockmanの議論では、AGIの定義そのものより、能力をどのように使い、観察し、改善するかが重要になる。

AGI実装のFeedback LoopAGI実装のFeedback Loop

ここで見たいのは、話者の断言の強さよりも、その断言が成り立つ条件である。computeやモデル性能だけを追い、人間の判断、評価、採用、制度設計を後回しにすることを避けるには、便利になった部分と、むしろ重くなる判断を分ける必要がある。

能力は、利用されて初めて社会的価値になる。

モデルが高性能でも、ユーザーが仕事に組み込めなければ価値は出ない。逆に、ほどほどの能力でも、ワークフローに深く入れば価値は大きい。

AI企業は、モデル性能だけでなく、利用から学ぶループを持つ必要がある。

実務では、この主張を「何が可能になったか」だけで終わらせない方がよい。AIで候補案を増やすほど、人間が何を見て、何を見ないかを明示しないと組織は詰まる。そう読むと、この論点は新機能の紹介ではなく、次に整えるべき開発・事業プロセスの話になる。

feedback loopには人間の判断が入る。

どの失敗が重要か、どの改善を優先すべきか、どのリスクを許容しないかは、人間が決める。

ここでもattention bottleneckが現れる。改善ループが速くなるほど、人間の判断も速く整理する必要がある。

AIプロダクトを導入・運用する経営者、PdM、開発組織にとって重要なのは、この変化を個人の工夫で吸収しないことである。人間の注意配分、評価ループ、実験優先順位、意思決定の設計を組織の標準に近づけるほど、同じモデルやツールを使っても成果の安定度が変わる。

AGI実装は、能力と責任のループである。

AIが自律的に動くほど、観察、評価、介入、改善の仕組みが不可欠になる。

AGIをプロダクトにするとは、賢いモデルを置くことではなく、賢いモデルを安全に学習・運用するループを作ることである。

ここで焦点を外すと、computeやモデル性能だけを追い、人間の判断、評価、採用、制度設計を後回しにすることにつながる。だからこの論点は、動画内の一発言ではなく、意思決定の前提を点検する材料として読む方がよい。

AGIに近い能力ほど、単発の成功では評価できない。継続的なfeedback loopとして設計する必要がある。


組織はattention allocationを経営課題として扱うべきである

human attention bottleneckは、現場の効率化問題ではなく、経営課題である。どこに人間の注意を配るかが、AI活用の成果を左右する。

組織のAttention Allocation組織のAttention Allocation

AIプロダクトを導入・運用する経営者、PdM、開発組織にとって、この章は採用すべきツール名を決める話ではない。AIで候補案を増やすほど、人間が何を見て、何を見ないかを明示しないと組織は詰まる。 その視点で読むと、動画内の具体例が次の運用設計につながる。

AI導入で最初に増えるのは、出力と通知である。

多くの組織では、AIが作った文書、分析、コード、提案が増える。しかし、それを読む人間の時間は増えない。

通知と成果物が増えるだけのAI導入は、組織を遅くする可能性がある。

AIプロダクトを導入・運用する経営者、PdM、開発組織にとって重要なのは、この変化を個人の工夫で吸収しないことである。人間の注意配分、評価ループ、実験優先順位、意思決定の設計を組織の標準に近づけるほど、同じモデルやツールを使っても成果の安定度が変わる。

リーダーは、人間が見るべきものを減らす必要がある。

重要でないレビュー、低リスクの承認、形式的な確認は、AIやルールに任せるべきである。

人間の注意は、例外、戦略判断、顧客影響、倫理・安全の判断へ集中させるべきである。

ここで焦点を外すと、computeやモデル性能だけを追い、人間の判断、評価、採用、制度設計を後回しにすることにつながる。だからこの論点は、動画内の一発言ではなく、意思決定の前提を点検する材料として読む方がよい。

attention allocationは、AI時代の組織設計そのものである。

誰がどのAI出力を見るのか、どの条件でエスカレーションするのか、どこまで自動で進めるのか。

これを設計できる組織ほど、AIの能力を人間の意思決定へ変換できる。

実務では、この主張を「何が可能になったか」だけで終わらせない方がよい。AIで候補案を増やすほど、人間が何を見て、何を見ないかを明示しないと組織は詰まる。そう読むと、この論点は新機能の紹介ではなく、次に整えるべき開発・事業プロセスの話になる。

AI時代のボトルネックは、AIが足りないことだけではない。人間が見るべきものを選べないことも、同じくらい大きな制約になる。


この対談からAI活用組織は何を学ぶべきか

Brockmanの対談から得られる学びは、computeを軽視してよいという話ではない。computeで能力が増えるほど、人間の注意をどう配るかが重要になるという話である。

最後に重要なのは、学びを一般論で終わらせないことである。この章の主張を「明日から何を変えるか」へ落とすなら、人間の注意配分、評価ループ、実験優先順位、意思決定の設計を点検することが出発点になる。

第一に、AI出力を増やす前に、評価設計を作ること。

出力が増えても、評価できなければ意思決定は速くならない。

AI導入のKPIは、生成数ではなく、判断時間の短縮や品質向上で見るべきである。

ここで焦点を外すと、computeやモデル性能だけを追い、人間の判断、評価、採用、制度設計を後回しにすることにつながる。だからこの論点は、動画内の一発言ではなく、意思決定の前提を点検する材料として読む方がよい。

第二に、人間のレビューを高リスク領域へ集中させること。

すべてを人間が見る設計はスケールしない。低リスク領域は自動化し、例外だけを上げる必要がある。

エスカレーション設計は、AI活用の中核である。

実務では、この主張を「何が可能になったか」だけで終わらせない方がよい。AIで候補案を増やすほど、人間が何を見て、何を見ないかを明示しないと組織は詰まる。そう読むと、この論点は新機能の紹介ではなく、次に整えるべき開発・事業プロセスの話になる。

第三に、リーダーはattentionの配分者になること。

AIができることが増えるほど、何をやらないか、何を見ないかを決める必要がある。

AI時代のリーダーシップは、人間の注意を最も価値の高い判断へ向ける能力である。

AIプロダクトを導入・運用する経営者、PdM、開発組織にとって重要なのは、この変化を個人の工夫で吸収しないことである。人間の注意配分、評価ループ、実験優先順位、意思決定の設計を組織の標準に近づけるほど、同じモデルやツールを使っても成果の安定度が変わる。

human attention bottleneckは、AIの限界ではなく、人間側の設計課題である。AIを使い切る組織は、人間の注意を設計する組織である。


関連記事

  • Sequoia基調講演『This is AGI』
  • OpenAI GTM sales hiring
  • AI revenue reality
  • Agentic Engineering

この記事の著者

中村 知良

中村 知良

代表取締役

早稲田大学卒業後、ソフトバンク株式会社にてAI活用やCEO直下案件のプロジェクトマネージャーに従事。その後、不動産スタートアップPit in株式会社の創業、他スタートアップでの業務改善・データ活用を経験後、2023年10月、株式会社ネクサフローを創業し代表取締役CEO就任。

この記事をシェア

XFacebookはてなLinkedIn

次に読む

あわせて読みたい

Sequoia AI Ascent 2026 Keynote『This is AGI』を読む

Sequoia AI Ascent 2026 Keynote『This is AGI』を読む

Sequoia AI Ascent 2026の基調講演『This is AGI』を、定義争いではなく、reasoning、test-time compute、long-horizon agents、労働市場への拡張として読み解く。

2026/05/09
AIAGISequoia
OpenAI GTMリーダーが明かす営業採用の極意「責任転嫁」の赤信号

OpenAI GTMリーダーが明かす営業採用の極意「責任転嫁」の赤信号

OpenAI GTMリーダーがSaaStrポッドキャストで語った営業採用の極意。面接で責任転嫁を見抜く方法、初期GTM組織の作り方、コミッション不要の文化、100%成功率のパイロットプログラムの秘訣を、公開情報の範囲で整理します。

2026/01/16
AIビジネス
AI収益は「実験費」か「運用費」か?企業導入で見るべき境界線

AI収益は「実験費」か「運用費」か?企業導入で見るべき境界線

AI収益を headline の大きさではなく、実験費と運用費の境界線で見極める方法を解説。コーディング支援が先行しやすい理由と、企業が確認すべき source of truth・承認境界・効果測定を整理します。

2026/03/14
AI活用生成AI

まずは無料相談・資料請求

AIやDXの導入について、具体的な進め方や費用対効果など、まずはお気軽にご相談ください。貴社の状況に合わせた最適なプランをご提案します。

お問い合わせ

お気軽にご相談ください