この記事の要約
OpenAIのGreg Brockmanが語る、AIの制約がcomputeからhuman attentionへ移るという見立てを、能力供給、プロダクト化、人間の判断、組織のattention設計として整理する。
Greg Brockmanの対談は、computeの話から始まる。OpenAIのような企業にとって、計算資源の確保は事業の根幹である。しかしこの対談の面白さは、computeだけでは終わらない点にある。
モデル能力が上がり、利用可能なAIの量が増えるほど、次に詰まるのは人間の注意である。何を試すか、何を信じるか、何を止めるか、どの出力を採用するか。AIが増やす選択肢を、人間が処理しきれなくなる。
本記事では、Brockmanの議論を、compute、能力供給、human attention bottleneck、AGI実装、組織設計に分けて整理する。
この記事は OpenAI's Greg Brockman: Why Human Attention Is the New BottleneckOpenAI's の内容を基に、
2026-05-09取得の英語字幕から再構成している。
本記事の前提
この動画を読むときの中心問いは「モデル能力が伸びた後、人間の注意はどこで詰まるのか」である。動画内では会話の流れに沿って論点が移るが、記事化するときは順番をそのまま追うより、AIプロダクトを導入・運用する経営者、PdM、開発組織が判断に使える単位へ並べ替えた方が理解しやすい。
特に注意したいのは、「human attention bottleneck」を大きな流行語として受け取らないことだ。今回の対談で価値があるのは、未来予測そのものより、どの条件が変わり、どの責任が残り、どの組織能力を先に作るべきかが見えてくる点にある。
逆に読み違えると、computeやモデル性能だけを追い、人間の判断、評価、採用、制度設計を後回しにすることが起きる。だから本記事では、動画の発言を単純な時系列ではなく、テーマごとに整理しながら、人間の注意配分、評価ループ、実験優先順位、意思決定の設計へ接続して読む。AIで候補案を増やすほど、人間が何を見て、何を見ないかを明示しないと組織は詰まる。
また、この一本だけで閉じて読むより、Sequoia AI Ascent 2026の他セッションと並べると位置づけがはっきりする。ある動画はモデル能力を語り、別の動画は開発組織やロボティクス、インフラ、運用を語る。本記事ではその中で、Greg Brockmanの発言がどの論点を担っているのかを明確にする。
Brockmanの対談は、computeの重要性から始まる。AI企業にとって、計算資源はモデル能力、提供速度、競争力を左右する。
AI能力の供給チェーンまず押さえるべきは、この章の話が単独の予測ではなく「モデル能力が伸びた後、人間の注意はどこで詰まるのか」という問いの入り口になっている点である。何が新しくなったのかと同時に、何をまだ人間側で設計しなければならないのかを分けて読む。
学習にも推論にも計算資源が必要であり、需要が伸びるほど、どれだけ確保できるかが事業上の制約になる。
OpenAIがcompute確保に積極的である理由は、モデル開発だけでなく、顧客に能力を供給するためでもある。
実務では、この主張を「何が可能になったか」だけで終わらせない方がよい。AIで候補案を増やすほど、人間が何を見て、何を見ないかを明示しないと組織は詰まる。そう読むと、この論点は新機能の紹介ではなく、次に整えるべき開発・事業プロセスの話になる。
モデルを訓練し、推論基盤に載せ、プロダクトにし、ユーザーのワークフローへ接続し、フィードバックを得る必要がある。
計算資源は必要条件だが、十分条件ではない。AI能力を価値に変えるには、プロダクトと組織の設計が要る。
AIプロダクトを導入・運用する経営者、PdM、開発組織にとって重要なのは、この変化を個人の工夫で吸収しないことである。人間の注意配分、評価ループ、実験優先順位、意思決定の設計を組織の標準に近づけるほど、同じモデルやツールを使っても成果の安定度が変わる。
AIが多くの案を出し、多くの作業を進めるほど、どれを採用し、どれを止め、どれを改善するかを決める必要がある。
ここからhuman attention bottleneckの問題が見えてくる。
ここで焦点を外すと、computeやモデル性能だけを追い、人間の判断、評価、採用、制度設計を後回しにすることにつながる。だからこの論点は、動画内の一発言ではなく、意思決定の前提を点検する材料として読む方がよい。
computeはAI時代の基礎インフラであり続ける。しかし、computeを能力に変え、その能力を価値に変える過程で、人間の注意が新しい制約になる。
human attention bottleneckとは、AIができることの量に対して、人間が見る、判断する、責任を持つ能力が追いつかなくなる現象である。
Compute Bottleneck から Attention Bottleneck へここでは「human attention bottleneck」を、抽象的なキーワードではなく実務上の判断材料として扱う。動画の順番に沿って理解するより、AI活用・組織設計で起きる責任分担の変化として見る方が、論点の重みがつかみやすい。
企画案、コード差分、調査結果、顧客対応、実験計画。AIは短時間で大量の候補を出せる。
候補が増えるほど、ボトルネックは生成ではなく選択になる。
AIプロダクトを導入・運用する経営者、PdM、開発組織にとって重要なのは、この変化を個人の工夫で吸収しないことである。人間の注意配分、評価ループ、実験優先順位、意思決定の設計を組織の標準に近づけるほど、同じモデルやツールを使っても成果の安定度が変わる。
人間は同時に見られる量に限界がある。疲労し、判断がぶれ、重要な例外を見落とす。
AI活用組織では、すべてを人間が見る設計は破綻する。どこを自動化し、どこを人間へ上げるかの設計が必要である。
ここで焦点を外すと、computeやモデル性能だけを追い、人間の判断、評価、採用、制度設計を後回しにすることにつながる。だからこの論点は、動画内の一発言ではなく、意思決定の前提を点検する材料として読む方がよい。
AIに何をさせるか、どの実験を優先するか、どの顧客課題を解くか。上流の判断も人間の注意を消費する。
AI時代の組織課題は、作業の自動化だけでなく、意思決定の集中と分散をどう設計するかである。
実務では、この主張を「何が可能になったか」だけで終わらせない方がよい。AIで候補案を増やすほど、人間が何を見て、何を見ないかを明示しないと組織は詰まる。そう読むと、この論点は新機能の紹介ではなく、次に整えるべき開発・事業プロセスの話になる。
AIが増やすのは生産量だけではない。判断すべきものの量も増やす。ここを設計しないと、AI導入は人間の認知負荷を増やすだけになる。
attention bottleneckを避けるには、人間が見るべき場所を選ぶ必要がある。すべてをレビューするのではなく、重要な分岐点を設計する。
人間の注意が詰まる場所この章の論点は、技術の優劣だけでは完結しない。人間の注意配分、評価ループ、実験優先順位、意思決定の設計をどう整えるかまで含めて読むと、対談の発言がそのまま組織設計やプロダクト設計の宿題に変わる。
低リスクで検証可能な作業は自動化しやすい。一方、顧客影響、法務、セキュリティ、ブランドに関わる判断は人間に上げるべきである。
AI導入の最初の設計は、ユースケース一覧ではなく、エスカレーション設計である。
ここで焦点を外すと、computeやモデル性能だけを追い、人間の判断、評価、採用、制度設計を後回しにすることにつながる。だからこの論点は、動画内の一発言ではなく、意思決定の前提を点検する材料として読む方がよい。
人間が何を見て判断しているのかが曖昧だと、AIはよい候補を出せない。評価基準を明文化すれば、AIも前処理できる。
レビュー観点、品質基準、NG条件をドキュメント化するほど、人間の注意は高い判断へ集中できる。
実務では、この主張を「何が可能になったか」だけで終わらせない方がよい。AIで候補案を増やすほど、人間が何を見て、何を見ないかを明示しないと組織は詰まる。そう読むと、この論点は新機能の紹介ではなく、次に整えるべき開発・事業プロセスの話になる。
人間が全件を見るのではなく、不確実性が高いもの、ルールに反するもの、顧客影響が大きいものを上げる。
AI時代のマネジメントは、人間が見るべき例外を設計する仕事になる。
AIプロダクトを導入・運用する経営者、PdM、開発組織にとって重要なのは、この変化を個人の工夫で吸収しないことである。人間の注意配分、評価ループ、実験優先順位、意思決定の設計を組織の標準に近づけるほど、同じモデルやツールを使っても成果の安定度が変わる。
attention bottleneckは根性で解けない。組織のワークフローとして、人間の注意を配分する必要がある。
Brockmanの議論では、AGIの定義そのものより、能力をどのように使い、観察し、改善するかが重要になる。
AGI実装のFeedback Loopここで見たいのは、話者の断言の強さよりも、その断言が成り立つ条件である。computeやモデル性能だけを追い、人間の判断、評価、採用、制度設計を後回しにすることを避けるには、便利になった部分と、むしろ重くなる判断を分ける必要がある。
モデルが高性能でも、ユーザーが仕事に組み込めなければ価値は出ない。逆に、ほどほどの能力でも、ワークフローに深く入れば価値は大きい。
AI企業は、モデル性能だけでなく、利用から学ぶループを持つ必要がある。
実務では、この主張を「何が可能になったか」だけで終わらせない方がよい。AIで候補案を増やすほど、人間が何を見て、何を見ないかを明示しないと組織は詰まる。そう読むと、この論点は新機能の紹介ではなく、次に整えるべき開発・事業プロセスの話になる。
どの失敗が重要か、どの改善を優先すべきか、どのリスクを許容しないかは、人間が決める。
ここでもattention bottleneckが現れる。改善ループが速くなるほど、人間の判断も速く整理する必要がある。
AIプロダクトを導入・運用する経営者、PdM、開発組織にとって重要なのは、この変化を個人の工夫で吸収しないことである。人間の注意配分、評価ループ、実験優先順位、意思決定の設計を組織の標準に近づけるほど、同じモデルやツールを使っても成果の安定度が変わる。
AIが自律的に動くほど、観察、評価、介入、改善の仕組みが不可欠になる。
AGIをプロダクトにするとは、賢いモデルを置くことではなく、賢いモデルを安全に学習・運用するループを作ることである。
ここで焦点を外すと、computeやモデル性能だけを追い、人間の判断、評価、採用、制度設計を後回しにすることにつながる。だからこの論点は、動画内の一発言ではなく、意思決定の前提を点検する材料として読む方がよい。
AGIに近い能力ほど、単発の成功では評価できない。継続的なfeedback loopとして設計する必要がある。
human attention bottleneckは、現場の効率化問題ではなく、経営課題である。どこに人間の注意を配るかが、AI活用の成果を左右する。
組織のAttention AllocationAIプロダクトを導入・運用する経営者、PdM、開発組織にとって、この章は採用すべきツール名を決める話ではない。AIで候補案を増やすほど、人間が何を見て、何を見ないかを明示しないと組織は詰まる。 その視点で読むと、動画内の具体例が次の運用設計につながる。
多くの組織では、AIが作った文書、分析、コード、提案が増える。しかし、それを読む人間の時間は増えない。
通知と成果物が増えるだけのAI導入は、組織を遅くする可能性がある。
AIプロダクトを導入・運用する経営者、PdM、開発組織にとって重要なのは、この変化を個人の工夫で吸収しないことである。人間の注意配分、評価ループ、実験優先順位、意思決定の設計を組織の標準に近づけるほど、同じモデルやツールを使っても成果の安定度が変わる。
重要でないレビュー、低リスクの承認、形式的な確認は、AIやルールに任せるべきである。
人間の注意は、例外、戦略判断、顧客影響、倫理・安全の判断へ集中させるべきである。
ここで焦点を外すと、computeやモデル性能だけを追い、人間の判断、評価、採用、制度設計を後回しにすることにつながる。だからこの論点は、動画内の一発言ではなく、意思決定の前提を点検する材料として読む方がよい。
誰がどのAI出力を見るのか、どの条件でエスカレーションするのか、どこまで自動で進めるのか。
これを設計できる組織ほど、AIの能力を人間の意思決定へ変換できる。
実務では、この主張を「何が可能になったか」だけで終わらせない方がよい。AIで候補案を増やすほど、人間が何を見て、何を見ないかを明示しないと組織は詰まる。そう読むと、この論点は新機能の紹介ではなく、次に整えるべき開発・事業プロセスの話になる。
AI時代のボトルネックは、AIが足りないことだけではない。人間が見るべきものを選べないことも、同じくらい大きな制約になる。
Brockmanの対談から得られる学びは、computeを軽視してよいという話ではない。computeで能力が増えるほど、人間の注意をどう配るかが重要になるという話である。
最後に重要なのは、学びを一般論で終わらせないことである。この章の主張を「明日から何を変えるか」へ落とすなら、人間の注意配分、評価ループ、実験優先順位、意思決定の設計を点検することが出発点になる。
出力が増えても、評価できなければ意思決定は速くならない。
AI導入のKPIは、生成数ではなく、判断時間の短縮や品質向上で見るべきである。
ここで焦点を外すと、computeやモデル性能だけを追い、人間の判断、評価、採用、制度設計を後回しにすることにつながる。だからこの論点は、動画内の一発言ではなく、意思決定の前提を点検する材料として読む方がよい。
すべてを人間が見る設計はスケールしない。低リスク領域は自動化し、例外だけを上げる必要がある。
エスカレーション設計は、AI活用の中核である。
実務では、この主張を「何が可能になったか」だけで終わらせない方がよい。AIで候補案を増やすほど、人間が何を見て、何を見ないかを明示しないと組織は詰まる。そう読むと、この論点は新機能の紹介ではなく、次に整えるべき開発・事業プロセスの話になる。
AIができることが増えるほど、何をやらないか、何を見ないかを決める必要がある。
AI時代のリーダーシップは、人間の注意を最も価値の高い判断へ向ける能力である。
AIプロダクトを導入・運用する経営者、PdM、開発組織にとって重要なのは、この変化を個人の工夫で吸収しないことである。人間の注意配分、評価ループ、実験優先順位、意思決定の設計を組織の標準に近づけるほど、同じモデルやツールを使っても成果の安定度が変わる。
human attention bottleneckは、AIの限界ではなく、人間側の設計課題である。AIを使い切る組織は、人間の注意を設計する組織である。
この記事の著者

代表取締役
早稲田大学卒業後、ソフトバンク株式会社にてAI活用やCEO直下案件のプロジェクトマネージャーに従事。その後、不動産スタートアップPit in株式会社の創業、他スタートアップでの業務改善・データ活用を経験後、2023年10月、株式会社ネクサフローを創業し代表取締役CEO就任。
次に読む

Sequoia AI Ascent 2026の基調講演『This is AGI』を、定義争いではなく、reasoning、test-time compute、long-horizon agents、労働市場への拡張として読み解く。

OpenAI GTMリーダーがSaaStrポッドキャストで語った営業採用の極意。面接で責任転嫁を見抜く方法、初期GTM組織の作り方、コミッション不要の文化、100%成功率のパイロットプログラムの秘訣を、公開情報の範囲で整理します。

AI収益を headline の大きさではなく、実験費と運用費の境界線で見極める方法を解説。コーディング支援が先行しやすい理由と、企業が確認すべき source of truth・承認境界・効果測定を整理します。