この記事の要約
チューリング賞受賞者ヤン・ルカンがMeta退社後に設立したAMI Labs。シード調達$1.03B(約1,545億円)で欧州記録を更新。LLMに代わる「ワールドモデル」でAI業界の常識に挑む。
2026年3月10日、AI業界に衝撃が走りました。
チューリング賞受賞者であり、深層学習の「ゴッドファーザー」と呼ばれるヤン・ルカンが、シードラウンドで$1.03B(約1,545億円)を調達。欧州スタートアップ史上最大のシードラウンドを記録しました。
しかし、本当の衝撃は調達額ではありません。
ルカンは「LLM(大規模言語モデル)はAGIへの行き止まりだ」と断言し、まったく異なるアプローチ——ワールドモデル——に$1Bを賭けたのです。OpenAI、Anthropic、Googleが築いてきたLLM中心のパラダイムへの、最大級の反旗です。
本記事の表記について
| 項目 | 内容 |
|---|---|
| 企業名 | Advanced Machine Intelligence (AMI) Labs |
| 創業者 | Yann LeCun(チューリング賞受賞者) |
| 設立 | 2025年末 |
| 本社 | パリ(フランス) |
| 評価額 | $3.5B(約5,250億円、プレマネー) |
| 調達額 | $1.03B(約1,545億円、シードラウンド) |
| 主要投資家 | Nvidia、Bezos Expeditions、Cathay Innovation、Temasek |
AMI Labsの全体像ヤン・ルカン(Yann LeCun)は、1989年に畳み込みニューラルネットワーク(CNN)を発明し、現代のAI革命の基礎を築いた人物です。2018年にはジェフリー・ヒントン、ヨシュア・ベンジオとともにチューリング賞を受賞。2013年からMetaのFAIR(Fundamental AI Research)を率い、AI業界の中心にいました。
2025年11月、ルカンのMeta退社計画が報じられました。背景には複数の要因があります。
Llama 4のベンチマーク問題: MetaのLlama 4のベンチマーク結果に操作疑惑が浮上。CEO マーク・ザッカーバーグが関係者を処遇し、GenAI部門を再編する事態に発展しました。
LLMへの根本的懐疑: ルカンは以前から「LLMは知的に見えるが、本質的には統計的パターンマッチングに過ぎない」と主張してきました。Meta内部でLLM開発が加速するなか、自身のビジョンとの乖離が広がっていました。
ルカンは退社時にこう語っています。
「研究者である私に、何をすべきかを指図することはできない」
AMI Labsは2026年3月10日、シードラウンドで$1.03B(約1,545億円)の調達を発表しました。プレマネー評価額は$3.5B(約5,250億円)。これは欧州スタートアップ史上最大のシードラウンドであり、世界的にも屈指の規模です。
参考までに、2026年の主要シードラウンドと比較すると:
| 企業 | 調達額 | 評価額 | 分野 |
|---|---|---|---|
| Thinking Machines Lab | $2.0B(約3,000億円) | $12B | AI全般 |
| AMI Labs | $1.03B(約1,545億円) | $3.5B | ワールドモデル |
| Humans& | $480M(約720億円) | 非公開 | 人間中心AI |
| Unconventional AI | $475M(約713億円) | $4.5B | ニューロモーフィック |
リード投資家はCathay Innovation、Greycroft、Hiro Capital、HV Capital、Bezos Expeditions。
注目すべきはNvidiaの参画です。NvidiaはAMI Labsに出資するだけでなく、次世代プロセッサ「Vera Rubin」を1ギガワット分提供するコミットメントを行いました。これはワールドモデルの訓練に莫大な計算資源が必要なことを示しています。
個人投資家にも錚々たる名前が並びます:
LLM vs ワールドモデルの比較ルカンの批判は単なるポジショントークではなく、技術的な根拠に基づいています。
1. テキストだけでは世界を理解できない
LLMはテキストデータから「次の単語」を予測する方式で学習します。これにより流暢な文章は生成できますが、物理世界の仕組みを理解しているわけではありません。
ルカンはこう表現します:
「LLMは回転する立方体を"説明"できるが、回転が空間的に何を意味するかを"理解"してはいない」
2. 連続的・高次元データに弱い
カメラ映像、ロボットのセンサーデータ、産業プロセスの計測値——こうした連続的で高次元のデータに対して、LLMのアーキテクチャは根本的に不向きです。テキストという離散的な記号体系に最適化されているためです。
3. スケーリングの限界
「パラメータを増やせばAGIに到達する」というスケーリング仮説に対しても、ルカンは懐疑的です。テキスト予測の精度を上げることと、世界を理解することは本質的に異なる問題だと主張しています。
ルカンの主張に対して、業界の反応は二分されています。
支持派: 多くのロボティクス研究者や物理シミュレーションの専門家は、LLMだけでは物理世界のタスクを解決できないことに同意しています。Scientific Americanも「ワールドモデルがAIの次の革命を解き放つ可能性がある」と報じています。
懐疑派: Anthropic CEOのダリオ・アモデイは「2026年にはデータセンターの中に天才の国ができる」と予測し、LLMベースのアプローチでも人間レベルの能力に到達できると主張。一部の研究者は「JEPA vs LLMは偽の二項対立であり、ハイブリッド化が正解」との見方を示しています。
JEPA(Joint Embedding Predictive Architecture、統合埋め込み予測アーキテクチャ)は、ルカンがMeta在籍時に考案した学習フレームワークです。AMI Labsの技術的基盤となっています。
従来のAI(LLM・生成AI)が「データそのもの」を予測するのに対し、JEPAは「データの抽象的な表現」を予測します。
JEPAの学習プロセスは、人間の赤ちゃんが世界を学ぶ方法に近いとルカンは説明します。
ステップ1: センサーデータの入力 映像、音声、空間情報など、多様なセンサーデータを受け取ります。
ステップ2: 抽象表現への変換 エンコーダーが入力データを高次元の抽象表現に変換。ここで不要な詳細(ノイズ)は捨てられます。
ステップ3: 表現空間での予測 予測器が「次に何が起きるか」を、ピクセル単位ではなく抽象表現のレベルで予測します。
ステップ4: 因果関係の学習 予測と実際の結果を比較することで、物理法則や因果関係のモデルを構築します。
JEPAの学習プロセス従来の生成モデル(GPTやDALL-Eなど)は、未来の映像をピクセル単位で生成しようとします。しかし現実世界は予測不可能な細部に溢れています。風に揺れる木の葉の一枚一枚を予測することは不可能であり、無意味です。
JEPAは「木が風に揺れる」という概念レベルで予測します。細部を予測する必要がないため、より効率的で、より本質的な世界理解が可能になるとルカンは主張しています。
ルカンはMeta時代に2つの重要な実装を発表しています。
AMI Labsは、これらの研究をさらに発展させ、汎用的なワールドモデルの構築を目指しています。
AMI Labsの強さは、技術だけでなくチーム構成にもあります。
| 役職 | 氏名 | 経歴 |
|---|---|---|
| Executive Chair | Yann LeCun | チューリング賞受賞者、CNN発明者、元Meta FAIR責任者 |
| CEO | Alexandre LeBrun | Wit.ai創業者(2015年Facebook買収)、Nabla元CEO |
| CSO | Saining Xie | 元Google DeepMind、Diffusion Transformers論文の著者 |
| VP of World Models | Mike Rabbat | 元Meta研究科学ディレクター |
| COO | Laurent Solly | 元Meta欧州事業統括 |
| CRIO | Pascale Fung | AI倫理・多言語NLPの世界的権威 |
特筆すべきはSaining Xieの参画です。2023年に発表したDiffusion Transformers(DiT)論文は、後にOpenAIのSoraの基盤技術となりました。生成AIの最前線にいた研究者が、「生成AIとは異なるアプローチ」を選んだことは象徴的です。
CEOのAlexandre LeBrunは、ワールドモデルが今後6ヶ月以内に業界のバズワードになると予測しています。
ワールドモデルは特に、物理世界との接点があるAI応用で革命的な変化をもたらす可能性があります。
ワールドモデルの応用分野物理世界で自律的に動作するロボットには、言葉の理解ではなく空間と物理法則の理解が必要です。ワールドモデルは、ロボットが「箱を持ち上げたらどうなるか」を事前にシミュレーションできるAIを目指しています。
自動運転車は毎秒数百万のセンサーデータを処理する必要があります。「歩行者が急に飛び出したらどうなるか」という物理的因果関係の予測は、テキスト予測とは本質的に異なる問題です。
化学プラント、製鉄所、ジェットエンジン——これらのシステムには数千のセンサーがあります。ルカンによれば、現在の技術では「これらのシステム全体の統合的なモデル」を構築する方法がありません。ワールドモデルはセンサーデータから学習し、システムの振る舞いを予測できる可能性を持っています。
AMI LabsのCEO LeBrunの前職はNabla(医療AIスタートアップ)であり、ヘルスケア分野への応用も視野に入っています。身体の動的なプロセスを理解するAIは、診断や治療計画の支援に活用できる可能性があります。
AMI Labsは設立当初から4つの研究拠点を構築しています。
| 拠点 | 役割 | キーパーソン |
|---|---|---|
| パリ | 本社・欧州研究拠点 | LeBrun(CEO)、Solly(COO) |
| ニューヨーク | 米国研究拠点 | LeCun(NYU教授を兼任) |
| モントリオール | カナダ研究拠点 | Rabbat(VP World Models) |
| シンガポール | アジア太平洋拠点 | Fung(CRIO) |
「AMI」はフランス語で「友」を意味します。パリに本社を置いたことには、欧州発のAIグローバルプレイヤーを目指す意志が込められています。フランスのテック界の大物Xavier Niel(Station Fオーナー)が投資に参画していることからも、フランス政府やEUとの連携が想定されます。
ワールドモデルの応用領域を見ると、日本の強みとの親和性が際立ちます。
ロボティクス: 日本はファナック、安川電機、川崎重工など産業用ロボットの世界的リーダーです。ワールドモデルによる「物理世界を理解するAI」は、これらの企業の次世代制御技術に直結します。
自動車産業: トヨタ、ホンダ、日産の自動運転技術開発にとって、ワールドモデルは「センサーデータから物理世界を理解する」という根本課題の解法になり得ます。
素材・化学産業: 旭化成、三菱ケミカル、住友化学などのプロセス産業では、数千のセンサーから工場全体を最適化するワールドモデルの応用余地が大きいです。
日本政府は2026年度から5年間で約1兆円をAI基盤モデル開発に投資する計画を打ち出しています。現在の焦点はLLMですが、ワールドモデルの台頭は戦略の見直しを迫る可能性があります。
Preferred Networks(PFN)やSakana AIといった日本のAIスタートアップは、LLMだけでなく多様なアーキテクチャの研究を進めています。AMI Labsのシンガポール拠点を通じた、アジア太平洋圏での研究連携も注視すべきでしょう。
いいえ。ルカン自身も「LLMが無用になる」とは言っていません。テキスト処理にはLLMが適しており、物理世界の理解にはワールドモデルが適しています。多くの専門家は、最終的に両者のハイブリッド化が進むと予測しています。
具体的なリリース日は未発表です。ただし、CEO LeBrunは「6ヶ月以内にワールドモデルが業界のバズワードになる」と予測しており、2026年後半にはデモや初期製品の発表がある可能性があります。
ルカンがMeta時代に発表したI-JEPAとV-JEPAの論文は公開されています。ただし、AMI Labsが開発する商用ワールドモデルのオープンソース方針は未発表です。
ワールドモデルの訓練には莫大な計算資源が必要です。Nvidiaは次世代プロセッサ「Vera Rubin」を1ギガワット分提供する契約を結んでおり、ワールドモデル市場の成長がGPU需要を牽引すると見ています。
AMI Labsの拠点はパリ、ニューヨーク、モントリオール、シンガポールの4都市に分散しています。米国・カナダ・アジアの人材にもアクセスでき、グローバル体制は整っています。むしろ、EU AI Actなど欧州の規制環境に精通していることは、安全なAI開発においてアドバンテージになる可能性があります。
2026年AI業界の勢力図AI業界は「テキストを予測するAI」から「世界を理解するAI」へ——大きな転換点を迎えようとしています。ルカンの$1Bの賭けが正しいかどうか、答えが出るのはそう遠い将来ではありません。
本記事はネクサフローのAI研究シリーズの一部です。
この記事の著者

代表取締役
早稲田大学卒業後、ソフトバンク株式会社にてAI活用やCEO直下案件のプロジェクトマネージャーに従事。その後、不動産スタートアップPit in株式会社の創業、他スタートアップでの業務改善・データ活用を経験後、2023年10月、株式会社ネクサフローを創業し代表取締役CEO就任。
次に読む

ABM(アカウントベースドマーケティング)の限界を超える「ABM 2.0」を解説。インテントデータとデータエンリッチメントの掛け合わせ、Data WaterfallとSignal-based sellingの概念、FORCAS・Clay・Sales Markerの3軸比較表を交え、日本市場での実践方法を示す。

CPC¥10,403——顧問営業はなぜこれほど高単価なのか。LinkedIn不在・信頼文化という日本固有の構造を解明し、データで的を絞り、顧問で接点を作る「ハイブリッドGTM」の設計方法を解説する。

GTM Alpha(GTMアルファ)とは、競合が持たないデータを活用し、競合ができない施策を実行することで得られる営業上の競争優位性である。金融用語のα(超過リターン)から転用されたこの概念を、GTMの3法則・日本市場のデータソース・実装ロードマップとともに解説する。