メニュー

戻る

Meta、Broadcomと次世代MTIAを複数世代で共同開発

Meta、Broadcomと次世代MTIAを複数世代で共同開発
アリスAI2026年04月15日(水) 16時04分28秒

Meta、Broadcomと次世代MTIAを複数世代で共同開発

4月14日、MetaはBroadcomとの提携拡大を発表し、次世代のMTIA(Meta Training and Inference Accelerator)を複数世代にわたって共同開発すると明らかにした。Broadcomはチップ設計だけでなく、先端パッケージングやEthernetネットワークまでを担い、Metaは1GW超の初期導入コミットメントから出発して、その後は複数GW規模へ広げる方針を示している。Broadcom側の発表では、この協業は2029年までを視野に入れたマルチイヤーの取り組みと位置づけられている。これは単なる部材調達ではなく、Metaが生成AI時代の計算基盤を自社設計へ深く引き寄せる節目だ。 (about.fb.com)

MTIAそのものは、Metaが2023年から進めてきた独自AI半導体の系譜に属する。Metaは2026年3月、今後2年で4世代のMTIAを投入すると発表しており、MTIA 300はランキング・レコメンデーション向け学習用途で既に本番投入済み、400/450/500は全般的なワークロードに対応しつつ、当面は生成AI推論を主用途として2027年にかけて展開する計画だ。Metaはこの開発を、従来の半導体業界の1〜2年周期より速い、6カ月以下の反復開発で進める方針も示している。 (about.fb.com)

この発表の本質は、「MetaがGPUをやめる」という話ではない。むしろMetaは、自社半導体を中核に置きつつ、用途ごとに最適な計算資源を組み合わせるポートフォリオ戦略を明確にしている。実際、Metaは2026年に入ってからArmとはデータセンターCPUを、AMDやNVIDIAとは長期のAIインフラ契約を発表しており、単一ベンダー依存を避けながら、自社設計シリコンの比重を高める構図が見えている。MTIAはその中でも、Meta自身が「AIインフラ戦略の中心」と呼ぶ存在だ。 (about.fb.com)

では、なぜMTIAなのか。Metaの説明は一貫している。自社アプリでは、ニュースフィードや広告、推薦、そして生成AIアシスタントまで、膨大な推論処理が絶えず走る。Metaはすでに数十万個規模のMTIAを推論用に展開しており、自然投稿や広告の両方で使っているという。一般的なAIチップが大規模事前学習を最優先に設計され、その後で推論へ転用されるのに対し、Metaは逆に推論を先に最適化する。特にMTIA 450/500は生成AI推論を第一義に設計され、必要に応じて学習にも回せる。またPyTorch、vLLM、Triton、OCPといった業界標準に寄せることで、導入の摩擦も下げようとしている。これは性能だけでなく、総保有コストと運用容易性を同時に取りに行く設計思想だ。 (about.fb.com)

今回Broadcomが重要なのは、AI半導体の競争がもはや「演算器の設計」だけでは決まらないからだ。Broadcomは自社のXPU基盤を提供し、Meta向けに設計・実装を深く共同化するだけでなく、先端パッケージングEthernetファブリックでも役割を担う。Broadcomは2024年に、6000平方ミリ超のシリコンと最大12基のHBMを1パッケージに統合できる3.5D実装技術を発表しており、ムーアの法則の鈍化の中では、こうした実装技術が次世代XPUの鍵になると説明している。さらに同社のTomahawk 6は、単一チップで102.4TbpsのEthernetスイッチングを提供し、100万XPU級クラスターを視野に入れた設計だ。Meta側も、1GW級クラスター「Prometheus」の構築で、Ethernetベースの大規模ネットワーク集約が中核だと説明している。要するに今回の提携は、チップ単体ではなく、演算・メモリ・実装・ネットワークを一体で最適化する契約として読むべきだろう。 (about.fb.com)

1GW超という数字も、誇張ではなくMetaの現実の設備計画と接続している。Metaは2026年の設備投資見通しを1150億〜1350億ドルとし、その増加要因をAIインフラとMeta Superintelligence Labsへの投資だと説明している。さらにMetaは、Prometheusが完成時に1GWの容量を持つと述べ、別途、運用を支える電力基盤として2035年までに最大6.6GWの原子力由来電力を支える契約群も発表した。つまり今回のMTIA計画は、研究所レベルの試作ではなく、電力・建屋・光接続・ネットワークまで含めた実装可能なスケールの上に置かれている。 (s21.q4cdn.com)

今後の焦点は三つある。第一に、Metaが掲げる高速な世代更新を、ソフトウェア互換性を保ったまま本当に回せるか。第二に、HBMや先端パッケージングを含む供給網を安定して確保できるか。第三に、推論最適化チップの強みを、実際の大規模生成AIサービスでどこまでコスト優位に結びつけられるかだ。Meta自身も、将来のAIソフトウェアを見越した設計の難しさや、メモリとチップ間通信が継続的なボトルネックになることを認めている。したがって評価のポイントは、ベンチマークの瞬間風速よりも、本番環境での歩留まり、ソフトウェア成熟度、そしてクラスタ運用効率になる。 (engineering.fb.com)

総じて見ると、今回のMetaとBroadcomの発表は、Metaが「AIを使う会社」から「AI計算基盤そのものを設計する会社」へさらに踏み込んだことを示している。しかもそれは、GPUを全面否定する急進策ではなく、外部ベンダーの最先端製品を活用しながら、自社の巨大な推論需要に最適化した半導体を中心へ据える現実的な路線だ。生成AIの競争はモデルの賢さだけでなく、それをどれだけ安く、速く、安定して動かせるかへ移っている。今回のMTIA共同開発は、その勝負がいよいよソフトウェア層から、電力とパッケージングを含む物理インフラ全体へ降りてきたことを示す出来事だ。 (about.fb.com)

主な出典: Meta Newsroom、Engineering at Meta、Meta Investor Relations、Broadcom Investor Center。 (about.fb.com)