メニュー

戻る

Cerebras、IPO申請でAI計算基盤競争が新段階へ

Cerebras、IPO申請でAI計算基盤競争が新段階へ
アリスAI2026年04月19日(日) 11時08分44秒

Cerebras、IPO申請でAI計算基盤競争が新段階へ

CerebrasのIPO再始動は、単なる「NVIDIA対抗のAI半導体会社が上場する」という話ではない。2026年4月17日に同社が再びIPO関連書類を提出したと報じられたことで見えてきたのは、AI産業の主戦場が、半導体そのものの性能競争から、学習・推論を支える計算基盤をいかに資金調達し、データセンターまで含めて実装するかという競争へ移っていることだ。Cerebrasは2025年10月に一度S-1を取り下げており、今回の再挑戦は、資本市場に対して「技術の物語」だけでなく「受注残と大型顧客を伴うインフラ企業」として自らを示す動きでもある。 (techcrunch.com)

振り返ると、Cerebrasは2024年9月30日に最初のS-1を提出したが、その後のIPOは難航した。背景には、UAEのG42による出資をめぐる対米安全保障審査があり、Reutersは2024年10月時点で、G42案件の審査遅延が上場延期の要因になっていると報じている。実際、2025年10月3日付のSEC向け書簡で、同社は2024年の登録届出書の取り下げを正式に要請した。つまり今回の再申請は、単なるタイミングの再調整ではなく、地政学リスクを抱えた顧客構成・資本構成を、より成長企業らしい形へ組み替えたうえでの再出発と読むべきだろう。 (cerebras.ai)

技術面でCerebrasが注目される理由は明快だ。同社の中核であるWSE-3は、1枚のシリコンウェハーをそのまま巨大なAIプロセッサとして使う「wafer-scale」設計を採る。公式情報によれば、WSE-3は4兆トランジスタ、90万コア、125ペタフロップスのAI計算性能を備え、CS-3では最大2,048台を束ねたクラスタ構成を前提としている。2024年のS-1では、CS-3が最大24兆パラメータ規模のモデルを支える設計であることも示されていた。ここでの価値は、単に大きいチップを作ることではない。多数のGPUにモデルを細かく分散し、通信オーバーヘッドとソフトウェア複雑性を抱え込む従来方式に対し、より単純な論理構成で大規模学習・推論を回すという思想そのものにある。 (cerebras.ai)

この設計思想は、特に推論で効いてくる。Cerebrasは2024年8月、Llama 3.1 8Bで毎秒1,800トークン、70Bで毎秒450トークンの推論性能をうたい、WSE-3はH100比で7,000倍のメモリ帯域を持つと説明した。もちろんこれは同社自身のベンチマーク文脈を含む主張であり、そのまま一般化はできない。それでも重要なのは、Cerebrasが「学習用アクセラレータ企業」から「超低遅延推論基盤企業」へと重心を移してきた点だ。OpenAIが2026年2月に公開したGPT-5.3-Codex-Sparkでも、Cerebrasは最初の実運用マイルストーンとして位置づけられ、同モデルは1,000 tokens/s超の応答性を狙う“latency-first”の提供層として紹介されている。一方でOpenAIは、GPUは引き続き訓練・推論の基盤であり、Cerebrasはそれを補完する存在だとも明記している。ここから見えるのは、勝者総取りではなく、用途ごとに異なる計算資源を組み合わせる時代への移行だ。 (cerebras.ai)

その変化を象徴するのが、OpenAIとAWSの2本の大型提携である。OpenAIは2026年1月14日、Cerebrasを自社プラットフォームに組み込み、750MWの超低遅延AI計算能力を2028年まで段階的に導入すると発表した。続いてAWS向けには、2026年3月13日にCerebrasが、CS-3をAWSデータセンターへ配備し、Amazon Bedrock経由で提供する計画を公表している。さらにAWSとCerebrasは、Trainiumが「prefill(入力文脈の処理)」、WSEが「decode(出力生成)」を担当する分離型アーキテクチャを共同開発中で、同一ハードウェア面積あたり5倍の高速トークン容量を狙うという。これは興味深い。推論は一枚岩ではなく、計算密度が要る部分と、帯域が要る部分に分かれる。だからこそ、単一チップの優劣ではなく、異種アクセラレータをどう束ねてサービス化するかが競争軸になっている。 (openai.com)

今回のIPO観測でさらに重要なのは、こうした技術・提携が、財務指標としても見える形になってきたことだ。DCDやReuters系報道によれば、Cerebrasは2025年に売上高5.10億ドル、純利益8,790万ドルを計上し、2025年末時点の残存履行義務は246億ドルに達した。OpenAIとの契約は今後数年の売上見通しの相当部分を占め、OpenAIは同社に10億ドルを融資し、追加的な計算能力購入オプションも持つとされる。別のReuters報道では、OpenAIによるコミット総額が3年で200億ドル超に拡大した可能性も示されている。つまりCerebrasは、チップ会社であると同時に、長期契約・融資・ワラント・データセンター整備を束ねた“AIインフラ供給事業者”として評価され始めている。 (datacenterdynamics.com)

ただし、投資家が見るべき論点は楽観だけではない。顧客集中リスクはなお大きく、DCDは2025年売上の62%がMBZUAI、24%がG42由来だったと報じている。2024年のReuters報道でも、2023年売上の83%、2024年上期売上の大半がG42関連だった。大型契約で顧客基盤の物語は改善したが、実態としては依然として“少数の巨大顧客に支えられた事業”である。また、wafer-scale設計は魅力的である一方、製造歩留まり、先端パッケージング、電力・冷却、データセンター立ち上げ速度まで含めて実行難度が高い。IPO後の評価は、技術の独自性そのものより、その独自性を安定供給できるかに左右されるはずだ。 (datacenterdynamics.com)

それでもCerebrasの再申請が示す潮流ははっきりしている。AI計算基盤競争は、GPUを何枚確保するかという段階を越え、専用半導体、分離型推論アーキテクチャ、クラウド流通、データセンター建設、そして長期の電力・資本コミットメントを一体で競う局面に入った。CerebrasのIPOは、その新局面を測る試金石だ。もし市場がこれを支持するなら、今後は「AIモデル企業」と「AIクラウド企業」のあいだに、専用計算資源を金融商品として組成し、長期契約で回収するインフラ企業が、よりはっきりした第三のプレイヤーとして定着していく可能性が高い。 (openai.com)

主な出典は、Cerebrasの公式発表・製品情報、OpenAIの公式発表、AWS公式ブログ、SEC提出書類、ならびにReuters/DCDの報道である。 (cerebras.ai)