Anthropicはなぜ「自前のAIチップ」を考え始めたのか
Claude需要の爆発、クラウド依存の重さ、そしてAI競争の重心移動
2026年4月9日、Reutersは、Anthropicが自社向けAIチップの設計を初期段階で検討していると報じた。もっとも、計画はまだ探索段階で、具体的な設計に着手したわけでも、専任チームを固めたわけでもなく、最終的には従来どおり外部からチップを調達するだけにとどまる可能性もあるという。Reutersはまた、先端AIチップの設計にはおよそ5億ドル規模の費用がかかり得るとも伝えており、これは「自前化」が簡単な節約策ではなく、かなり重い戦略判断であることを示している。 (channelnewsasia.com)
この報道を理解するうえで重要なのは、Anthropicが「チップ不足に困っている小さな利用者」ではなく、すでに巨大な計算需要を抱える側に回っていることだ。Anthropicは2026年4月6日、自社の年換算売上ランレートが2025年末の約90億ドルから300億ドル超へ拡大し、年間100万ドル超を使う法人顧客も2カ月足らずで500社超から1000社超へ倍増したと明らかにした。同時に、GoogleとBroadcomから2027年以降に稼働する「次世代TPUの複数ギガワット分」を確保する新契約も発表している。さらにBroadcomの4月6日付SEC提出書類では、その規模がAnthropic向けに約3.5ギガワットと具体化された。ここまで来ると、チップは単なる部材ではなく、事業成長そのものを律速する経営資源になる。 (anthropic.com)
もっとも、Anthropicはこれまで外部インフラに無策だったわけではない。2023年2月にはGoogle Cloudをクラウド基盤として選び、GPU/TPUクラスターを活用しつつAI計算システムを共同開発する体制を組んだ。2025年10月にはこの関係を拡張し、最大100万個のTPUを使う計画と、2026年に1ギガワット超の計算容量を立ち上げる方針を公表している。一方でAWSとも関係は深く、2024年11月にはAmazonの追加40億ドル出資を含む提携拡大を発表し、AWSを「主要クラウド兼トレーニングパートナー」と位置づけた。AnthropicはAWSのAnnapurna Labsと将来世代のTrainium最適化でも協業している。 (anthropic.com)
そのAWS側では、Project Rainierがすでに稼働段階に入り、約50万個のTrainium2チップを備える巨大計算基盤として立ち上がった。Amazonによれば、Anthropicはこの基盤を実際に使ってClaudeを構築・提供しており、Claude関連ワークロードは年内に100万個超のTrainium2に広がる見込みだという。しかもProject Rainierは、Anthropicが以前のモデル訓練に使った計算力の5倍超を供給する。つまりAnthropicはすでに、Google TPU、AWS Trainium、NVIDIA GPUをまたぐ“多系統調達”を進めている。それでもなお自社チップを考えるのは、依存先が少ないからではなく、依存の総量があまりに大きいからだ。 (aboutamazon.com)
技術的に見ると、自前チップの狙いは分かりやすい。GoogleのTPUは機械学習向けに設計されたASICで、行列演算を高速に処理することに特化している。AWSもTrainiumを、生成AIの訓練と推論に向けた「高性能・高コスト効率」の専用アクセラレータとして展開している。Anthropic自身もAWS向けに低レベルカーネルを書き、Neuronソフトウェアスタックに貢献していると説明している。要するに最前線のAI企業にとって競争力は、モデルのアルゴリズムだけでなく、メモリ転送、相互接続、コンパイラ、ランタイム、推論サービングまで含めた“全体最適”で決まる。自社チップとは、その最適化の主導権を一段深く取りに行く発想だ。なお、現代のAIチップ戦略は必ずしも自前工場を意味しない。Reutersによれば、OpenAIもBroadcomとTSMCを組み合わせる形で自社チップを進めている。 (docs.cloud.google.com)
ただし、ここには大きな落とし穴もある。チップ設計は高価なだけでなく、ソフトウェアとの擦り合わせ、製造歩留まり、導入時の性能検証まで含めて長い時間がかかる。Metaは2025年に自社製AI学習チップの試験を始めたが、その前には推論向け自社チップを小規模テスト後に断念した経緯がReutersで報じられている。OpenAIも、より大掛かりなファウンドリー志向を後退させ、自社設計+外部製造という現実的な線に寄せた。Anthropicが本当に前に進むとしても、最初からGoogle TPUやAWS Trainiumを置き換える全面戦略になる可能性は低く、まずは特定用途での補完から始まる公算が大きい。これは、Anthropic自身が現在もAWS Trainium、Google TPU、NVIDIA GPUを使い分ける方針を明言していることとも整合的だ。 (channelnewsasia.com)
では、このニュースの本質は何か。短期的には「Anthropicがすぐ半導体企業になる」という話ではない。むしろ重要なのは、フロンティアAI企業が、モデル性能競争だけではなく、供給網、電力、クラウド契約、専用半導体まで含めた“計算アーキテクチャ競争”に入ったことだ。Anthropicは4月時点でまだ専任チームも固めていないが、もし本格化するなら、今後はシリコン設計・コンパイラ人材の採用、EDAや製造パートナーとの連携、そして訓練用より先に推論向けチップから着手するかどうかが重要な観測点になるだろう。少なくとも今回の報道は、AIの主戦場がソフトウェア単体から、電力とシリコンを含むフルスタックへ移っていることを、かなり生々しく示している。 (channelnewsasia.com)
主な参照元: Anthropic公式発表、AWS公式、Google Cloud公式ドキュメント、BroadcomのSEC提出書類、Reuters配信記事。