メニュー

戻る

Anthropic、英FractileのAI推論チップ調達を協議

Anthropic、英FractileのAI推論チップ調達を協議
アリスAI2026年05月03日(日) 20時32分35秒

Anthropicが英FractileのAI推論チップ調達を協議――Claude拡大の裏側で進む「推論コスト」競争

Anthropicが、英国ロンドン発のAIチップスタートアップFractileからAI推論チップを購入する協議をしていると報じられた。Economic Timesが配信したReuters記事は、AnthropicがFractile製のAI推論チップ購入について協議中だと伝えている。元の報道はThe Informationで、同紙は、Claudeを運営するAnthropicが、Google、Amazon、Nvidiaに続く新たなチップ供給源としてFractileを検討していると報じた。ただし、現時点では契約金額、購入数量、納入時期などは公表されておらず、協議段階の話として見る必要がある。(economictimes.indiatimes.com)

このニュースの核心は、単に「Anthropicが小さな英国企業のチップを買うかもしれない」という話ではない。むしろ、生成AIビジネスの重心が、モデルを訓練するための計算資源から、完成したモデルを大量のユーザーに返答させる「推論」へ移りつつあることを示している。Anthropic自身も2026年にClaude需要が急増していると説明しており、2026年4月には年間換算売上高が300億ドルを超え、2025年末の約90億ドルから大きく伸びたと発表した。年間100万ドル以上を支払う法人顧客も、2カ月足らずで500社超から1000社超へ増えたという。(anthropic.com)

なぜ「推論チップ」なのか

大規模言語モデルの運用には、大きく分けて「訓練」と「推論」がある。訓練は新しいモデルを作る工程で、推論はユーザーの入力に対してモデルが出力を生成する工程だ。ChatGPTやClaudeのようなサービスでは、利用者が増え、長文コンテキスト、コード生成、エージェント型処理が増えるほど、推論コストが積み上がる。

技術的にも、推論には独特のボトルネックがある。LLM推論は一般に、入力全体を処理する「prefill」と、1トークンずつ出力を生成する「decoding」に分けられる。ICLR 2025の研究では、prefillは計算量に縛られやすい一方、decodingはHBMメモリI/Oに縛られやすいと説明されている。またKVキャッシュは文脈長やバッチサイズに応じて増え、長文・同時多数処理ではメモリ容量と帯域が大きな制約になる。(openreview.net)

ここでFractileの狙いが見えてくる。同社は、メモリと計算を物理的に近づけ、あるいは一体化させることで、データをプロセッサと外部メモリの間で頻繁に移動させる「メモリの壁」を崩そうとしている。Fractileは自社サイトで、メモリと計算を物理的に interleaved する新世代プロセッサを構築し、低レイテンシと高スループットを同時に実現すると説明している。(fractile.ai)

Fractileとは何者か

Fractileは2022年創業の英国AIチップ企業で、創業者のWalter Goodwinはオックスフォード大学Robotics Institute出身とされる。同社は2024年にステルス状態から出て、Kindred Capital、NATO Innovation Fund、Oxford Science Enterprisesなどから1500万ドルのシード資金を調達した。Fractileは当初から、Nvidia GPUとは異なるアーキテクチャでAI推論を高速・低コスト化することを掲げてきた。(fractile.ai)

ただし、Fractileの性能主張は慎重に読むべきだ。同社は過去に、LLMを既存GPU比で最大100倍高速、10分の1のコストで動かせる可能性を示してきたが、2024年時点では主にシミュレーションに基づく主張だった。後続の資料では、TSMCとimecとの協力でテストチップを作ったとの説明も見られるが、量産品が大規模データセンターで実証された段階ではない。Tech.euの2025年インタビューでは、Goodwin氏は最初の製品チップを2026年後半にファブへ送り、2027年にデータセンター投入を目指す趣旨を述べている。(fractile.ai)

Anthropicの狙い:短期の救済ではなく、長期の選択肢

Anthropicはすでに、かなり多様なチップ戦略を取っている。2026年4月にはGoogleおよびBroadcomとの提携を拡大し、2027年以降に複数ギガワット規模の次世代TPU容量を確保すると発表した。同社は、自社がAWS Trainium、Google TPU、Nvidia GPUを用途に応じて使い分けているとも明言している。(anthropic.com)

さらに同月、AnthropicはAmazonとの協業拡大も発表した。Amazonとは今後10年で1000億ドル超をAWS技術にコミットし、最大5GWの新規容量を確保する計画で、Trainium2やTrainium3、将来世代のTrainiumも含まれる。Anthropicは現在、100万個超のTrainium2チップを使ってClaudeを訓練・提供しているとも説明している。(anthropic.com)

そのためFractileとの協議は、Claudeの直近の混雑をただちに解決するものではない。むしろ、2027年以降の推論需要を見越した「オプションの確保」と見るのが自然だ。Nvidia GPU、Google TPU、Amazon Trainiumに加え、Fractileのような推論特化チップを持てれば、Anthropicはコスト、レイテンシ、供給制約、交渉力の面で選択肢を増やせる。

成功の条件とリスク

Fractile型のアプローチが魅力的なのは、AI推論の経済性がメモリ移動に大きく左右されるからだ。計算をメモリに近づける設計は、理屈の上ではトークン当たり電力や遅延を大きく下げられる。しかし、AIチップで勝つにはシリコンだけでは足りない。コンパイラ、ランタイム、モデル変換、量子化、フレームワーク対応、運用監視まで含むソフトウェアスタックが必要になる。Nvidiaの強さはGPU性能だけでなく、CUDAを中心とする開発者エコシステムにもある。

また、AIモデルの構造は速く変わる。チップ設計から量産までには年単位の時間がかかるため、2027年に完成したチップが、その時点の主流モデルや推論ワークロードにどれほど適合するかは未知数だ。Fractileが「特定モデル専用」ではなく、幅広いフロンティアモデル推論に対応できる汎用性を示せるかが重要になる。

今後の見通し

今回の報道は、AIインフラ競争が「Nvidia GPUを何個確保できるか」だけでは語れなくなっていることを示している。AnthropicはGoogle TPUとAmazon Trainiumで巨大な容量を押さえつつ、Nvidia GPUも使い続け、さらにFractileのような新興推論チップも検討している。これは単なる調達分散ではなく、AIサービスの原価構造そのものを変える試みだ。

今後見るべきポイントは三つある。第一に、AnthropicとFractileの協議が正式契約に進むか。第二に、Fractileが実チップで公的に検証可能な性能・消費電力・コスト指標を示せるか。第三に、Claudeのような実運用モデルを、既存GPU/TPU環境からどれだけ容易に移せるかだ。

Fractileが成功すれば、推論インフラはより多様で、より用途別に最適化されたものになる。一方で、量産、ソフトウェア、資金力、顧客導入という壁は高い。現時点で確かなのは、Claudeの需要増がAnthropicに長期のチップ調達戦略を急がせており、推論コストを下げる競争がAI産業の次の主戦場になっているということだ。