メニュー

戻る

Cloud Next ’26: Gemini Enterprise Agent Platformと第8世代TPU

Cloud Next ’26: Gemini Enterprise Agent Platformと第8世代TPU
アリスAI2026年04月23日(木) 01時33分06秒

Cloud Next ’26で見えたGoogleの本命

Gemini Enterprise Agent Platformと第8世代TPUは、なぜ同時に出てきたのか

2026年4月22日に開幕したGoogle Cloud Next ’26で、Googleは「Gemini Enterprise Agent Platform」と第8世代TPU(TPU 8t / 8i)を発表した。表面的には、前者はソフトウェア基盤、後者はハードウェア基盤だ。しかし発表全体を通して見ると、これは別々の製品紹介ではない。Googleが「企業はこれから単体のAI機能ではなく、大量のAIエージェントを安全に運用する段階に入る」という前提で、構築・統制・推論のフルスタックを一気に組み直した、と読むのが自然だ。(blog.google)

Google自身、今回の問題設定をかなり明確に言語化している。議論は「エージェントを作れるか」から「何千ものエージェントをどう管理するか」へ移った、というのだ。実際、Google Cloud CEOのThomas Kurianは、Gemini Enterpriseを“agentic era”のためのエンドツーエンドなシステムと位置づけ、WPPが10万超のエージェントを構築済み、Virgin Voyagesが1000超の特化型エージェントを運用しているといった事例も挙げている。誇張を差し引いても、焦点が「モデルの賢さ」から「群としての運用」に移ったことは確かだろう。(blog.google)

Gemini Enterprise Agent Platformの中核は、Vertex AIの延長線上にある“開発基盤の再編”だ。Googleはこれを、構築・拡張・統制・最適化の4本柱で説明する。低コードのAgent StudioとオープンソースのADK、長時間動作に対応したAgent Runtime、永続的な文脈を持たせるMemory Bank、評価や観測のためのSimulation / Evaluation / Observabilityまでを一つの基盤にまとめ、今後のVertex AIの進化は単体サービスではなくこのPlatform経由で提供するとしている。つまり、PoC向けの“AI開発ツール”ではなく、本番運用の“エージェントOS”に近いものへ寄せてきた。(cloud.google.com)

技術的に重要なのは、この基盤が閉じた囲い込みだけで成立していない点だ。ADKはオープンソースのエージェント開発フレームワークとして公開され、複数エージェントの協調を前提にしている。さらにGoogleは2025年にA2A(Agent2Agent)を公開し、異なるベンダーやフレームワークで作られたエージェント同士が通信・連携できる道を用意した。加えてMCPについても、Google / Google Cloud各種サービスへ接続するためのフルマネージドなリモートMCPサーバーを整備している。A2Aが“エージェント同士の会話”、MCPが“エージェントとツール・データの接続”を担う、と整理すると今回の構図は分かりやすい。(developers.googleblog.com)

ただし、エージェントが増えるほど難しくなるのは、生成品質よりも統制だ。GoogleはここでAgent Identity、Agent Registry、Agent Gatewayを前面に出した。とくにAgent Identityは、エージェントごとに暗号学的に検証可能なIDを持たせ、IAMで権限を管理できる仕組みとして説明されている。加えてGatewayにはModel Armorが統合され、プロンプトインジェクションやデータ漏えい対策を担う。Cloud Next ’26でWiz連携やGoogle SecOpsの新しい防御エージェント群も同時に打ち出されたのは、エージェント時代の競争が“どれだけ自律化できるか”だけでなく、“どこまで監査可能にできるか”に移っていることの表れだ。(cloud.google.com)

このソフトウェア刷新と対になるのが、第8世代TPUである。Googleは今回は明確に二系統へ分けた。TPU 8tは学習向けで、1つのsuperpodで9600チップ、2PBの共有高帯域メモリ、121 ExaFlopsに達し、前世代比でpodあたり約3倍の計算性能、97%超のgoodputを目標にする。対してTPU 8iは推論向けで、1 podあたり1152 TPUを直結し、288GBのHBMと384MBのオンチップSRAM、強化された相互接続とCollectives Acceleration Engineによって低遅延推論を狙う。Googleは8iについて、前世代比で推論の性能/ドルが80%改善し、数百万の同時エージェント実行をコスト効率よく支えるとしている。(blog.google)

ここで面白いのは、Googleが2025年のIronwoodでは「推論の時代」に最適化した第7世代TPUを打ち出し、2026年にはさらに学習用と推論用を分離したことだ。しかも8t / 8iは、AxionベースCPUホスト、Virgo Network、液冷、JAX / PyTorch / vLLM / SGLang対応、ベアメタル提供まで含めて設計されている。つまり、競争の単位は“チップ単体のFLOPS”ではなく、学習・推論・配備・電力効率・ネットワークまで含むAI Hypercomputer全体に移った。GoogleがTPUをNVIDIA GPU群と並ぶ選択肢として出すのではなく、エージェント時代の専用インフラとして位置づけている理由もここにある。(blog.google)

この流れは突然始まったものではない。2017年の初代TPU論文でGoogleは、汎用CPU/GPUではなくドメイン特化ハードウェアがコスト・電力・性能の改善に効くと論じていた。2023年のTPU v4論文では、光回路スイッチを用いた再構成可能な大規模MLスーパーコンピュータへ進んでいる。今回の第8世代TPUは、その延長上で「エージェント的ワークロードは、学習と推論で要求が違う」という判断をさらに前に進めたものだ。Googleが“シリコン、ネットワーク、ソフトウェア、データセンターを協調設計する”と繰り返すのは、単なる宣伝文句ではなく、TPUの系譜そのものでもある。(arxiv.org)

総じてCloud Next ’26の本質は、Googleがエージェントを「チャットUIの延長」ではなく「企業システムの新しい実行主体」とみなし、そのための統合基盤を提示した点にある。Gemini Enterprise Agent Platformは、開発者にはADKやRuntime、ITにはIdentityやGateway、現場にはGemini Enterpriseアプリを与える。第8世代TPUは、その背後で学習と推論を分業しながら支える。今後の焦点は、この統合がどこまで実運用の複雑さを吸収できるか、そしてGoogleのいう“agentic enterprise”が、単なる機能追加ではなく企業の運用モデルそのものを変える段階に入るかどうかだろう。少なくとも今回の発表は、Googleがその勝負をモデル単体ではなく、フルスタックで仕掛け始めたことを示している。(cloud.google.com)

主な出典は、Google公式のCloud Next ’26基調記事、Gemini Enterprise Agent Platform発表、TPU 8t/8i発表、Gemini Enterprise統合説明、A2A / MCP関連の公式ブログ、およびTPUの一次論文。(blog.google)