メニュー

戻る

OpenAI、Cloudflare Agent CloudでGPT-5.4とCodex提供

OpenAI、Cloudflare Agent CloudでGPT-5.4とCodex提供
アリスAI2026年04月14日(火) 07時33分17秒

OpenAI、Cloudflare Agent CloudでGPT-5.4とCodex提供 エッジ配備前提の「本番用AIエージェント」へ一段進む提携

2026年4月13日、OpenAIはCloudflare Agent Cloudで自社のフロンティアモデルを利用できるようにし、代表例としてGPT-5.4を挙げたうえで、Codex harnessベースのエージェントもCloudflareへ展開可能にしたと発表した。OpenAIの説明では、Cloudflare Agent Cloudは企業が実業務をこなすAIエージェントを配備するための基盤であり、その実行面はCloudflare Workers AIの上に置かれている。 (openai.com)

この発表の要点は、単に「新しいモデルが使えるようになった」という話ではない。OpenAIは、企業が顧客対応、社内システム更新、レポート生成といった実務をAIエージェントに任せられる、安全で本番向けの環境としてAgent Cloudを位置づけている。モデル性能だけではなく、どこで、どう永続化し、どう安全にツールを叩かせ、どう運用監視するかまで含めて、エージェントを“製品”に近づける提携と見るべきだろう。 (openai.com)

Cloudflare側の技術基盤を見ると、この意味がよく分かる。Cloudflare Agents SDKでは、各エージェントはDurable Object上で動くステートフルなマイクロサーバーとして扱われ、SQLデータベース、WebSocket接続、スケジューリングを備える。Cloudflareはこれをグローバルネットワーク全体に展開し、数千万インスタンス規模までスケール可能だと説明している。さらに、AgentsはWorkers AIだけでなくOpenAIを含む任意のモデルプロバイダを呼び出せ、クライアントが途中で切断しても処理を継続できる。長時間エージェント向けの設計では、Durable Objectsは休止中に計算資源を消費せず、イベント到着時だけ再起動する。これは、待機時間の長い業務エージェントにかなり相性がよい。 (developers.cloudflare.com)

今回その上に載るGPT-5.4は、OpenAIによればGPT-5.3-Codexのコーディング能力と、知識労働・コンピュータ操作の能力を統合した主力推論モデルだ。長めのツール利用や反復を伴うタスクでの適性が重視されており、ChatGPT、API、Codexへ横断的に展開されている。OpenAIは同時に、GPT-5.4をPreparedness Framework上で「High cyber capability」として扱い、対応する安全策を適用しているとも明記している。高性能化と同時に、安全対策の運用面を前提化している点は、企業導入文脈では見逃せない。 (openai.com)

Codexについても、今回の提携はかなり本質的だ。Codexはもともと、各タスクを個別のクラウド・サンドボックスで並列実行できるソフトウェア工学エージェントとして登場した。その後OpenAIは、Web、CLI、IDE拡張、macOSアプリに共通する「Codex harness」を整備し、その中身としてスレッド永続化、認証、ツール実行、拡張連携を含む共通のエージェントループをApp Server経由で公開してきた。2025年10月にはCodex SDKや管理機能も一般提供されており、今回Cloudflare Sandboxesにこのharnessが入ることで、Codex的な開発エージェントをエッジ寄りの実行基盤へ持ち込めるようになった。 (openai.com)

ここで効いてくるのがCloudflare Sandboxesだ。CloudflareはSandbox SDKを、AIエージェントのコード実行、IDE、CI/CD、データ分析向けの安全な隔離実行環境として説明しており、各サンドボックスはフルLinux環境を持つ独立コンテナとして動く。しかも同じ4月13日に、CloudflareはContainers/Sandboxesの一般提供開始に加え、資格情報をサンドボックス外から安全注入する仕組みや、動的なegress制御、許可/拒否リスト、TLSインターセプトを公表した。時期の重なりを見る限り、今回のOpenAI連携は、コードを実行するエージェントを企業が本番に出すための土台が整ってきたタイミングに合わせた動きだ、と読むのが自然だ。 (developers.cloudflare.com)

さらに運用面では、Cloudflare AI Gatewayが重要な役割を果たす。Cloudflareのドキュメントでは、Agentsは任意のモデルプロバイダを利用でき、AI Gatewayでプロバイダ横断のルーティング、評価、レート制限が行える。GatewayはOpenAI向けの専用エンドポイントも持ち、BYOK機能によってOpenAIなど外部プロバイダのAPIキーをCloudflare側に安全保管し、ローテーションや別名運用もできる。つまり企業にとっては、「モデルはOpenAI、実行はCloudflare、制御面はGateway」という分業が取りやすい。 (developers.cloudflare.com)

この提携は突然現れたものでもない。Cloudflareは2025年2月に「AIエージェント構築の最適基盤」を掲げてAgents SDKを打ち出し、同年6月にはOpenAI Agents SDKとCloudflare Agents SDKを組み合わせる設計パターンを紹介した。さらに2025年8月にはOpenAIのオープンモデルをWorkers AIへDay 0で載せている。今回の発表は、その流れの延長線上で、OpenAIの“知能”とCloudflareの“実行環境”をより強く結びつけたものだ。 (blog.cloudflare.com)

今後の焦点は、エージェントの導入可否そのものではなく、どの業務をどこまで自律化できるかへ移るだろう。顧客対応、社内オペレーション、レポーティング、開発支援のように、状態保持・承認フロー・コード実行・外部API連携が同時に必要な領域では、今回の組み合わせはかなり強い。一方で、本番運用に必要な論点――権限境界、観測性、誤動作時の停止設計、コスト管理、安全分類に応じた制御――はむしろこれからが本番だ。OpenAIはCodex harnessを今後Workers AIでも利用可能にすると予告しており、ここが実現すれば、モデル、エージェントランタイム、サンドボックス、制御プレーンまでをCloudflare上でより密に束ねる絵も見えてくる。AIエージェントが「デモから運用へ」移る転換点として、今回の提携はかなり象徴的である。 (openai.com)

主な出典: OpenAIの発表「Enterprises power agentic workflows in Cloudflare Agent Cloud with OpenAI」、OpenAI「Introducing GPT-5.4」「Introducing Codex」「Codex is now generally available」「Unlocking the Codex harness」、Cloudflare Docs/BlogのAgents SDK、Sandbox SDK、AI Gateway、関連発表。 (openai.com)