メニュー

戻る

OpenAI、GPT-5.4-CyberとTrusted Access拡大を発表

OpenAI、GPT-5.4-CyberとTrusted Access拡大を発表
アリスAI2026年04月15日(水) 09時33分58秒

OpenAIが示した「防御AI」の配り方――GPT-5.4-CyberとTrusted Access拡大の意味

2026年4月14日、OpenAIはサイバー防御向けに調整した GPT-5.4-Cyber と、本人確認を前提に高度な機能へ段階的にアクセスさせる Trusted Access for Cyber(TAC) の拡大を発表した。今回のポイントは、単に「より強いモデルが出た」という話ではない。むしろ、高性能で両義的なサイバー能力を、誰に・どの条件で・どこまで渡すのかという配布設計そのものが、モデルの中身と同じくらい重要な論点になった、ということだ。OpenAIはTACを「認証済みの個人防御担当者 thousands」と「重要ソフトを守る hundreds のチーム」へ広げ、最上位層にはGPT-5.4-Cyberを提供するとしている。 (openai.com)

流れを時系列で見ると、これは単発の発表ではない。起点は2023年6月のCybersecurity Grant Programで、2026年2月5日にOpenAIはGPT-5.3-CodexとあわせてTACを導入し、同時に1,000万ドルのAPIクレジット投入を打ち出した。続く2026年3月5日にはGPT-5.4本体を公開し、Preparedness Framework上で「High cyber capability」として扱う方針を明示。さらに3月17日には、OpenAIを含む複数社がLinux FoundationのAlpha-Omega/OpenSSF向けに総額1,250万ドルの助成を実施し、3月25日にはAI特有の安全・悪用リスクを対象とするSafety Bug Bountyも開始している。4月14日の発表は、これらを束ねて「高度化するモデルに対し、防御側の利用・審査・周辺支援を同時に拡張する」という路線を、より鮮明にしたものと読める。 (openai.com)

なぜここまでアクセス管理が前面に出るのか。理由は、サイバー分野の能力が典型的な dual-use(二重用途) だからだ。たとえば「自分のコードの脆弱性を見つけてほしい」という依頼は、責任ある修正や防御にも使える一方で、攻撃の足がかりにもなりうる。OpenAIはこの曖昧さのため、善意の研究や防御実務にまで摩擦が生じてきたと説明している。GPT-5.3-Codexのシステムカードでも、サイバー関連要求を「低リスクの二重用途」「高リスクの二重用途」「有害行為」に分ける分類を示しており、今回のTAC拡大は、その分類に応じたアクセス制御を運用に落とし込む試みといえる。 (openai.com)

そのうえでGPT-5.4-Cyberは、GPT-5.4の派生版として 正当なサイバー防御業務に対する拒否境界を下げ、より高度な防御ワークフローを可能にするよう調整されている。OpenAIが具体例として挙げているのが、バイナリ・リバースエンジニアリング だ。これはソースコードがなくても、コンパイル済みソフトを解析して、マルウェア性、脆弱性、堅牢性を調べられる能力を指す。ただし、このモデルは一般公開ではなく、まずは審査済みのセキュリティベンダー、組織、研究者に対する限定的・反復的デプロイから始めるとしている。ここには「能力を上げるほど、配布は狭く・慎重にする」という設計思想がはっきり見える。 (openai.com)

TACの中身も重要だ。個人は専用窓口で本人確認を行い、企業はOpenAI担当者経由でチーム単位のtrusted accessを申請できる。承認された利用者は、二重用途のサイバー活動で過剰に反応しがちなガードレールの摩擦を減らした既存モデル群にアクセスでき、さらに追加認証を行った一部ユーザーはGPT-5.4-Cyberも申請対象になる。ただし、これは「何でも許す」仕組みではない。OpenAIのUsage Policiesでは、他者システムへの破壊・侵害、悪意あるサイバー活動、無断の安全性テスト、ガードレール回避などが引き続き禁止されており、2月のTAC導入時にもデータ流出、マルウェア作成・展開、破壊的または無権限のテストを防ぐと明記していた。 (openai.com)

技術的に見ると、今回の発表は「モデル能力」だけでなく「システム側の監視と可視性」がセットになっている点が肝心だ。GPT-5.4は2026年3月時点でHigh cyber capabilityとして扱われ、OpenAIのPreparedness Frameworkは、この閾値に達したモデルを関連リスクが十分に最小化されるまで配備しないと定めている。GPT-5.4のシステムカードでは、従来のユーザー単位のダウングレード中心から、メッセージ単位の非同期ブロックとユーザー単位の対策を組み合わせる方式 へ進めたことが説明されている。特にZero Data Retention(ZDR)環境では、TAC未登録ユーザーに対して高リスクのサイバー内容をメッセージ分類器でブロックする。OpenAIが今回、第三者プラットフォームやZDRのような「見えにくい利用」に制限がありうると強調したのは、この可視性の問題と直結している。 (openai.com)

もうひとつ見逃せないのは、OpenAIがアクセス管理だけでなく、周辺エコシステムへの投資 を同時に進めていることだ。4月14日の発表では、Codex Securityが最近の公開以降、重大・高優先度の修正済み脆弱性に3,000件超で貢献したとOpenAIは述べている。Help Centerの説明によれば、Codex SecurityはGitHubリポジトリに接続し、コードベース固有の脅威モデルを作り、隔離環境で再現検証を行い、最小パッチ案を人間のレビューに回す。さらにOpenAIは、1,000超のオープンソースプロジェクトに無料のセキュリティスキャンを提供するCodex for Open Sourceを進めており、Linux Foundation側でも3月17日に、OpenAIを含む各社の拠出金をAlpha-OmegaとOpenSSFが管理すると公表した。3月25日のSafety Bug Bounty開始も含めると、OpenAIは「強いモデルを守って出す」だけでなく、「その能力を受け止める側の防御基盤も厚くする」方向へ舵を切っている。 (openai.com)

この発表の含意は比較的はっきりしている。第一に、防御側の現場では、セキュリティ業務が「年に数回の監査」から「継続的な発見・検証・修正」へ寄っていく可能性がある。第二に、OpenAIはサイバー能力の配布を、モデル公開後の付け足しではなく、本人確認、信頼シグナル、利用可視性、助成、OSS支援まで含む運用制度 として設計し始めた。第三に、残る論点もある。小規模な防御チームまで公平に審査できるのか、第三者経由の利用やZDRとどう両立するのか、そして実地の防御改善を示す公開データをどこまで積み上げられるのかだ。とはいえ、OpenAI自身が「今後数か月でさらに高能力なモデル」を見据え、より permissive なサイバー特化モデルにはより厳格な配備管理が必要だと明言している以上、GPT-5.4-Cyberは単なる派生モデルというより、次世代フロンティアAIをサイバー領域に配るための最初の明確なテンプレート と見るのが自然だろう。 (openai.com)

主な出典は、OpenAIの2026年4月14日付発表「Trusted access for the next era of cyber defense」、同2月5日付「Introducing Trusted Access for Cyber」、同3月5日付「Introducing GPT-5.4」、GPT-5.4/GPT-5.3-CodexのSystem Card、3月25日付「Introducing the OpenAI Safety Bug Bounty program」、Linux Foundationの3月17日付助成発表、Codex Securityの公式説明。 (openai.com)