OpenAI、GPT-5.4-CyberとTrusted Access新段階を発表
2026年4月14日、OpenAIはサイバー防衛向け施策の拡張として、Trusted Access for Cyber(TAC)を「認証済みの個人ディフェンダー数千人」と「重要ソフトウェアを守る数百のチーム」へ広げると発表した。あわせて、GPT-5.4を防御用途向けにより使いやすく調整した限定モデル「GPT-5.4-Cyber」を、TACの最上位層に提供し始める。今回の要点は、新モデルの投入そのもの以上に、「高いサイバー能力を持つAIを、誰に・どの条件で・どこまで開放するか」という配備設計を、OpenAIが一段細かく作り始めたことにある。 (openai.com)
TACはもともと2026年2月5日に始まった仕組みで、個人の本人確認や企業単位の申請を通じて、防御的なサイバー業務で安全策に引っかかりやすい利用者の摩擦を下げる狙いがあった。今回の拡張では、そのTACに複数のアクセス層が設けられ、最上位層には、正当なセキュリティ作業に対する拒否を下げたGPT-5.4-Cyberが与えられる。OpenAIによれば、このモデルは高度な防御ワークフロー向けに調整されており、ソースコードがなくても、コンパイル済みバイナリを解析してマルウェア性や脆弱性、堅牢性を調べるようなリバースエンジニアリングも支援できるという。ただし、より許容的なモデルであるため、展開は当面、審査済みのセキュリティ企業・組織・研究者への限定的かつ段階的なものになる。特に、OpenAI側の可視性が下がるZero Data Retention(ZDR)環境や第三者経由の利用には制約が残る。 (openai.com)
この判断の背景には、モデル能力そのものの上昇がある。OpenAIは2026年3月に公開したGPT-5.4を、GPT-5.3-Codexと同様にPreparedness Framework上の「High cyber capability」と位置づけた。System Cardでは、この水準を「比較的堅牢な標的に対するエンドツーエンドのサイバー作戦」や「実運用上意味のある脆弱性の発見・悪用の自動化」に関する既存ボトルネックを外しうる段階として説明している。さらに最新版Preparedness Frameworkは、高水準能力に達したモデルは、関連リスクが十分に抑えられるまで配備しないという原則を明記している。GPT-5.4-Cyberは、その高能力モデルをさらに防御用途へ寄せて使いやすくした変種であり、だからこそ公開範囲ではなくアクセス階層の設計が前面に出てくる。 (openai.com)
重要なのは、OpenAI自身がここで過度な「攻撃AI」物語を煽っていないことだ。2025年10月の脅威報告で同社は、脅威アクターはAIによってまったく新しい攻撃能力を得るというより、従来の手口を速く回すためにAIを使っていると述べている。一方で、2026年4月の発表では、既存モデルでも脆弱性探索やコードベース横断の推論、サイバーワークフローの相当部分を支援でき、攻撃側も新しいAI活用を試していると説明した。要するに、OpenAIの認識は「破局的な断絶」ではなく、「攻守の作業速度がともに上がる移行局面」だと言える。そのため、全面解放でも全面封鎖でもなく、認証・監視・段階開放を組み合わせる方針が採られている。これは“AIサイバー実装競争”を、モデル性能競争ではなく配備設計競争として捉える見方でもある。 (openai.com)
技術的に見ると、OpenAIはここ数世代で「一律に拒否する」方式から、「モデル訓練+監視+アクセス制御」の多層防御へ移ってきた。GPT-5.3-CodexのSystem Cardでは、危険なサイバー行為を拒否する安全訓練、二段階の会話監視、アカウント単位の執行、TACによる信頼ベースのアクセス制御が説明されている。高リスク通信の一部はより能力の低いモデルへルーティングされ、ZDR環境では非同期の分類器で高リスク内容を遮断する。さらにGPT-5.4系では、API利用時にエンドユーザー単位で挙動を追跡する safety identifier も用意された。興味深いのは、これらの監視系が危険な挙動を取り逃さないよう再現率重視で設計されている点で、その代償として正当な利用まで巻き込む偽陽性が起こりうることをOpenAI自身が認めていることだ。TAC拡張は、まさにその摩擦を減らすための制度的補助線でもある。 (deploymentsafety.openai.com)
もう一つ見逃せないのは、今回の発表が単独モデルではなく、周辺の防衛エコシステムと一体で語られている点だ。OpenAIは2月時点でサイバー防衛向けに1,000万ドルのAPIクレジットを用意するCybersecurity Grant Programを打ち出しており、4月の発表では、Codex for Open Sourceを通じて1,000超のオープンソースプロジェクトに無料のセキュリティスキャンを提供してきたと説明した。さらに、3月公開のCodex Securityは、直近30日で外部リポジトリの120万超のコミットを走査し、792件のクリティカル所見と1万561件の高重大度所見を見つけたとしている。4月発表では、このCodex Securityが最近のローンチ以降、エコシステム全体で3,000件超のクリティカル/高重大度の修正済み脆弱性に寄与したとも述べられた。つまりOpenAIは、攻撃寄りの能力を隠すだけではなく、防御側の運用現場にAIを埋め込み、脆弱性の発見から修正までの流れを短縮する方向へ舵を切っている。 (openai.com)
今後の展望としては、OpenAIは現行モデルに対する現在の安全策クラスは広い配備を支えるのに十分であり、今後数か月のより強力なモデルにも概ね応用可能だと見る一方、サイバー用途に明示的に訓練され、より許容的になったモデルには、より厳しい配備管理が必要だとしている。長期的には、将来モデルの能力が現在の専用モデルすら上回るため、さらに広範な防御策が必要になるとも予告した。今回のGPT-5.4-Cyberは、その長期戦の入口と見るのが妥当だろう。焦点は「AIが攻撃を自動化するか」だけではない。むしろ本質は、強力なサイバー能力を持つAIを、検証可能な防御主体へどう流し込み、監視可能性と利便性をどう両立させるかに移っている。OpenAIはその答えを、モデル単体ではなく、認証・可視性・運用文脈まで含んだ“アクセスの制度設計”として出し始めた。 (openai.com)
出典
- OpenAI「Trusted access for the next era of cyber defense」(2026年4月14日) (openai.com)
- OpenAI「Introducing Trusted Access for Cyber」(2026年2月5日) (openai.com)
- OpenAI「Introducing GPT-5.4」(2026年3月5日) (openai.com)
- OpenAI「GPT-5.4 Thinking System Card」および「GPT-5.3-Codex System Card」 (deploymentsafety.openai.com)
- OpenAI「Codex Security: now in research preview」(2026年3月6日) (openai.com)
- OpenAI「Disrupting malicious uses of AI: October 2025」(2025年10月7日) (openai.com)