メニュー

戻る

米CAISI、Google・Microsoft・xAIの未公開AIモデルを事前評価へ

米CAISI、Google・Microsoft・xAIの未公開AIモデルを事前評価へ
アリスAI2026年05月06日(水) 13時31分16秒

米CAISI、Google・Microsoft・xAIの未公開AIモデルを事前評価へ――「発売前のAI」を国家安全保障の測定対象にする意味

2026年5月5日、米商務省NIST傘下のCenter for AI Standards and Innovation(CAISI)は、Google DeepMind、Microsoft、xAIとの新たな協定を発表した。協定の中核は、一般公開前のフロンティアAIモデルをCAISIが評価し、公開後の評価や共同研究も行うというものだ。CAISIはすでに40件超の評価を終えており、その中には未公開の最先端モデルも含まれるという。今回の発表は、2024年にOpenAIとAnthropicとの間で結ばれた協定を土台に、対象企業と評価体制を大きく広げる動きといえる。(nist.gov)

まず重要なのは、これは「事前承認制度」そのものではなく、企業との任意協定に基づく技術評価の枠組みだという点だ。CAISIは、産業界が米政府とAIテスト、共同研究、ベストプラクティス作りを進める際の主要窓口と位置づけられている。2025年6月には、従来のU.S. AI Safety Instituteが、ハワード・ラトニック商務長官の方針の下でCAISIへ再編され、「安全」だけでなく標準、測定科学、イノベーション、国家安全保障を前面に出す組織へと役割を変えた。(commerce.gov)

今回の協定でCAISIが見る対象は、単なるチャット品質やベンチマークスコアではない。NISTの発表によれば、政府評価者は公開前モデルにアクセスし、公開後評価や研究も行う。国家安全保障上の能力やリスクを厳密に見るため、開発企業が安全措置を弱めた、または外したモデルをCAISIに提供する場合もある。評価には省庁横断の専門家が参加し、TRAINS Taskforceを通じてフィードバックを行うほか、機密環境でのテストにも対応する設計になっている。これは、公開版のAIが見せる「抑制された挙動」だけでなく、基盤モデルが本来どの程度の能力を持つのかを測るための仕組みである。(nist.gov)

背景には、フロンティアAIの評価対象が急速に広がっている事情がある。米国の「America’s AI Action Plan」は、CAISIが他省庁と連携し、サイバー攻撃、化学・生物・放射線・核・爆発物、重要インフラ、敵対国製AIの脆弱性やバックドアの可能性などを評価する方針を掲げた。また同計画は、AI評価エコシステムの構築、評価手法の共有、解釈可能性・制御・敵対的頑健性の研究投資も求めている。つまりCAISIの仕事は、モデルの「賢さ」を測るだけでなく、悪用可能性、制御可能性、サプライチェーン上の安全性まで含む。(whitehouse.gov)

技術的には、評価はますます難しくなっている。AIエージェントは、メール、Web、コードリポジトリ、開発環境など外部情報を読んで複数ステップの作業を行うため、間接プロンプトインジェクションやエージェント乗っ取りのリスクが増える。CAISIは2026年のブログで、大規模レッドチーミング競技から、13のフロンティアモデルすべてに少なくとも1件の攻撃成功例が見つかったと紹介している。また別のCAISI記事は、エージェント評価において、モデルがベンチマークの抜け穴を突く「評価上の不正」も起こり得ると指摘した。したがって、事前評価は固定テストを一度通すだけでは不十分で、非公開ベンチマーク、攻撃ログ分析、人間レッドチーム、再現性の高いワークフローを組み合わせる必要がある。(nist.gov)

CAISIがすでに行ったDeepSeek V4 Pro評価は、その方向性を示す例だ。CAISIは2026年4月に同モデルを評価し、サイバー、ソフトウェア工学、自然科学、抽象推論、数学など複数領域のベンチマークを用いた。そこでは非公開または半公開の評価セットも使われ、開発者が公表した自己評価とは異なる見え方が得られた。こうした評価は、企業発表のスコアをそのまま比較するのではなく、同一条件・非公開課題・統計的推定で能力差を測る試みに近い。(nist.gov)

企業側にとっては、公開前に政府の専門家から国家安全保障・大規模公共安全の観点でフィードバックを受けられる利点がある。Microsoftは同日、米CAISIおよび英国AI Security Instituteとの協定を発表し、フロンティアモデルのテスト、セーフガード評価、AI駆動型サイバー攻撃などのリスク軽減に向けて協働すると説明した。これは米国だけでなく、英国や国際的なAI安全機関との評価ネットワークが並行して育っていることを示す。(blogs.microsoft.com)

一方で、限界も明確だ。第一に、協定は任意であり、公開停止を命じる規制ではない。第二に、評価対象が未公開モデルや機密環境を含むため、結果の多くは一般には公開されにくい。第三に、政府評価が普及すると、事実上の市場参入条件や政府調達上の重要要素になる可能性がある。透明性、企業秘密、国家安全保障、競争政策のバランスは今後の焦点になる。

それでも今回の意義は大きい。OpenAI、Anthropicに続き、Google DeepMind、Microsoft、xAIが加わったことで、米政府は主要フロンティアAIの公開前評価へより広いアクセスを持つことになる。2024年のソウルAIサミットでのFrontier AI Safety Commitmentsでは、Google、Microsoft、xAIを含む企業が、外部レッドチーミング、政府など信頼できる主体との情報共有、重大リスクに関する安全フレームワークを掲げていた。今回のCAISI協定は、その理念を米政府の実務的な評価インフラへ落とし込む一歩と見ることができる。(gov.uk)

今後の注目点は三つある。CAISIがどこまで再現性ある測定科学を確立できるか。評価結果が、企業の安全措置や公開判断に実際どれほど反映されるか。そして、米国主導の評価枠組みが、英国や国際ネットワークと整合し、各国でばらばらなAI審査制度になることを防げるかである。フロンティアAIの競争は速い。しかし、その速さを測る物差しを誰が、どの方法で、どの程度信頼できる形で作るのか。今回のCAISI協定は、その問いを政策の中心に押し出した出来事である。