米政府機関は本当にAnthropic禁止を迂回しているのか――Mythos評価報道の意味
4月14日、ReutersはPolitico報道として、米政府機関や政府関係者がトランプ政権のAnthropic排除方針を横目に、同社の未公開モデル「Claude Mythos Preview」の能力を静かに見極め始めていると伝えた。記事によれば、商務省系のCenter for AI Standards and Innovation(CAISI)がMythosの“ハッキング能力”を試験し、少なくとも3つの議会委員会スタッフが同社から説明を受けるか、説明を求めたという。ただしReuters自身はこの具体的内容を独自確認できていない。一方で、Anthropic共同創業者のJack Clarkは4月14日、同社がトランプ政権にMythosを説明したことを認めており、Anthropicの公式発表にも「米政府当局者と継続的に協議している」と明記されている。つまり、少なくとも“政府との接触そのもの”は裏話ではなく、すでに公然化している。 (wsau.com)
ただし、この話を「禁止令があるのに政府が無視している」とだけ捉えると、4月15日時点の法的状況を見誤る。発端は2月27日、トランプ大統領が連邦政府にAnthropic技術の利用停止を命じ、国防総省が同社を「supply chain risk」に指定したことだった。だが3月26日、カリフォルニア北部地区連邦地裁のRita Lin判事は、この大統領指示と指定の執行を差し止める仮処分を出し、「現状回復」を命じた。他方で4月8日、ワシントンD.C.の連邦控訴裁判所は別訴でAnthropic側の救済申立てを退けている。APによれば、カリフォルニア側の判断を受けて政府はラベル撤回などを進め、政府職員や契約業者が再びClaude等を使える状態を整えた。要するに現在は「全面禁止が続く」単純な状態ではなく、政府横断の排除措置は差し止められつつ、国防関連の法的争点はなお係争中という、ねじれた局面にある。 (docs.justia.com)
では、そこまでして見たいMythosとは何か。Anthropicが4月7日に公表した説明によれば、Mythos Previewは同社で最も高性能なコーディング/エージェント系モデルであり、Project Glasswingの枠組みでAWS、Apple、Google、Microsoft、JPMorganChase、Linux Foundationなどに限定提供されている。Anthropicは、このモデルが「主要なすべてのOSと主要ブラウザ」で高重大度の脆弱性を大量に見つけており、一般公開の予定はないとしている。ここで重要なのは、Mythosがサイバー専用モデルではなく、汎用的なコード理解・推論・自律実行の伸びが、そのまま攻防両面のサイバー能力に転化したと位置づけられている点だ。 (anthropic.com)
技術面の中身は、誇張抜きでもかなり重い。AnthropicのFrontier Red Teamは、Mythosがユーザーに指示されれば主要OSと主要ブラウザのゼロデイを発見し、しばしばそのまま実用的なエクスプロイトまで組み立てられると述べる。OSS-Fuzz系の内部評価では、旧世代モデルがほとんど到達できなかった高難度領域で、Mythosは完全な制御フロー乗っ取りに10件成功したという。しかも同社は、こうした能力が明示的な“攻撃訓練”ではなく、コード・推論・自律性の一般能力向上から「自然に出てきた」と説明している。これは政策的にも重要で、危険能力を禁止タスク一覧で切り分ける発想が、汎用モデルでは急速に通用しにくくなることを示すからだ。 (red.anthropic.com)
もっとも、ベンダー発表をそのまま鵜呑みにする段階でもない。英国AI Security Institute(AISI)は4月13日、独自評価として、Mythosが32段階の企業ネットワーク攻撃シミュレーション「The Last Ones」を初めて最後まで完走したモデルだと報告した。10回中3回で完走、平均22/32ステップは確かに大きな前進だが、同時にAISIは「防御の薄い小規模・脆弱な環境」での能力を示すにとどまり、実運用の堅牢な防御環境を破れるとまでは言えないとも明記している。OT寄りの「Cooling Tower」レンジを完遂できなかった点も含め、独立評価はAnthropicの主張を補強しつつ、射程を限定している。 (aisi.gov.uk)
それでも政府が関心を示すのは不思議ではない。CAISIはNIST内で先端AIの評価やガイドライン策定を担う組織で、NIST自身が2025年9月にOpenAI・Anthropicとの安全性評価協力を公表している。したがって、Politicoが報じたCAISIによる試験が事実なら、それは「命令違反」というより、もともと政府にある評価・測定ミッションの延長線上に見える。また、Congressional Research Service(CRS)は、議会が国防総省のAIモデル利用やその信頼性についてまだ包括的に立法していないと整理しており、委員会スタッフが説明を求めるのも自然だ。要するに、技術の進展が制度の空白を先に突き抜けている。 (nist.gov)
この対立の核心は、「国家安全保障にAIを使うべきか」ではなく、「どこまでの用途を、どんな条件で許すのか」にある。AnthropicのDario Amodeiは、同社が米政府の機密ネットワークや国家安全保障分野をすでに支援してきた一方、拒んだのは「米国民への大規模国内監視」と「完全自律型兵器」の二点だと説明している。CRSも、米国防総省のDODD 3000.09が武力行使には適切な人間の判断を求めていると整理する。ならば今回の騒動は、親軍か反軍かの対立というより、デュアルユースAIにどの水準のガードレールを課すかをめぐる制度設計の衝突として読むほうが正確だろう。 (anthropic.com)
今後の焦点は、会社単位の排除よりも、モデル単位・用途単位のアクセス統治へ移ることだと考えられる。これは推測だが、Project Glasswingのような限定的研究プレビュー、NIST/CAISIの評価指針、裁判所が示した「使う義務はないが、広範な報復的排除は別問題」という線引きを踏まえると、将来は「軍事運用」「防御的サイバー評価」「重要インフラ防護」「議会監督」を分けて扱う、より細かな制度が必要になる公算が大きい。Mythos報道の本質は、政府がAnthropicをこっそり許し始めた、という単純な話ではない。むしろ、攻撃にも防御にも効く最先端AIが、政治対立や訴訟の最中でさえ政策の外に置けない段階へ入った、ということだ。いま問われているのは「評価しているか」より、「誰が、どの権限で、どんな監査と安全策の下で評価するのか」である。 (anthropic.com)
主な出典は、AnthropicのProject Glasswing/Mythos技術説明と対政府声明、英国AISIの独立評価、NIST/CAISIの公的文書、CRSの議会向け整理、連邦地裁の仮処分命令、AP・Reuters報道。 (anthropic.com)