Anthropicと米政権、Mythosを巡り雪解けの兆し
4月17日、Anthropicのダリオ・アモデイCEOはホワイトハウスでスージー・ワイルズ大統領首席補佐官、スコット・ベッセント財務長官らと会談した。2月末から3月にかけて、米政権とりわけ国防総省との関係が急速に悪化していたことを思えば、これは明らかな変化だ。表向きの争点は、Anthropicが自社AIを「完全自律型兵器」と「米国民への大規模な国内監視」に使わせないという条件を譲らなかったことだった。だが、4月7日に発表された新モデル「Claude Mythos Preview」が、対立の構図そのものを変えた。いま起きているのは単なる和解ではない。生成AIを安全保障にどう組み込み、その利用条件を誰が決めるのかという、より大きな主導権争いの局面転換である。 (apnews.com)
まず確認しておきたいのは、Anthropicがもともと「反政府」企業だったわけではない点だ。同社は2025年6月に米国家安全保障向けの「Claude Gov」モデルを発表し、7月には国防総省CDAOから上限2億ドルの試作契約を獲得した。8月には超党派の国家安全保障・公共部門アドバイザリー評議会も立ち上げ、DOEとの連携や国家安全保障分野での実装を前面に押し出してきた。Anthropic自身も、政府の機密ネットワークや国立研究所への展開、CAISIや英国AISIとの評価連携を公表しており、国家安全保障コミュニティとの接点はかなり深い。つまり今回の摩擦は、「防衛協力の是非」ではなく、「どこまで無条件で協力するか」をめぐる衝突だった。 (anthropic.com)
その衝突は2月下旬に表面化する。Anthropicは、軍事判断そのものは政府の権限だと認めつつも、現行のフロンティアモデルは完全自律型兵器や大規模監視に安全・信頼性の面で耐えないと主張した。これに対し国防総省側は「合法な用途すべて」に対応することを求め、交渉は決裂。トランプ大統領は連邦機関にAnthropic技術の利用停止を指示し、ピート・ヘグセス国防長官は同社を「サプライチェーン・リスク」と位置づけようとした。Anthropicは3月9日に提訴し、3月26日には連邦地裁のリタ・リン判事がこの措置の執行を差し止めた。4月2日には政権側が控訴しており、法廷闘争そのものはまだ続いている。 (anthropic.com)
では、なぜここで空気が変わったのか。答えはMythosにある。Anthropicは4月7日、Mythos Previewを一般公開せず、Project Glasswingの枠組みで限定提供すると発表した。理由は、このモデルがサイバー防御にも攻撃にも転じうる、極めて強い二面性を持つからだ。Anthropicは、Mythosが「最も熟練した人間を除けば」脆弱性発見・悪用能力で上回りうるとし、主要OSやブラウザを含む広範なソフトウェアから高深刻度の脆弱性を数千件見つけたと説明している。GlasswingにはAWS、Apple、Google、Microsoft、JPMorganChase、Linux Foundationなどが参加し、防御目的で先行利用する。これは製品発表というより、危険能力を持つモデルのアクセス統治実験に近い。 (anthropic.com)
もっとも、Anthropicの自己評価だけで結論を急ぐべきではない。重要なのは、外部評価でも能力向上が確認されていることだ。英国AISIは4月13日、Mythos Previewが32段階の企業ネットワーク侵害シミュレーション「The Last Ones」を初めて最後まで解いたモデルであり、10回中3回で完走、平均22ステップを達成したと公表した。他方で、評価環境は実世界より単純で、運用技術(OT)向けレンジは攻略できなかったとも明記している。つまりMythosは「何でも自律的に破れる万能攻撃AI」ではないが、少なくとも弱い防御の企業環境に対する多段侵入を自動化しうる水準に達しつつある、というのがより正確な理解だろう。 (aisi.gov.uk)
この評価は、ホワイトハウスや財務当局の計算を変えた。4月上旬にはベッセント財務長官とパウエルFRB議長が大手銀行首脳を集め、Mythosが金融システムにもたらすリスクと対策を協議したと報じられ、BNYはAnthropicとOpenAIの先行モデルに早期アクセスしていると明らかにした。4月17日のホワイトハウス会談でも、政府がAnthropicとの連絡線を維持する必要性や、新モデルの公開条件・保護策が議題になったとされる。一方でOMBは、現時点で各省庁へのアクセス解禁や正式な政策変更が決まったわけではなく、必要なら「修正版」を含む形でガードレールを詰める段階だと説明している。雪解けは始まったが、全面的な復縁ではない。 (axios.com)
ここで見えてくるのは、争点の移動である。2月までの争いは「企業が軍に条件を付けられるか」だった。4月以降の争いは「危険能力を持つ生成AIを、どの機関が、どの評価手順で、どの範囲に配るか」に変わりつつある。NISTのCAISIとGSAは3月、連邦政府の調達・評価基盤USAiでAIモデルをどう測るかに関する連携を発表した。GSAのUSAiは複数社モデルを共通基盤で比較・利用する構想で、Anthropicも差し止め後に復帰している。要するに、政府は個別企業の利用規約に従うだけでも、国防総省の恫喝的な調達権限に委ねるだけでもなく、評価・調達・アクセス管理を制度化する方向へ傾き始めている。 (nist.gov)
今後の焦点は三つある。第一に、控訴審を含む訴訟の行方だ。ここでは政府が安全保障を理由に民間AI企業へどこまで利用条件の撤回を迫れるかが問われる。第二に、Mythosのような高能力モデルを「限定公開」で運用する仕組みが業界標準になるかどうか。Anthropicはすでに選別提供、外部評価、脆弱性の責任開示を組み合わせている。第三に、OpenAIなど競合も含めた「国家安全保障向けAI」の標準設定競争だ。安全保障でAIを使うこと自体は既定路線になりつつある。残る問いは、そのとき最終的な条件設定権を持つのが、企業の安全ポリシーなのか、各省庁なのか、それとも共通評価基盤を軸とした新しい官民ガバナンスなのか、である。Mythosを巡る雪解けは、その答えを探るための第2ラウンドの開始を意味している。 (apnews.com)
主な出典: Anthropic公式発表(Claude Gov、DoD契約、Project Glasswing、対国防総省声明、CAISI/AISI連携)、英国AISIのMythos評価、NIST・GSA・USAiの公表資料、AP、Axios、TechCrunch。 (anthropic.com)