OpenAIが支持したイリノイ州SB3444とは何か――AI大規模被害の「責任制限」をめぐる新しい境界線
2026年4月、WIREDは、OpenAIがイリノイ州上院法案SB3444を支持していると報じた。法案名は「Artificial Intelligence Safety Act」。一見すると安全性報告や透明性の義務づけを中心に見えるが、条文の核はそこではない。最大のポイントは、一定の公開・報告要件を満たしたフロンティアAI開発者について、「critical harm」が起きても責任を限定しうる仕組みを置いていることだ。これは、州レベルのAI規制が「安全報告」から「損害の帰属」へ踏み込む分岐点になりうる。 (wired.com)
SB3444でいう「critical harm」は、100人以上の死亡・重傷、または10億ドル以上の財産権被害を指し、それがフロンティアモデルによって引き起こされるか、少なくとも「materially enabled(実質的に可能にされた)」場合を含む。対象となる「frontier model」は、10^26超の計算量で訓練されたモデル、または計算コストが1億ドル超のモデルだ。法案は、開発者が被害を故意または無謀に引き起こしておらず、公開された安全・セキュリティ手順書と透明性報告書を備えていれば、「shall not be held liable」と明記する。さらに、EU AI ActのArticle 56に基づく要件へ拘束される場合や、連邦政府機関と評価協力の合意を結ぶ場合も、州法上の要件を満たしたものとみなす。連邦法が重なる要件を整備した場合には、この州法は適用停止される。 (ilga.gov)
この設計が注目されるのは、単なる報告義務法ではなく、公開と手続順守を条件に責任を絞る「セーフハーバー」に近いからだ、と読める点にある。AI事故をめぐる従来の議論は、「どこまで危険か」「何を報告させるか」に寄りがちだった。SB3444はそこから一歩進み、「巨大損害が起きたとき、モデル開発者はどこまで法的責任を負うべきか」という、より根本的な配分問題に踏み込んでいる。被害の規模が極端に大きい一方、免責の入口は比較的シンプルで、条文上は公開文書と故意・無謀性の不在が中核条件になっている。 (ilga.gov)
技術的に見ると、法案が求める安全・セキュリティ手順書の中身は、テスト手順、危険閾値、リスク低減策、第三者評価の利用、未公開モデル重みのサイバー防護、運用後の監視と対応、追加評価の要否判断などで構成される。透明性報告書は、対象モデルを特定し、評価結果の要約と対応措置の要約を示せば足りる。これは、NISTのAI Risk Management Frameworkが示す「リスクを把握し、測定し、管理する」という一般原則にかなり近いが、NISTが任意の実務枠組みであるのに対し、SB3444はそれを責任制限の条件へ接続している点が決定的に違う。 (ilga.gov)
この点で、すでに成立したカリフォルニア州SB53やニューヨーク州RAISE Actとの違いは鮮明だ。カリフォルニア州のSB53は、フロンティアAI枠組みの公表、透明性報告、重大安全事故の報告、内部評価の提出、内部告発者保護などを義務づけ、違反には州司法長官が1件あたり最大100万ドルの民事罰を求められる。ニューヨーク州RAISE Actも、安全・セキュリティ手順、72時間以内の事故報告、州司法長官による最大1000万ドル、再違反で最大3000万ドルの制裁を定める。だが、これらは基本的に「義務と制裁」の法律であり、SB3444のように大規模被害について開発者を「責任なし」とする条文構造は採っていない。 (leginfo.legislature.ca.gov)
では、なぜOpenAIはこの方向を支持するのか。WIREDによれば、OpenAIは州ごとの規制の継ぎはぎを避け、より一貫した全国基準へ向かう助けになると主張している。これは偶然ではない。ホワイトハウスは2025年12月11日の大統領令で、「50の不統一な州基準」ではなく、最小限の負担による全国標準を掲げ、州AI法と衝突する連邦枠組みの立法提案を求めた。一方で、イリノイ州司法長官を含む超党派の州司法長官連合は、2025年5月16日、連邦政府が十分な代替保護を用意しないまま州法を広く排除することに反対する書簡を議会へ送っている。SB3444は、まさにこの「州の先行規制」対「連邦一元化」の綱引きの中に置かれている。 (wired.com)
今後の論点は二つある。第一に、この法案が安全性向上の誘因になるのか、それとも被害のコストを被害者や導入企業へ押し戻すのか。支持側から見れば、曖昧な責任より、公開・評価・セキュリティ対策を制度化したほうが予見可能性は高い。懸念する側から見れば、公開文書の整備で責任制限に近づくなら、より深い設計変更や市場投入の抑制よりも、コンプライアンス文書づくりが優先されかねない。第二に、この法案は巨大モデルと極端な大規模被害に絞られており、日常的な誤情報、差別、自傷誘導、専門助言の誤りといった広範なAI被害を包括的に整理するものではない。つまり、これはAI責任法の完成形というより、「最悪ケース」に限った責任配分の試験場だ。 (ilga.gov)
2026年4月11日時点で、イリノイ州議会の公開ステータス上、SB3444の最終アクションは3月27日の委員会期限延長で、4月10日の上院AI and Social Media委員会の公聴対象にも含まれているが、成立には至っていない。とはいえ、この法案の意義は採否の前から大きい。カリフォルニア州とニューヨーク州が「透明性と事故報告」を先に制度化したのに対し、イリノイ州SB3444はそこへ「責任制限」を接続した。もしこれが前進すれば、米国の州AI法は、開発者に何を報告させるかという段階から、フロンティアAIが社会的災害を生んだとき誰が損失を負担するのか、というより重い問いへ移ることになる。 (ilga.gov)
主な出典
- イリノイ州SB3444本文・審議状況・公聴会情報 (ilga.gov)
- WIREDの報道(OpenAI支持の経緯) (wired.com)
- カリフォルニア州SB53法文 (leginfo.legislature.ca.gov)
- ニューヨーク州RAISE Act法文・署名時発表 (nysenate.gov)
- EU AI ActのGPAI・systemic risk説明 (digital-strategy.ec.europa.eu)
- NIST AI Risk Management Framework (nist.gov)
- ホワイトハウス大統領令とファクトシート、州司法長官連名書簡 (whitehouse.gov)