米カリフォルニア州のAI安全開示法(SB-53)を解説
2025年9月、米カリフォルニア州で高度な人工知能(AI)を規制する法案「AI安全開示法(SB-53)」が成立し、2026年1月1日から適用が開始されます。本稿では、SB-53の対象者や規制内容を解説します。
米カリフォルニア州は、高度な人工知能(AI)を規制するうえで重要な一歩を踏み出しました。2025年9月29日、ギャビン・ニューサム州知事は上院法案53号(SB-53)「フロンティア人工知能透明性法※」に署名しました。本法は、現在開発が進められている中で最も高度かつ計算資源を要するフロンティアAIモデル※を対象に、ガバナンス、安全性、透明性に焦点を当てた、米国で初となる州レベルの枠組みを確立するものです。本稿では、同法を「AI安全開示法」もしくは「SB-53」の表記で統一します。
※フロンティア人工知能透明性法:正式名称は「Transparency in Frontier Artificial Intelligence Act」。
※フロンティアAIモデル:高度な汎用生成AIモデルおよびシステム。最も先進的なモデルの能力を超えるものを指すことが多い。同法では「計算総量が10の26乗FLOP以上で学習された基盤モデル」を「フロンティアモデル」と定義している。例えばOpenAIの「GPT-4.5」のFLOPは、「2の26乗」とされる。
(同法上の原文:“Frontier model” means a foundation model that was trained using a quantity of computing power greater than 10^26 integer or floating-point operations.)
(参考情報)
「SB-53 Artificial intelligence models: large developers.(2025-2026)」(2025年9月29日。米カリフォルニア州議会情報Webサイト)
「カリフォルニア州、全米初の最先端AI安全開示法『SB53』制定」(2025年10月3日。独立行政法人日本貿易振興機構(JETRO))
グローバルに事業を展開する日本企業や、米国拠点のAIベンダーに依存する企業にとって、SB-53は主要市場におけるAIガバナンスの方向性がどのように変化しつつあるかを示す先行的なシグナルといえます。法の直接的な規制対象は一部のフロンティアAI開発事業者に限られますが、その影響は製品やサービス、さらには企業が直面する契約上の義務へと広がっていくことになります。
カリフォルニア州がSB-53を制定した背景
本法は、ますます高度化するAIシステムに伴うリスクにどのように対応すべきかを巡り、約2年にわたる議論を経て成立しました。先行するSB-1047※などの法案では、AIによる重大な被害に対して直接的な責任を課すことが試みられましたが、規制が過度に厳しいと判断され、最終的に成立には至りませんでした。その後、同法案の拒否権行使を受けて、州は政策ワーキンググループを設置し、イノベーションを支えつつ、極めて高いリスクを伴うシステムに対する説明責任を強化する、より均衡の取れたアプローチの検討を進めました。
※正式名称は「Safe and Secure Innovation for Frontier Artificial Intelligence Models Act」。
SB-53は、その妥協点を反映した内容となっています。広範で画一的な規制を導入するのではなく、大規模な悪用を可能にしたり、重大な経済的損害を引き起こしたり、予測不能な挙動を示したりする可能性を理論上有する、ごく限られた開発事業者を対象に、焦点を絞った義務を課しています。
本法は2026年1月1日に全面施行され、連邦レベルで包括的なAI立法が存在しない中にあって、カリフォルニア州をグローバルなAIガバナンスの中核的な存在として位置付けるものとなっています。
本法の適用対象と求められる要件
SB-53の適用対象は、規模と能力の両面から定義されるフロンティアAIモデルを開発する組織に限定されています。具体的には、おおよそ10²⁶回以上の浮動小数点演算を用いてシステムを学習させ、かつ年間収益が5億米ドルを超える開発事業者が本法の対象となります※。実務上、この基準に該当するのは、OpenAI、Google、Anthropic、Meta、NVIDIAといった企業に限られます。これらの閾値は、モデルのアーキテクチャや計算要件の進化に応じて、2027年以降に見直される可能性があります。
※同法では、フロンティアAIモデルの開発者(Frontier developer)を、「フロンティアモデルの訓練を行った、または訓練を開始した人物」と定義し、大きなフロンティアAIモデルの開発者(Large frontier developer)を「前年にその関連会社と合わせて年間総収入が5億米ドルを超えたFrontier developer」と定義している。
このように適用範囲を狭く設定している点は意図的なものです。カリフォルニア州は、スタートアップや一般的な企業導入、下流の利用者に過度な負担を課すことなく、最も強力なシステムの開発に影響を与えることを目的としてSB-53を設計しました。ただし、実際の影響はフロンティアAIモデルの研究開発現場にとどまりません。フロンティアAIモデルを採用する企業は、SB-53の要件を反映した新たな文書、改定されたライセンス条件、インシデント対応に関する新たな連携体制に、いずれ直面することになります。
主な規制要件
公開されるAIガバナンス枠組み
フロンティアAIモデルの開発事業者は、破滅的リスクをどのように特定し、評価し、低減しているかを詳細に説明したガバナンス枠組みを公表する必要があります。あわせて、NIST AIリスクマネジメントフレームワークやISO/IEC 42001など、どの基準や国際的枠組みに準拠しているか、さらにモデル開発に対する社内の監督体制がどのように構成されているかを明示しなければなりません※。この要件は、これまで不透明であった安全対策の実態を可視化し、企業がベンダーの成熟度をより明確に把握できるようにすることを目的としています。
※同法では、「国家標準、国際標準、業界の合意のベストプラクティスなどをフロンティアAIフレームワークにどのように取り入れているかを説明」している文章の作成、フレームワークのAIモデルへの実装、公開を義務とする。
標準化された透明性レポート
新たに開発されるフロンティアAIモデルには、透明性レポートの提出が求められます。このレポートでは、想定される利用方法、予見可能な悪用の形態、安全性テストの結果、破滅的リスクの評価、そして低減策を講じた後にも残る残余リスクについて説明する必要があります。小規模な開発事業者に対する義務は軽減されていますが、基本的なモデル情報の公開は求められます。これらのレポートが標準化されることで、企業は複数のAIシステムを比較評価する際に、より一貫した情報を得られるようになります。
破滅的リスク評価とインシデント報告
本法では、破滅的被害(Catastrophic risk)を、大量の死傷者が発生する事態や、10億米ドルを超える損害が生じるシナリオとして定義しています。フロンティアAIの開発事業者は、こうしたリスクを事前に評価するとともに、「重大な安全インシデント」が発生した場合には、カリフォルニア州緊急サービス局(The Office of Emergency Services)へ通知しなければなりません。多くのケースでは15日以内、差し迫った脅威が存在する場合には24時間以内の開示が求められます。この規定により、開発事業者と顧客との間で、迅速かつ連携したインシデント対応を行うことが新たな前提となります。
内部告発者の保護
SB-53は、企業が秘密保持契約や社内方針を用いて、従業員が安全上の問題を規制当局や社内のコンプライアンス部門に報告することを妨げる行為を禁じています。技術者が経営層より先にモデルの問題挙動に気付くケースは少なくなく、この規定は、そうした声を保護することで、組織内部の安全文化を強化することを狙いとしています。
CalComputeインフラプログラム
本法には、経済発展を視野に入れた施策も盛り込まれています。カリフォルニア大学に設置される州支援の高性能計算基盤「CalCompute」を創設し、研究者やスタートアップが計算資源へアクセスしやすくすることを目的としています。この取り組みにより、イノベーションをより広く分散させつつ、州としての競争力を維持することが期待されています。
執行メカニズム
2026年以降、カリフォルニア州司法長官は、違反1件につき最大100万米ドル(約1.5億円)の民事制裁金を科すことが可能となります。制裁金額自体は他の国際的なAI規制と比べて控えめな水準ですが、評判への影響や、連邦または州レベルで追加的な措置が取られるリスクは、より重大な意味を持つ可能性があります。
SB-53とEU AI法の違い
すでにヨーロッパではEUが、「EU AI法」を成立させています。SB-53とEU AI法は、いずれも高度なAIモデルを対象としていますが、両者は構造、目的、影響の点で本質的に異なります。EU AI法は、リスクに基づく包括的な枠組みとして設計されており、開発事業者だけでなく、導入事業者、流通事業者、輸入事業者まで含む幅広い主体を規制対象としています。また、雇用、信用スコアリング、公共サービス、安全性が重要となるインフラなど、規制領域において利用されるAIシステム全般に適用されます。EUの制度の下では、日本企業であっても、製品をEU市場に投入する場合や、EU域内でAIを活用したサービスを提供する場合には、直接的に法令遵守が求められます。
(関連記事)EU AI法(EU AI Act)の概要と特徴の解説~日本企業が備えるべきこととは?
これに対し、SB-53は対象範囲を大きく絞った制度です。AIシステムをリスク区分ごとに分類したり、一般的な企業利用のユースケースを規制したりすることはありません。その代わり、最も強力なフロンティアAIモデルを構築する少数の企業に焦点を当て、当該システムがもたらし得るリスクについて、より高い透明性を確保することを求めています。このため、日本企業にとって、EU AI法は業務上の直接的な義務として作用する一方で、SB-53はAIモデル開発事業者を通じて間接的に期待水準を形成する存在となります。
規制要件の性格にも違いがあります。EU AI法では、高リスクAIシステムに対して、データガバナンス、文書化、人による監督、堅牢性テストなど、具体的かつ規範的な技術要件が義務付けられています。一方、SB-53は、フロンティアAIの設計方法そのものを詳細に規定するものではありません。開示、報告、ガバナンスを中心とした制度を構築することで、柔軟性を保ちつつ、責任ある行動を促すことを狙いとしています。
適用範囲の点でも両者は異なります。EU AI法は、EU市場に投入されるすべてのシステムに域外適用されるのに対し、SB-53は形式上、カリフォルニア州に限定されています。ただし、主要なフロンティアAI開発事業者の多くが同州に本社を置く、または主要な事業拠点を構えていることから、SB-53の要件は結果として、グローバルなAI開発慣行にも影響を及ぼすことになります。
| カリフォルニア州 AI安全開示法(SB-53) |
比較項目 | EU AI 法 |
| フロンティアAIモデル開発事業者 | 対象事業者 | AIシステム開発事業者・導入事業者 AIシステムの流通・輸入事業者 AIシステムもしくは成果物の利用者 |
| カリフォルニア州 | 適用範囲 | EU市場に投入されるすべてのAIシステムもしくはその成果物 |
| 開示・報告・ガバナンス体制の構築 | 主な義務 | 開発方法、組織形態、入力データの監視、報告など、事業者カテゴリごとに義務を規定 |
| 最大100万米ドル(約1.5億円) | 制裁金 | 3,500万ユーロ(約64億円)または全世界総売上高の7%のいずれか高い方、など (違反レベルにより異なる) |
| 規制と同時に経済支援策についても規定 | その他 | AIシステムをリスク毎に4段階に分けて規制内容を設定 |
表:カリフォルニア州AI安全開示法(SB-53)とEU AI法の比較
組織が取るべき対応
SB-53は大半の企業を直接規制するものではありませんが、その波及効果はグローバルなAI活用の在り方に影響を及ぼします。フロンティアAIモデルを組み込む日本企業は、変化しつつある期待水準に沿うため、ガバナンスや調達の実務を今から見直していくことが求められます。
フロンティアAIモデル開発事業者への依存度を把握する
最初の優先事項は、自社が米国拠点のフロンティアAIモデル開発事業者にどの程度依存しているかを正確に理解することです。OpenAI、Google、Anthropic、Meta、NVIDIAといった企業のAIモデルを利用している社内システムや顧客向け機能、ベンダー連携の状況を洗い出す必要があります。これらの開発事業者が安全対策や報告義務を見直していく中で、顧客側にも、インシデント調査やモデルの安全性レビューにおける、より緊密な連携が求められるようになります。
社内AIガバナンス枠組みを強化する
組織は、NIST AIリスクマネジメントフレームワークやISO/IEC 42001など、国際的に認知された基準に沿ったAIガバナンス体制を整備、または更新することが重要です。これらの枠組みには、サイバー攻撃、大規模な誤情報の拡散、想定外のモデル挙動による業務停止といった観点を含め、破滅的リスクへの配慮を既存のリスク管理プロセスに組み込む必要があります。体系的なアプローチを採ることで、主要市場における新たな規制動向との整合性を確保しやすくなります。
契約要件の変化に備える
フロンティアAI開発事業者が自らの法的義務を更新する際に、サービス契約の内容も変化することが見込まれます。契約条項では、情報共有、セーフティインシデントの迅速なエスカレーション、AIモデルに起因するリスクへの共同対応といった点が、より重視されるようになります。こうした期待に応えるためには、異常または有害なモデル出力を検知し、短い時間軸で社内外へエスカレーションできる手順を整えておくことが不可欠です。
内部告発とエスカレーションの経路を強化する
組織内で懸念事項を報告するための仕組みも強化する必要があります。とりわけエンジニアリングやデータサイエンスに携わる従業員が、問題のあるモデル挙動やガバナンス上の課題を、報復の懸念なく、機密性を保った形で共有できる経路を確保することが重要です。明確な報告ルートを整備することで、リスクを早期に顕在化させ、後続のインシデントを防ぐ可能性が高まります。
日本、EU、米国におけるコンプライアンスを整合させる
最後に、日本企業は、グローバルなAIコンプライアンス戦略の調和を図る必要があります。EU市場で事業を展開する企業にはEU AI法による直接的な業務要件が課される一方で、SB-53は調達するAIシステムの安全対策や文書化の在り方に影響を及ぼします。文書管理、テストプロセス、インシデント対応のワークフローを各法域で整合させることで、運用上の重複を抑え、成熟しつつあるグローバルAIガバナンスに対応できる、より強靱な基盤を築くことができます。
結論
カリフォルニア州のSB-53は、高度なAIのガバナンスにおいて一つの転換点を示しています。適用対象は限られたフロンティアAI開発事業者にとどまりますが、そうした事業者が現代のAIアプリケーションを支える基盤モデルを提供している以上、その影響はグローバル市場全体へと広がっていきます。日本企業にとって最も有効な戦略は、直接的な規制が及ぶのを待つことではなく、今の段階からAIガバナンスを強化していくことにあります。
新たに形成されつつある国際的な基準に社内実務を整合させ、ベンダー側の期待の変化に備え、確実なエスカレーションと監督の仕組みを構築することで、企業は規制環境の変化に先回りしつつ、安全で信頼性の高いAI技術の活用を実現することができます。
<関連記事>
・EU AI法(EU AI Act)の概要と特徴の解説~日本企業が備えるべきこととは?
・「AI事業者ガイドライン」から読み解くAI利用時のセキュリティ対策
・「AIのリスク」に対する世界の取り組みを理解する(前編)~主要な組織編~
・「AIのリスク」に対する世界の取り組みを理解する(後編)~イニシアティブ・宣言編~
・AIアクション・サミット:世界のリーダーが革新、規制、セキュリティを議論
Security GO新着記事
米カリフォルニア州のAI安全開示法(SB-53)を解説
(2026年1月7日)
2026年の法人セキュリティ脅威予測レポートの概要を解説~サイバーリスクの震源地「AI」の今後を知る
(2025年12月25日)
事業者のためのQRコード生成ガイド:安全に作成するためのポイント
(2025年12月19日)