AI規制が到来した
3年間、AI政策の支配的なナラティブは「規制はいつか来る、常に6ヶ月後、常に委員会で止まっているか、ロビー活動で骨抜きにされている」というものだった。私はこのパターンについて繰り返し書いてきた。業界は遅延を生み出すことに非常に長けていた。
その時代は終わった。
何が変わったのか
過去90日間で以下のことが起きた:
2025年12月11日、ホワイトハウスが連邦政府によるAIガバナンス調整を示す大統領令を発布した。コロラド州の運用AI要件は当初2月1日が期限だったが、2026年6月30日に延期された――ただし延期は一度きりだ。カリフォルニア州のSB 53(フロンティアAI透明性法)とAB 2013(学習データ透明性)は2026年に施行される。国連人権指導部が世界的な説明責任基準を求める声明を改めて出した。OpenAIとMicrosoftが英国のAI安全機関連合に参加した。
これらのどれかが単独で決定的なわけではない。しかし合わせて見ると重要なことを示している:AIの開発が最小限の説明責任制約で進められる窓は閉じつつある。
企業が目を背けているコンプライアンスの現実
AI規制に関するほとんどの報道は法律が「何を言っているか」に焦点を当てる。私は組織が「何をする必要があるか」の方に関心がある。
カリフォルニア州のAB 2013は学習データの構成の開示を求める。技術的に聞こえるが、そうではない。組織が意図的に答えてこなかった問いに答えることを強制する:何のデータで学習したか?使用許可はあったか?その構成は出力にどう影響するか?
コロラド州の法律は、重大な自動意思決定システムに影響評価を求める。「重大な」とは採用、融資、住宅、教育、医療をカバーする。これらは例外的なケースではない――AIの主要な商業的応用だ。
倫理学者版のこの議論は公平性と説明責任についてだ。私の議論はよりシンプルだ:これらの問いに答えられない組織は、人々の生活に影響する意思決定をするべきではない。規制はその対話を強制する。
英国の安全連合が本当に意味すること
OpenAIとMicrosoftが英国のAlignmentプロジェクトに参加したことは、何を達成するかよりも何を示すかという点で注目に値する。両社はこれまで、安全性への懸念は内部で、自発的に、業界が適切と判断するペースで対処されるべきと主張してきた。
政府の資金と監督に支えられた国際連合に参加することは異なる姿勢だ。外部の説明責任が正当な役割を持つことを暗黙的に認めている。
これが真の価値観の転換だとは思わない。政治的な環境の正確な読みを反映していると思う。ガバナンスのパートナーとして位置づけられた企業は、その障壁として位置づけられた企業よりもうまくやっていく。
道具主義的な動機は重要性を損なわない。外部ガバナンスのメカニズムが構築されている。それを支持する企業が高尚な理由でそうしているかどうかに関係なく、それは重要だ。
より難しい問い
規制が対処しないこと、そして私が最も懸念していることがある。
AIシステムはミスをする。幻覚を起こし、差別し、事実として間違っている自信満々の出力を生成する。規制は開示、評価、監査を求めることができる。正確性を強制することはできない。
正直な答えはこうだ:私たちは重大な領域でAIを展開しながら、それがエラーを起こすと知っていて、明確な答えがない:それが起きたとき誰が責任を負うか?AIのエラーによって被害を受けた人々はどう補償されるべきか?異なる応用においてどの程度の信頼性水準が求められるべきか?
これらの問いは私が検討したどの規制フレームワークにもまだ答えられていない。子ども向けAIプライバシーに関するコネチカット州の提案はこれの一部を捉えている――子どもはエラーが不均衡なコストをもたらすカテゴリーだ。しかし、そのフレームワークは回復的というより保護的だ。
私が実際に信じていること
規制は必要だが十分ではない。これらのシステムを構築している企業は、異なる向きで構築する必要がある――ユーザーに何を受け入れさせられるかではなく、ユーザーは何に値するか。
これを正しくやっている組織は、最大の法務チームを持つものではない。規制機関に求められる前に、システムについて難しい問いを発しているものだ。
2026年はベースラインを変える年だ。どのように機能するか、誰に対して、どんな結果をもたらすかを知らないままAIシステムを構築することは、もはや許容されない。その転換――志望的な倫理から執行可能な説明責任へ――は10年でAIガバナンスにおける最も重要な発展だ。
それで十分かどうかは別の問いだ。おそらくそうではないと思う。しかし真剣に受け止める価値のある出発点だ。