Infostand海外ITトピックス

AI開発の責任をめぐって二分 カリフォルニア州AIモデル安全法「SB 1047」

 AIがもたらす危害について誰が責任を負うのかは重大な問題だ。シリコンバレーを擁するカリフォルニア州で、州議会法案「SB 1047(フロンティアAIモデルの安全とセキュアなイノベーション法)」が大詰めを迎えている。責任を開発者に負わせることからAI業界を二分し、それぞれが最終決定する州知事に拒否・署名を求めるまでになっている。州法ではあるが、成立すれば世界に影響を与える可能性もあるとして注目されている。

開発者の責任と罰則を規定

 「AIは人間の適切な管理下に置かなければ、将来、生物兵器、化学兵器、核兵器などの大量破壊兵器や、サイバー攻撃能力を持つ兵器の作成と拡散を可能にするなど、公共の安全とセキュリティに対する新たな脅威を生み出す可能性もある」(法案2項c)。SB 1047は、法律の必要性をこう説明している。

 SB 1047は、重要な危害を引き起こす、あるいは引き起こしうるAIモデルを「対象モデル」として指定し、開発者が講じるべきさまざまな義務と安全対策を定める州の法案だ。今年2月、Scott Wiener州上院議員(民主党)が提出し、委員会審議を経て8月に本会議で可決された。Gavin Newsom知事が署名すれば手続きが終了する。

 開発者(開発企業)の義務とは以下のようなものだ。

・モデルの訓練開始前に安全性と保安に関する要件を満たす
・モデルの完全シャットダウン機能(キルスイッチ)の実装や、詳細な安全・保安プロトコルの作成
・重大な危害を引き起こすリスクがある場合、モデルの商用または公共利用を禁止する
・年1回、第三者監査人による独立監査を受ける

 「対象モデル」は、大量の計算能力(10の26乗FLOPSを超える整数または浮動小数点演算)を使って訓練され、開発コストが1億ドルを超えるものと定義し、これを今後の技術の進歩に合わせて更新する。「1億ドル」という数字は、OpenAIのSam Altman氏が「GPT-4の開発に1億ドルほどかかる」と発言したことが影響しているようだ。

 違反に対しては、差し止め、損害賠償、および対象モデルの開発コストの最大10%の罰金を科す民事訴訟を司法長官が起こせる。

 州レベルのAI規制法では、今年4月に成立したコロラド州の「SB 24-205」が米国初のAI規制法だが、こちらはアルゴリズムによる差別の禁止が中心だ。カリフォルニアの法案は開発者の責任を厳しく問うという点で、画期的と言える。