Infostand海外ITトピックス

AI開発の責任をめぐって二分 カリフォルニア州AIモデル安全法「SB 1047」

トップ研究者が真っ向から対立

 学術界の公開書簡は「AIのリスクについては見解が分かれているものの、皆、この法案が法律として成立すべきだと考えている」と述べている。「AIシステムによる大規模被害のリスクは現実的で、説明責任のないことのリスクも現実的である」と研究者たちは考えている。

 その上で、「リスクを回避するには研究者・開発者の自主的な取り組みでは不十分で、法律で規制するしかない」との立場をとっている。被害が発生した場合、コストを、損害を防止するのに最も適した行為者に負担させることでリスクを遠ざけようというのだ。

 といっても全てのトップAI研究者が法案に賛同しているわけではない。“AIのゴッドマザー”Fei-Fei Liスタンフォード大教授は、「SB 1047はイノベーションを阻害し、米国のAIエコシステムに害を及ぼす」と、Fortuneに寄稿した。

 また、AI業界の大物の一人Andrew Ng氏も8月29日、TIMEへの寄稿で反対を表明。「法案には深い欠陥がある。技術の応用(アプリケーション)ではなく、汎用技術を規制するという根本的な間違いを犯している」と非難した(支持派は、「悪意ある人物が法律を無視した場合、開発者に全く責任はないのか?」と反論している)。

 さらに、もう一人の“AI界のゴッドファーザー”であるMetaのチーフサイエンティストYann LeCun氏も、Xで「署名者のほとんどは、経験不足や無知からくる歪んだ見方をしている。人間レベルのAIの実現は遠く、規制は時期尚早だ」とツイートした。

 この相反する意見は、AIが「大量破壊兵器や、サイバー攻撃能力を持つ兵器の作成と拡散を可能にする」と信じるか否かが分かれ目になっている。先端研究者たちの考えが真っ向から対立するのも、その判断の難しさの表れだろう。

 歴史をひもとけば、原子爆弾の開発を主導したRobert Oppenheimer博士は、後年後悔して核兵器に強く反対した。責任法推進派は、自身の姿をこれに重ね合わせているかもしれない。

 知事が署名するか拒否するかを判断する期限は9月末だ。