Infostand海外ITトピックス

GoogleがAIの兵器利用を放棄 議論はテクノロジー企業と国の関係に

 「兵器目的のAI利用は行わない」――。GoogleがAIの利用に関する原則を発表した。米軍のAI軍事利用プロジェクトへの参加に対して起こった社内外の抗議を受けたものだが、メディアからは「曖昧だ」との指摘のほか、安全保障のための責務に背を向けるものとする批判もある。テクノロジーが国家の勢力図を書き換える可能性もある中、企業の責任や透明性が問われるようになっている。

自社AI技術の軍事利用に従業員約4000人が反対署名

 GoogleのAI利用原則は、Google従業員の反対を受けたものだ。同社が国防総省のプロジェクト「Project Maven」を自社のディープラーニング技術で支援していることが報じられたことをきっかけに、従業員の間に反発が巻き起こり、3月、Sundar Pichai CEO宛てに約4000人が署名する嘆願書を送った。

 内容は、「Googleのモラルと倫理的責任、そしてGoogleへの名誉に対する脅威を認識した上で」として、(1)プロジェクト(Project Maven)の即座中断、(2)Googleや同社と契約する相手が戦争技術の構築を手がけないことを明記したポリシーの作成と公開――を求めた。

 Project Mavenは国防省が2017年4月に立ち上げたドローンの軍事利用についてのプロジェクトで、米軍のドローンが取得した画像から軍用車両などのオブジェクトを識別し、その動きを追跡することなどを目指していた。Googleは、オブジェクト検出に必要なコンピュータビジョン技術「Wide Area Motion Imagery」を提供している。

 Googleが6月7日に発表したAI利用原則は、これに対するPichai氏からの回答で、AIの適用や利用範囲について約束したものだ。AI利用の基準として「社会がメリットを受ける」「不公平な偏見の助長につながることは回避する」「安全を念頭に構築・検証する」「人への責任を果たす」など7項目を掲げている。

 項目は利用の方向に加え、「AIを適用すべきでないもの」も明記している。そこには、「全体に危害を加える・加える可能性がある技術」「国際的に受け入れられている規範を侵害するような監視目的の情報の収集と使用」「幅広く受け入れられている国際法や人権に抵触する目的を持つ技術」などとともに、「武器など、人を損傷する・損傷するのを助けることを主な目的とした技術」とある。

 だが、「武器で使用するためのAIの開発は行わないが、その他多数の分野で政府や軍機関との取り組みを継続する」ともあり、例として人命救助に資するものなど挙げている。