Infostand海外ITトピックス

GoogleがAIの兵器利用を放棄 議論はテクノロジー企業と国の関係に

「対応の詳細が必須」「第三者機関が必要」

 2カ月を費やして出した回答だが、Google Cloud事業を率いるDiane Greene氏も、Project Mavenから今契約限りで手を引くことを表明した。Wired.comによると、同プロジェクトの契約が2019年に終了した後は更新しないと約束。また、再浮上しても、次は参加しない意向だという。

 だが、こうしたGoogleの方針では、AIの兵器利用に歯止めをかけるのは不十分だとする見方もある。カリフォルニア・ポリテクニック大学のRyan Jenkins准教授(Ethics + Emerging Sciences Groupのシニアフェロー、哲学)は、Washington Postへの寄稿で「哲学が必要だ」と主張する。

 「人殺しが間違いであることに異論はないが、ドローンが自衛する場合はどうなのか?」と線引きが不明確である点を指摘。「さまざまなモラル体験に当てはめようとすると、われわれの言葉とコンセプトは絶望的なぐらいに無理がある(procrustean=無理に型にはめようとするなどの意味)」としている。

 そして、今回のようなミッションステートメントだけでは不十分で、危害や因果関係の解釈が複数可能であることも考慮した詳細な対応方法が必要であると主張する。

 Wired.comは、原則が発表される前、Google社員が指摘した「社内での解釈と実行なしには信用できない」という声を紹介した。

 第三者機関の監督が必要という点で、電子フロンティア財団(EFF)も同じ意見を掲げている。「技術企業がAIと国防などモラル的に複雑な分野に入る場合、独立した倫理役員を設け指針とすべきだ」とEFFの最高コンピュータサイエンティスト、Peter Eckersley氏はWired.comにコメントしている。

 Wired.comは合わせて、Googleが国防省のクラウドコンピューティングプロジェクト「JEDI(Joint Enterprise Defense Infrastructure)」に応札していることも報じている。