Infostand海外ITトピックス

「AIに透明性を」 Metaが大規模言語モデルを無償公開

AIのバイアス問題

 機械学習言語モデルのふるまいは、どんなデータを、どう学習したかで決まる。しかし、モデルを訓練した過程は、たいてい作成した企業の企業秘密で、簡単には公開されない。

 そんな中でクローズアップされているのが「AIのバイアス」の問題だ。「再犯予測で、黒人の再犯率が白人よりも極めて高くなる」「人材採用システムが女性よりも男性を高く評価する」といった例が知られている。

 実社会の偏見をデータから取り込んでしまったとみられるが、ブラックボックス化した言語モデルでは、どういう経過で起こったのかは分からない。

 こうしたAIのアルゴリズムの不透明性に懸念を表明してきた専門家は、Metaの決断を好意的に受け止めている。

 「この透明性には拍手を送りたい」(ワシントン大学の計算言語学者Emily M. Bender氏)、「素晴らしい動き」「オープンなモデルが多ければ多いほどいい」(Hugging FaceチーフサイエンティストThomas Wolf氏)といったコメントがMIT Technology Reviewには寄せられている。

 だが、公開は評価しながらも、Metaを手放しで称賛できないとする声もある。

 昨年、AI倫理を巡る騒動の中でGoogleから解雇されたMargaret Mitchell氏は「この言語モデル自体だけでなく、その上に構築されたアプリケーションも有害コンテンツを生成するかもしれない」とMIT Technology Reviewにコメントしている。前向きに評価しながら、透明性には限界があると考えているという。

 また、テクノロジーメディアのProtocolは「Metaがついにアルゴリズムを公開した。ただし、FacebookやInstagramのではない」と皮肉っぽく伝えた。OPT-175Bは、FacebookやInstagramの技術とは別モノで、そのデータも訓練に使用していない。

 Protocolは、Metaが自社のプラットフォームへの疑念と批判に応えたものではないとする。「プラットフォームの透明性をMetaに求めている議員や批判者は、これを真のオープンとは思わないだろう」と述べている。