ニュース
富士通、AI倫理ガイドラインに基づきAIシステムの倫理上の影響を評価する方式を開発、手順書や適用例とともに無償公開
2022年2月22日 09:00
富士通株式会社は21日、AI倫理ガイドラインに基づいてAIシステムの倫理上の影響を評価する方式を開発し、この方式およびこれに基づくAI倫理影響評価手順書と適用例のドラフト版を、AIシステムの開発者や運用者向けに無償公開した。
開発した方式は、自然言語で書かれたAI倫理ガイドラインの記述内容を構造化して、倫理要件を明確化する手順と、倫理要件を実際に利用するAIシステムに対応付ける手順で構成される。この方式を、ガイドラインの記述に対する解釈の違いに起因する誤解の回避や、起こりうる倫理課題への事前の対処の手段として活用することができる。
国際的AIコンソーシアムのPartnership on AIが公開しているAIインシデントデータベースには、AIの利用に際して世の中で発生した問題事例が紹介されており、富士通ではこのデータベースに収められた事例を調べ、倫理上の課題が、AIシステム内部のコンポーネントの間や、AIシステムとその関係者の間における情報のやりとりを指す「インタラクション」に対応付けられることを導き出したと説明。
さらにこの点に着目し、AI倫理ガイドラインの解釈を明確にして、「インタラクション」との対応付けを可能とする「AI倫理モデル」を作成し、AIシステムにおいて考慮すべきガイドラインの項目を系統的に洗い出す独自の評価方式を開発したという。
AI倫理モデルは、AI倫理ガイドラインと多種多様なAIユースケースから考慮すべき倫理要件となる、「チェック項目」を導くツリー構造と、「チェック項目」と「インタラクション」の関連性を示す対応リストで構成される。
まず、ソフトウェア開発で用いられる要件定義手法を応用し、AI倫理ガイドラインに記された要件をツリー構造で段階的に構造化していく。構造化されたガイドライン上の要件を、さまざまなAIユースケースで発生している倫理上の課題と照らし合わせることで、ツリー構造の枝葉部分に、より具体的な要件となる「チェック項目」を導く。さらに、導いたチェック項目が、ユースケースに登場するどの「インタラクション」において発生しているのかを、対応付けてリスト化する。
個別のAIシステムを評価する際には、ソフトウェア開発で用いられるモデリング手法に基づいて、AIシステム内外のモジュールを図解した「AIシステム図」をAIシステム開発者や運用者が作成する。そこに現れるインタラクションの種類に応じて、事前に作成したAI倫理モデルに記載されたチェック項目を機械的に抽出し、業界や業務の知識を有する評価者が影響評価の文章を作成することにより、ガイドラインに基づいた系統的かつ網羅的な評価の実施を可能にする。
例えば、人材採用やローン審査などの業務で行われるような、AIシステムを用いて「判定対象者」に対して「ビジネス利用者」が何らかの判断を行う状況では、AI倫理モデル中の対応表で、「判定対象者」と「ビジネス利用者」のインタラクションを参照すると、ガイドラインとユースケースを基に導いたツリー構造の枝葉に、チェック項目として「人/組織の評価実施の妥当性」、つまり「AIの出力結果を参考にして責任を持って評価を実施しているか」を機械的に導き、「AIのいいなりになる」「AIの出力結果を恣意(しい)的に解釈して評価する、あるいは無視する」などのリスクが抽出される。
これにより、AIシステムの開発者は、このAIシステムが使われる状況から、「ビジネス利用者」の評価実施の妥当性に倫理上の問題が発生し得ると考え、「ビジネス利用者が、バイアスが含まれる可能性のあるAIの出力結果に過度に依存して不公平な判断をする」というリスクを事前に洗い出せるとしている。
富士通では、AIインシデントデータベースに登録されたグローバルな164事例(2022年2月21日時点)の中から、金融、人事分野を含む代表的な15事例を抽出して、開発した方式を適用したところ、実際に発生した倫理的な問題をすべて事前にリスクとして把握でき、開発した方式の有効性が確認できたとしている。
また、今回公開した評価手順書、適用例はドラフト版となり、2月21日からは同方式の改善やさらなる普及に向けて、官公庁や民間企業、アカデミアからパートナーを募集し、2022年度中に正式版のリリースを目指すとしている。