ニュース
富士通、AIが引き起こしたトラブルを発生したシーンに合わせて理解するリスク解釈技術を開発
2023年4月13日 08:00
富士通株式会社は12日、AIが引き起こしたトラブルを、発生したシーンに合わせて理解するリスク解釈技術を開発したと発表した。
開発した技術は、過去にAIが引き起こしたトラブル(インシデント)のレポートを活用することで、概念的な倫理要件をAI活用シーンに合わせて解釈し、インシデントが実際に発生するメカニズムの理解を支援するもの。欧州連合が進めているAI規制法(AI Act)案に基づく適合性評価を含め、AIのリスク査定において広く活用されることを目指して、発表済みのAI倫理影響評価方式に技術を導入してツールキット化した。
これにより、今まで人手に依存していたリスク査定を自動化し、これまで数日要したリスク査定作業を2時間に短縮することに成功しました。
リスク解釈は、インシデントレポートにある数千の文や段落を、150件のチェック項目の中のいずれかと関連づけたインシデント知識ベースを構築した。これを用いて、AI活用シーンに登場するステークホルダーとその業務、AIモデルとその評価指標、およびデータとその加工手順などの具体的な言葉で、チェック項目の記述をリスクが顕在化する状況に読み替えるためのヒントをリスク査定者に示す。
ローン審査AIの活用シーンを例にとると、「データの中で、エンドユーザーや被験者の多様性や代表性を考慮しましたか?」というチェック項目の中で、「エンドユーザーや被験者」を「融資を受ける人々」に、「多様性や代表性」を「男性と女性の違い、男性への融資への偏向」に読み替えるというヒントが示される。
また、リスクが顕在化する状況を知るだけでは、これらに対処する施策を講じることは困難だとして、インシデント知識ベースを用いて、ステークホルダーの間をリスクが伝搬する状況をネットワーク分析する機能を提供する。ローン審査AIの活用シーン例では、信頼されるAIの要件のひとつである公平性に関連するリスクに注目してネットワーク分析をした結果、開発者、AIモデル、融資担当者の最終判断などに潜むリスクの間の依存性を発見できる。これにより、リスク顕在化のメカニズムをストーリー化し、リスク査定者に提供することで、リスクが顕在化するそれぞれの状況を引き起こす要因が特定できるとしている。
富士通では、技術の有用性を検証するために、岩手県のUターン・Iターン希望求職者と求人企業をマッチングするサイト「シゴトバクラシバいわて」のユースケースを対象に、AI倫理リスク解釈技術の効果検証を行った。
その結果、富士通のAI倫理影響評価ツールが検出した150件のAI倫理リスクのすべてのケースにおいて、発生するメカニズムを理解できたという。AI活用シーンに合わせて検証したことで、AI倫理リスクに対処する適切な施策が過去のインシデントの中から特定され、「ジョブカフェいわて」で検討してきたすべての施策が、AI倫理リスクに対して有用であることが検証できたという。
また、AI倫理リスク解釈技術をツール化し、富士通の倫理リスク査定チームに提供したところ、これまで数日要したリスク査定作業を、2時間に短縮できる効果が確認できた。AI倫理リスク解釈技術を実装したツールキットは、ガイドラインを順守するためのコスト対効果の問題を大きく低減し、あらゆるAI活用シーンを包括するための共通性の高いチェック項目の内容を、具体的なストーリーに読み替えられる効果を確認したとしている。
富士通は今後、適用対象となるAIの範囲を拡大し、AI倫理リスクへの対応を強化していくと説明。また、信頼できるAIの普及に貢献するため、今回開発したツールキットおよびそのノウハウについて、顧客やパートナーをはじめ広く提供するとともに、近い将来施行される予定のAI Act(案)への適合性の評価に活用されることを目指すとしている。