ニュース

富士通の自動機械学習技術とAI公平性技術、Linux Foundationのオープンソースプロジェクトとして承認

 富士通株式会社は15日、世界中の開発者の技術活用によるAIのさらなる普及と発展を目的に、The Linux Foundation(以下、Linux Foundation)に対し、これまで独自開発してきた自動機械学習技術とAI公平性技術を、オープンソースソフトウェア(OSS)としてプロジェクト提案し、それぞれ新プロジェクト「SapientML」「Intersectional Fairness」として8月24日までに承認されたと発表した。

 これら2つのAI技術は、9月19日からスペイン・ビルバオ市で開催される「Open Source Summit Europe 2023」でLinux Foundationプロジェクトとして正式に始動し、世界中のOSS開発者とともに、継続的な技術発展に向けたコミュニティ活動(ハッカソンなど)を実施していく。

 富士通は、Linux Foundationで自動機械学習技術とAI公平性技術をOSS化し、世界中の開発者がソースコードレベルで富士通の技術にアクセスして広く利用できるようにすることで、技術の進化や新たなアプリケーションの開発を加速するとともに、AI倫理の領域で特に重要となる公平性に関する課題も解決していくとしている。

 「SapientML」は、表データから説明付きの機械学習モデル作成コードを高速に自動生成する、自動機械学習技術(AutoML)を開発するプロジェクト。プロジェクトにより開発された自動機械学習技術を活用することで、データサイエンティストは高精度なモデルを瞬時に作成できるだけでなく、生成されたコードを使って、試行錯誤しながら、より高精度なモデルに作り変えられる。

「SapientML」で開発される、コード生成を特徴とするAutoML技術

 「Intersectional Fairness」は、AIが学習データの偏りなどが原因で、ある特定のグループに対して意図せず不公平な結果を導き出してしまう問題に対して、これまで見過ごされてきた、年齢や性別、国籍などの複数の属性が特定の条件で組み合わされた時に現れる交差バイアスも容易に検知・改善するAI公平性技術を開発する。

 例えば、あるテストの合格率について、年齢と性別を組み合わせて分析すると、グループに所属する人数の違いが原因で、若年女性の合格率が33.3%と、残りのグループの合格率と比較して極端に低くなるが、これは属性を組み合わせてはじめて顕在化するバイアスとなる。このようなバイアスに対してAI公平性技術を用いることで、グループごとのバイアスの調整策を作成し、その調整策をグループ全体の観点から再調整し合格ラインを決定する手法を用いることで、精度とのバランスを保ちながらこのバイアスを緩和でき、公平な結果を出力するAIかどうかを判別することが可能になる。

「Intersectional Fairness」プロジェクトを通じて検出・改善が可能になる、気付きづらい交差バイアスの例

 富士通は、これまで独自に開発してきた自動機械学習技術、AI公平性技術を、各種AI技術やGUIなどとともに、それぞれFujitsu AutoML、Fujitsu AI Ethics for Fairnessとして、「Fujitsu Kozuchi(code name)- Fujitsu AI Platform」上で提供している。今後、それぞれのプロジェクトにおける技術アップデートを「Fujitsu Kozuchi(code name)- Fujitsu AI Platform」にも順次反映していくとしている。