ニュース

日本IBM、データの信頼性やAIガバナンスに関するツールキット「watsonx.governance」

 日本アイ・ビー・エム株式会社(日本IBM)は、AIプラットフォーム「watsonx」において、データの信頼性やAIガバナンスに関するツールキット「watsonx.governance」を12月1日より提供開始した。

 watsonxは、AIの構築と運用の「watsonx.ai」、データの整備の「watsonx.data」、そして今回のwatsonx.governanceの3つのコンポーネントからなる。watsonxは、SaaS形式およびソフトウェアライセンス販売形式の2通りで提供しており、watsonx.governanceは今回SaaS形式での提供を開始した。

 watsonx.governanceは、AIライフサイクルの見える化を目指すプロダクト。AIモデルを管理する「インベントリ管理」、稼働中のAIモデルの予測内容について精度や性能劣化、バイアス、説明可能性などをモニタリングする「評価とモニタリング」、AIモデルのリスクを一元的に管理するダッシュボード「リスクガバナンス」の3つの機能からなる。

watsonx.governanceの3つの機能

IBMのAIリスクへの取り組み

 12月4日に開催された記者説明会において、日本IBMの山田敦氏(執行役員 兼 技術理事 AIセンター長)は、IBMのAI倫理への取り組みについて説明した。

日本IBM 山田敦氏(執行役員 兼 技術理事 AIセンター長)

 氏はまず背景として、AIリスクについて紹介した。AIモデルの学習においては、著作権・プライバシーの侵害や、攻撃のリスクがある。一方、AIモデルの利用においては、入力では機密情報などを入力してしまう情報漏えいのリスクなどがある。また、出力では著作権やプライバシーの侵害のリスクや、著作物として認められない問題がある。

 こうしたAIリスクに対して、各地域で規制やガイドラインの動きがあり、2023年にはG7で国際的なガイドライン「広島AIプロセス」の枠組みが作られた。

 それに対するIBMの取り組みとしては、2018年に「IBMのAI原則」を発表し、AIの信頼と透明性の原則を定めている。同じく2018年には、AIガバナンス体制・プロセスを社内に設けているという。

AIリスク
AIリスクに対する規制・ガイドラインの動き
IBMのAI倫理への取り組み

AIモデルのライフサイクルを見える化

 続いて日本IBMの竹田千恵氏(理事 テクノロジー事業本部 Data and AI テクニカルセールス watsonx Client Engineering)が、watsonxおよびwatsonx.governanceについて説明した。

日本IBM 竹田千恵氏(理事 テクノロジー事業本部 Data and AI テクニカルセールス watsonx Client Engineering)

 watsonxは5月に発表され、7月に提供開始された。竹田氏はwatsonxの特徴として、業務に応じた基盤モデルに対応して選択可能なこと、オンプレミスとクラウドの両方にデプロイできるため機密性の高いデータも安全に扱うことが可能なこと、透明性・説明性・公平性を重視して信頼できるAIを実現可能していることを挙げた。

 そして、前述した3つのコンポーネントが、コンテナプラットフォームのRed Hat OpenShiftの上で動く。

 竹田氏は生成AIの利用について、「やみくもに活用してしまうと、最終的には説明可能な出力が欠如しているというリスク、複雑性につながる」と言う。この問題に対し、watsonx.governanceは、企業のリスクを管理し、透明性を確保し、AIに関する将来の規制への順守のために必要なツールキットを提供する。

watsonxの特徴と3つのコンポーネント
watsonx.governance

 watsonx.governanceは、AIモデルを構築(ビルド)して展開(デプロイ)するライフサイクルの中に入り、見える化する。インベントリを把握する「モデル・インベントリ」、それに対して法規制対応などをリンクして見ていく「モデル・リスクガバナンス」、そしてそれらの継続的な「評価とモニタリング」が、前述したwatsonx.governanceの3つの機能だ。

 「モデル・インベントリ」は、AIモデルがいつ作られたか、トレーニングのデータはどこにあるか、検証データの精度、デプロイの情報、公平性の成果を保存する。Amazon SageMaker、Azure Machine Learning、Watson Machine LearningのAIモデルをサポートしており、複数のモデル・インベントリを一覧で管理できるようにもなっている。

 「評価とモニタリング」では、AIの予測を追跡し、なぜその結果になったのかの説明可能性を確保する。また、バイアスや、さまざまな品質閾値(しきいち)、ビジネス重要指標(KPI)の違反の通知もする。LLMについては、テキスト要約、分類、コンテンツ生成、Q&Aなどのユースケースに応じたメトリクスと比較したスコアリングを表示できる。

 「モデル・リスクガバナンス」では、どのAIモデルにリスクがあるかといったことをダッシュボードで一元管理する。また、作ったモデルの承認状況などもワークフローから一元的に監視できる。

AIライフサイクルとwatsonx.governance
watsonx.governanceのモデル・インベントリ機能
インベントリの例(デモより)
watsonx.governanceの評価とモニタリング機能
watsonx.governanceのモデル・リスクガバナンス機能
ダッシュボードの表示(デモより)