Infostand海外ITトピックス

機密情報漏えいや高度攻撃 チャットAIが生み出すセキュリティリスク

 ChatGPTの爆発的ブームで、人間の仕事をサポートしてくれるチャットAIの利用が急増している。チャットAIは人間側の質問(プロンプト)を工夫することで幅広い話題に多様な回答を返して人気を得ている。市場調査から企画のブレーンストーミングや経営計画の立案まで、1人では何日もかかるような仕事でも、みるみるうちにまとめてくれる。おそろしく便利で効率的だが、そこにはセキュリティのリスクがある。

機密文書からChatGPTでパワポ作成

 データセキュリティサービスのCyberhavenは、顧客企業の従業員160万人の4.2%(約6万7000人)のChatGPTへのデータ入力要求を、機密情報、顧客データ、ソースコード、規制対象情報の漏えいのリスクからブロックしたと報告している。

 具体的な例では、自社の2023年の戦略を記載した文書をChatGPTに入力してPowerPointの資料を作成するよう命じた企業幹部、患者の症状を実名でChatGPTに入力して保険会社への提出書類を作成しようとした医師などがあったという。

 レポートを紹介したセキュリティニュースサイトのDark Readingは、こうした行為でAIサービスに入力された機密情報が第三者に取得される可能性があると解説する。

 Dark Readingが挙げるのは、2021年にApple、Google、ハーバード大学などの研究者が発表した報告で、「トレーニングデータ抽出攻撃(training data extraction attacks)」と呼ばれるものだ。「GPT-2」(GPT-3の前バージョン)から、訓練文書の逐語テキストシーケンスや個人特定情報(PII)などを取り出すことができたという。

 つまり適切なセキュリティ対策が導入されていないと、第三者に漏えいする可能性があるということだ。

 CyberhavenのCEO、Howard Ting氏は「ChatGPTなどのAIベースのサービスを生産性ツールとして使う従業員が増えるにつれ、リスクは大きくなるだろう」と述べている。