Infostand海外ITトピックス

機密情報漏えいや高度攻撃 チャットAIが生み出すセキュリティリスク

さまざまな攻撃が急速に高度化

 SDXCentralは、ChatGPTの利用でIDやアクセス管理に生じるリスクは、データ漏えい、データ誤用、フィッシング攻撃などさまざまなものがあると解説する。

 Cyberhavenが示したように、まずChatGPTと対話する際、従業員が機密データを容易に、かつ意図せず公開してしまう可能性がある。

 GartnerのDistinguished VP アナリスト、Avivah Litan氏は、その「入力している内容を盗聴するのは簡単」で、「入力した質問を取得し、それを使ってリバースエンジニアリングしたり、ユーザーの身元を割り出すことまでできる」とコメントしている。

 また、ChatGPTはフィッシング攻撃も進化させる。攻撃者は、より洗練されたインテリジェントな標的型フィッシング攻撃を行うほか、巧妙な攻撃を自動化して実行できるようになる。

 Litan氏によると、従来のフィッシング攻撃にはメールの内容が「バカっぽく」見えるという弱点があったが、ChatGPTで、より説得力のあるものに変わった。同時に、よりパーソナライズされたメッセージを生成できることから、ソーシャルエンジニアリングが大きな問題になるという。

 同氏は、2024年までにアカウント乗っ取りの少なくとも20%に生成AIが使用されると予想。「私の想像をはるかに上回る速度で動いている」と述べている。

 さらに、ChatGPTを利用して検出を回避するマルウェアを作成する手法も報告されており、悪用方法にも際限がない。