Infostand海外ITトピックス

機密情報漏えいや高度攻撃 チャットAIが生み出すセキュリティリスク

エンタープライズ向けサービスを選択

 こうした脅威やリスクにどう対応すべきなのだろう。

 ユーザー個々がやるべきこととしては、「非公開データをChatGPTに入力しない」「AIが作成した文章を検知するツールで確認する」などがある。

 検知ツールには、例えば、プリンストン大学の学生が発表した「GPTZero」がある。ChatGPTと同様のデータセットで学習したChatGPT用のツールで、1月に公開されて評判を呼び(ただし誤検知も少なくないので完全とは言えない)、有料サービスも開始している。

 といってもチャットAIの勢いはすさまじく、セキュリティ問題は個々のユーザーに任せているだけでは解決できそうにない。あらゆる企業が、組織として対策に取り組まなければならない環境になってきた。AmazonやJPMorganなどのように、すでに従業員のChatGPTの利用を制限している企業もある。

 Gartnerは、「ChatGPTのリスク管理」として、以下のようにアドバイスしている。

1)ChatGPTを使う場合は、出力された内容を人間がレビューし、不正確な結果、誤った情報、偏った結果を検出する。
2)企業で使用する場合は、OpenAIのChatGPTではなく「Azure OpenAI Service ChatGPT」を優先する。
3)従業員がOpenAIのChatGPTに企業の機密データを開示するような質問をすることを禁止するポリシーを導入する。

 Gartnerは2)について、「OpenAIのChatGPTプライバシーポリシーはエンタープライズレベルのプライバシーポリシーがないが、Microsoftは他の製品と同様のセキュリティとコンプライアンス管理を提供する予定」と説明している。

 当然、Microsoftのライバルも今後、セキュリティに重点を置いたサービスを投入するだろう。生成AIによるセキュリティの問題は始まったばかりだ。