Infostand海外ITトピックス

セキュリティの「Copilot」発表 AIを急ピッチに展開するMicrosoft

あくまで副操縦士

 セキュリティは、もともとAIの活用が期待できる分野だった。セキュリティ対策を自動化できれば、企業のコストと負担は大幅に削減できる。しかし、The Vergeは「Security Copilotは、セキュリティアナリストの仕事を置き換えるというより、支援するもの」と解説する。

 大規模言語モデルを基盤とする対話型AIは万能・完璧ではない。「ハルシネーション(幻覚)」、つまり「全くのデタラメを自信たっぷりに返す現象」が起こる。Microsoftは、Security CopilotなどGPT-4を統合したすべてのCopilotツールについて「常に正しいとは限らない」と警告。Security Copilotでは、正確ではないことを報告できる機能(off-target)も用意する。

 「こうしたインプットを得ることで、(Security Copilotは)学習する」とMicrosoftのVenu Jakkal氏はCNBCに説明している。

 このフィードバックループは、「Bing」(検索エンジン)のサムアップ/サムダウンよりも複雑だと、同社のセキュリティアーキテクト Chang Kawaguchi氏はThe Vergeに説明している。「ハルシネーションがゼロであると保証できるものはないが、ソースを公開し、フィードバック機能を用意し、自分の文脈からのデータに立脚させることで、得られたデータを理解したり検証できるようにする」と説明している。

 使い方には注意が必要だ。Gartnerのディスティングイッシュト バイス プレジデント アナリストのAvivah Litan氏は「Security Copilotはアウトプットが正確かどうかの可能性についてのスコアをユーザーに示すことなく、ユーザーに正確性を確認するように求めている。この場合でも、ユーザーがアウトプットを信頼して正しいと思い込んでしまう危険性がある」とし、企業のセキュリティという点で安全なアプローチとは言えないとSilicon Angleに述べている。

 Copilotは機長ではなく、あくまでサポートする「副操縦士」なのだ。