特集
第1回:「29分」の絶望――AIが人間の判断を追い抜いた、サイバーセキュリティの残酷な現実
AI vs AI:既存の防壁が「無力化」する前に
2026年5月11日 07:00

1. セキュリティの前提が書き換えられた「新たな戦場」
サイバーセキュリティの歴史は、長らく「矛と盾」の進化の歴史であった。堅固な城壁を築き、高度な訓練を受けた専門家(人間)がその門を守る。この静的な防御モデルが通用したのは、攻撃側もまた、人間による「職人芸」的な手作業に依存していたからにほかならない。
しかし、2026年現在、私たちは決定的な断絶を目の当たりにしている。マクロな統計データが示す現実は極めて過酷だ。米Cybersecurity Venturesの最新予測によれば、2025年のサイバー犯罪による世界全体の損害額は年間10.5兆ドル(約1,500兆円)に達した ※1 。
これは、世界第3位の経済規模に匹敵する「巨大な闇の経済」が形成されたことを意味する。さらに国内に目を向ければ、経済産業省の試算により2030年には最大約80万人のIT人材が不足すると予測されており ※2 、守り手の確保そのものが構造的な限界を迎えている。
この人材不足という「防衛の空白」を突く形で、AIという自律的な知能が攻撃の主体となった。これにより、防御側が依拠してきた「人間の判断」というプロセスは、もはや致命的なボトルネックへと変質した。侵入から内部拡散を完了させる「ブレイクアウト・タイム」は、平均29分まで短縮されている ※3 。
このことは、人間がアラートを確認し、会議を設定し、対応方針を決定するというアナログなプロセスを、攻撃側のAIが「物理的に追い抜いた」ことにほかならない。人手による監視は、ミリ秒単位で意思決定を下すAI兵器の前では、もはや無力な「静止画」に等しい。
本稿では、最新のインシデントが示す残酷な現実を通じ、我々が直面している「自動化された脅威」の正体について考察する。
※1
Cybersecurity Ventures Forecasts Cybercrime Will Cost World USD$12.2T Yearly by 2031
https://cybersecurityasia.net/cybersecurity-ventures-cybercrime-usd12-2t/
※2
IT人材需給に関する調査
https://www.meti.go.jp/policy/it_policy/jinzai/gaiyou.pdf
※3
クラウドストライク2026年版グローバル脅威レポート:AIによって加速する攻撃者と新たに形成される攻撃対象領域
https://www.crowdstrike.com/ja-jp/press-releases/2026-crowdstrike-global-threat-report/
2. Stryker社を襲った「信用の反転」
2026年3月に発生した、米国のメドテック(医療技術)大手Stryker社を襲った大規模インシデント ※4 は、世界中のCISOに戦慄を与えた。同社は外科機器や整形外科インプラント等の製造で世界をリードする企業だが、ハッカー集団「Handala」が実行したこの攻撃は、脆弱性を突く従来の手法ではなく、防御側が利便性のために導入した「自動化機能」を乗っ取り、兵器へと転換させるという“極めて皮肉な戦略”に基づいていた。
【手口:AitMとセッションハイジャックの可能性】
侵害の全容は現在も調査中であるが、複数の調査機関によれば、AIを用いたAitM(Adversary-in-the-Middle:中間者攻撃)によるフィッシングが有力な経路の一つと目されている。AIが正規の認証画面をリアルタイムで模倣し、多要素認証(MFA)を通過した直後の「認証済みセッション(Cookie)」を窃取。パスワードではなく「認証済みの信用状態」を丸ごと横取りすることで、強固なはずのMFAという防壁を無力化したといった仮説だ。
【権限の悪用:クラウド管理ツールの兵器化】
奪取した特権管理者アカウントを用い、攻撃者はエンドポイント管理ツールにログインした。ここで実行されたのはマルウェアの配布ではなく、正規の運用コマンドである「Wipe(リセット)」だった。被害規模について、攻撃グループのHandalaは「20万台以上」と主張しているが、外部の調査報告(BleepingComputer等)では約8万台のデバイスがワイプされたと報じられている。しかし、いずれにせよ、防御側の資産管理ツールがわずか数分でデータ破壊装置へと反転した事実は、従来の「境界型防御」の終焉を象徴しているといえる。
※4
サイバーセキュリティ事案の発生および対応状況について
https://www.stryker.com/jp/ja/about/our-locations/news/2026/announce-0313.html
3. 自律型エージェントの台頭がサプライチェーンを侵食する
攻撃の産業化は、さらに高度なフェーズへと移行している。2025年後半、欧州の製造業を襲ったサプライチェーン攻撃では、攻撃の全工程を自律的に完結させる「AIエージェント」の存在が確認された。
【実際の手口:悪意あるRAGと自動偵察のサイクル】
この攻撃を主導したAIエージェントは、LLM(大規模言語モデル)をベースに、RAG(検索拡張生成)技術を悪用してターゲットを絞り込んだ。AIはLinkedIn、GitHub、企業のプレスリリース、さらにはダークウェブに流出した過去の漏えい情報を網羅的にクロール。標的企業のサプライチェーン構造を詳細にマッピングし、セキュリティ投資が相対的に低く、かつ親会社へのアクセス権限を持つ「孫請け企業」の従業員を自動的にリストアップした。
【適応型フィッシング:人間関係のデジタル・スキャンと誘い込み】
AIは標的とした個人の文体や関心をスキャンし、一字一句に違和感のない「パーソナライズされたコンテキスト」を作成した。さらに、侵入後はエージェント自らが内部ネットワークを偵察。EDR(エンドポイント検知・対応)の製品名やポリシー設定を瞬時に判別し、その設定の「隙間」を突くためのスクリプトをその場で動的に生成・実行した。この間、人間の攻撃者が介在する余地はなく、防御側が「何かおかしい」と気づいた時には、AIによってすでに管理権限が奪取され、重要データが外部へ持ち出されていたのである。
4. AIによるアイデンティティの偽装で信頼が崩壊する
技術的な壁を飛び越え、人間心理の根幹を揺さぶるのがマルチモーダルAIの脅威である。香港の多国籍企業で発生した約2,500万ドル(当時のレートで約37億円)の詐取事件 ※5 は、その恐るべき幕開けであった。
【実際の手口:ディープフェイクによる心理的ハッキング】
財務担当者に届いたのは、CFO(最高財務責任者)本人を装ったビデオ通話であった。この事件では、過去の動画資料を悪用した事前収録クリップの再生であったと考えられているが、2026年現在の最先端技術であれば、わずか数秒程度の音声サンプルからリアルタイムで感情豊かな発話を生成する段階に達しつつある。
【認知バイアスの悪用と組織統制の脆弱性】
AIによって再現された「本人の顔と声」は、「緊急の極秘買収案件」というシナリオを展開し、担当者の心理的猶予を奪った。人間は「知っている相手」に対し強力な信頼感を抱く。AIはこの身体的な信頼性すら、容易にハッキング可能な「デジタル資産」に変えてしまった。これは技術的なパッチで防げる脆弱性ではなく、人間の「信頼」という社会的なOSのバグを突く攻撃であると言えよう。
※5
香港の多国籍企業で発生した約2,500万ドル(当時のレートで約37億円)の詐取事件
https://www.cnn.co.jp/world/35214839.html
5. 29分の壁を越えてセキュリティを再構築するためには?
これらの事例が共通して突きつけるのは、防御側の「時間的敗北」である。攻撃開始からわずか29分。この短い猶予時間の間に、人間がログを確認し、対応方針を決定するというアナログなプロセスを完遂することは不可能に近い。人手が介在すること自体が、深刻な「経営リスク」となりつつある。
敵がAIによって意思決定を「自律化」させた今、我々に残された唯一の道は、防御側もまたAIを「自律的な盾」として実装し、攻撃と同じ速度、同じ次元で対抗することである。これまでの「守る」という概念から、AIによって被害を最小化し、攻撃を受けても即座に回復する「サイバーレジリエンス」へと戦略をシフトしなければならない。
*****
次回は、この絶望的な速度差を克服し、限られた人的リソースを高度な意思決定へとシフトさせる戦略――「バーチャルアナリスト」によるセキュリティ運用の自動化について、その具体的アプローチについて理解を深めたい。
