週刊海外テックWatch
Anthropicと国防総省の決裂 問われるAI軍事利用の主導権
2026年3月9日 11:35
対立の構図と広がる波紋
今回の対立が浮き彫りにしたのは、AI企業が自社開発した技術をどこまでコントロールできるのかという問いだろう。
国防総省側の論理は簡単だ。Wall Street Journalによると、国防次官研究・工学担当のEmil Michael氏はイベントの中で「彼らのモデルの魂、彼らの憲法(それは米国憲法ではない)が、将軍や兵士に何をすべきかを命令する指揮統制環境を支配することはできない」とAnthropicへの不満をぶちまけた。
一方のAnthropicは、自社技術が最終的にどう使われるかについて一定の発言権を持つべきだとの立場を保持する。これに同調する専門家も少なくない。Mariarosaria Taddeoオックスフォード大教授はBBCにこう述べている。「最も安全を重視する企業が交渉の場から締め出された。これこそが本当の問題だ」
いずれにしてもAIは、国家安全保障で大きな位置を占めるようになっている。元NSA・サイバー軍司令官でOpenAI取締役のPaul Nakasone退役大将は、サプライチェーンリスク指定措置を「国家にとって良くない」と批判。「米国にはAnthropicが必要だ。OpenAIが必要だ。すべての大規模言語モデル企業が政府と連携する必要がある」とした。
IT業界団体のITI(Information Technology Industry Council)も3月4日、Hegseth長官に書簡を送り、「国防総省がサプライチェーンリスク指定を検討しているとの報道を懸念する」と述べた。
また、この議論には多くの一般ユーザーも強い関心を示している。Sensor Towerのデータでは、OpenAIの契約が発表された日、米国内のChatGPTアンインストール数が前日比で295%増となり、削除するユーザーが相次いだ。逆にClaudeはユーザーが流入し、米国App Storeカテゴリランキングで首位になった。
国防総省は3月5日、Anthropicのサプライチェーンリスク指定を正式に発効させた。これを受けAmodei氏は声明を発表。「この措置は法的に正当性を欠く。法廷で争うしかない」と提訴に向けて動く決意を示した。