週刊海外テックWatch

Anthropicと国防総省の決裂 問われるAI軍事利用の主導権
2026年3月9日 11:35
AIの利用を巡って国防総省とAnthropicが対立し、国防総省関連の政府調達から同社が段階的に排除される方向となった。大規模言語モデルが実際の軍事運用に組み込まれる段階となり、AI企業と政府の双方に難しい選択が突きつけられている。AI技術の使い方を決めるのはAI企業か、利用する側か――。
(岡田 陽子)
争点となった“レッドライン”
「われわれの立場が変わることはない。良心のとがめを感じずに国防総省の要求に応じることはできない」。2月26日の声明で、AnthropicのCEO、Dario Amodei氏は、こう述べて言語モデルのClaudeに設けている2つの利用制限の撤廃を拒否した。
国防総省は今年初め、AIモデルについて「あらゆる合法的用途(All Lawful Purposes)」での利用を求め、Anthropicと対立してきた。2つの利用制限はAnthropicが“レッドライン”と呼ぶものだ。Pete Hegseth国防長官は、同社が従わなければ、「国防生産法」(民間企業への行動の強制が可能)の発動や、「サプライチェーンリスク」(システムの機能を脅かすリスク)指定を含む措置をとると通告していた。
Anthropicは2025年7月、国防総省と2億ドルの契約を締結し、米政府の機密ネットワークにモデルを展開した最初のフロンティアAI企業となった。同社は約1年前からPalantirおよびAWS経由で防衛・諜報機関にモデルを提供しており、これが拡大した形だ。
しかし、Anthropic側は、使用許可の例外としてレッドラインを維持していた。一つは「完全自律型兵器への利用」、もう一つは「米国民を対象とした大規模な国内監視への利用」だ。前者については「十分な信頼性がない」、後者は「基本的人権の侵害に当たる」という理由からだった。Anthropicが倫理面から自発的に設定したものだ。
この決裂には、1月の米軍のベネズエラでの軍事作戦でClaudeが実際に利用されたとの報道が背景にあるとみられている。Axiosによると、Anthropic側が自社製品が実際に使われたかを確認したことが国防総省の懸念を招き、両社の関係をさらに悪化させたという。
そしてAnthropicの対応にTrump大統領が激怒。Truth Socialへの投稿で、Anthropicが利用規約で軍を縛ろうとしたと批判し、「全連邦機関はAnthropicの技術の使用を即時中止せよ」と述べた。
Hegseth長官もXで、Anthropicをサプライチェーンリスクに指定すると投稿した。通常、外国の敵対勢力に対して用いられる措置で、米国内企業への適用は異例中の異例だ。