AnthropicをトランプがAI禁止令——そして裁判所がひっくり返した。Claude対ペンタゴン全記録
トランプ政権がAnthropicのAI全省庁使用禁止令を発動→「サプライチェーンリスク」指定→Anthropicが提訴→裁判所が差し止め。OpenAIはその隙に国防総省と契約締結。AI業界を揺るがす2026年最大の政治事件の全容。
AIの安全性をめぐって、アメリカの政府と一企業が真正面からぶつかった。その顛末が、いまAI業界全体に衝撃を走らせている。
事の発端——ペンタゴンの「無制限利用」要求
2026年2月27日、トランプ大統領は大統領令に署名し、連邦政府全省庁にAnthropicのAI技術の使用を禁止した。きっかけは、国防総省がAnthropicのClaudeモデルに対して「安全制限なしの完全アクセス」を求めたことだ。
AnthropicのCEO・ダリオ・アモデイは、これを拒否した。
Anthropicが求めていたのは、ごく限られた保証だった。「大規模な国内監視に使わない」「完全自律型の兵器システムへの組み込みはしない」——この2点だけだ。ペンタゴン側は「そのような用途は想定していない」と述べながらも、「いかなる制限も受け入れない」と主張した。
アモデイCEOは公開声明でこう述べた。「良心に従えば、この要求に応じることはできない」
トランプの逆鱗——「急進左派企業」呼ばわり
それに激怒したトランプ大統領はSNSで次のように投稿した。
「アメリカは急進的な左翼・ウォーク企業に、我々の偉大な軍の戦い方を指図させることは絶対にない!」
国防長官のピート・ヘグセスは、Anthropicを「サプライチェーンリスク」に指定した。この指定は通常、中国系企業など外国の敵対的な組織に使われるものだ。アメリカ企業への適用は「前例がない」とAnthropicの弁護士は裁判所で主張した。
この指定が実施されれば、Amazon、Microsoft、Palantirといった国防総省と取引する大手企業は、自社システムでClaudeを使っていないことを証明する義務が生じる。Anthropicにとって数千億円規模のビジネスが消滅する可能性があった。
裁判所が動いた——「これは企業を潰しにかかっているように見える」
Anthropicは即座に提訴。3月26日、カリフォルニア州連邦地裁のリタ・リン判事は、ペンタゴンの「サプライチェーンリスク」指定を差し止める仮処分を認めた。
法廷での審問で、リン判事はこう述べた。
「Anthropicは、政府の契約条件を報道で批判したことを『罰せられている』のではないかと懸念している」
「これは企業を潰しにかかっているように見える(looks like an attempt to cripple)」
司法省の弁護士は「AnthropicがITシステムに『キルスイッチ』を仕込む可能性がある」と主張したが、判事はこれに厳しい目を向けた。「ベンダーが頑固に特定の条件を主張したら、それだけでサプライチェーンリスク指定の根拠になるのか?それはハードルが低すぎる」
OpenAIの動き——隙をついて国防総省と契約
この騒動の陰で動いたのがOpenAIだ。Anthropicが「罰」を受けた当日の夜、OpenAIのCEO・サム・アルトマンが国防総省との新たな契約締結を発表した。
しかもアルトマンは、Anthropicが要求していたのと同様の安全原則——「国内大量監視の禁止」「人間の判断なしの武力行使の禁止」——を契約に盛り込んだと公表した。
「これらの安全原則が、すべてのAI企業に同じ条件で提供されることを望む」とアルトマンは述べた。これは、トランプ政権に対する暗黙の批判とも読める。
何が問題なのか——日本への影響
この事件には、AI業界全体にとって重大な含意がある。
まず、AIの安全性と軍事利用の衝突という問題だ。AIが核抑止力の判断や無人機の制御に使われる未来において、「AIに制限をかける権限は誰にあるか」は根本的な問いだ。
次に、政府とAI企業の力関係。政府が気に入らない企業を「国家安全保障上のリスク」として排除できるなら、AI企業はすべて政府の言いなりになるしかない。それはAIの安全研究や倫理的な開発を妨げる。
日本においても、防衛省や自衛隊がAIを調達・活用する場面は急増している。今回の一件は、政府が民間AIに「無制限アクセス」を要求する前例となり得る。日本のAI政策にも警鐘を鳴らす事例だ。
現状——まだ終わっていない
差し止め仮処分は出たが、本訴は続く。Anthropicは「前例なき違法行為」として完全な勝訴を目指す。ペンタゴンは上訴するかどうか、まだ発表していない。
「ウォー省(Department of War)からのどんな脅しや罰も、大規模な国内監視や完全自律型兵器に関する私たちの立場を変えることはない」——Anthropicは声明でこう断言した。
AIの安全性を守るために、政府と戦う企業。その結末が、2026年のAI業界の形を決める。
この記事が役に立ったら共有してください

GPT-5.4 vs Claude Sonnet 4.6 どっちが上?2026年最新AIモデル完全比較
OpenAIのGPT-5.4とAnthropicのClaude Sonnet 4.6。2026年3月、どちらも大型アップデートを投入。コーディング・推論・エージェント性能を徹底比較。あなたが使うべきはどっちか、今すぐ答えを出す。
10時間前
「空前絶後のサイバーリスク」を持つAIを、Anthropicがうっかりリークした
AnthropicのCMS設定ミスにより次世代AIモデル「Claude Mythos(Capybara)」の詳細がリーク。リークされたブログには「サイバーセキュリティに空前絶後のリスクをもたらす」と書かれており、皮肉なセキュリティ事故として世界中に拡散した。
1日前広告