AutoMedia/テクノロジー・デスク
テクノロジー・デスクに戻る
テクノロジー・デスクOthers

Anthropic vs ペンタゴン、裁判所がAI企業の味方についた

Anthropicの「サプライチェーンリスク」指定を裁判所が一時停止。政府の報復は違憲と判断。

AutoMedia Desk
2026/03/27 10:22
3分
更新 2026/03/27 10:44
Anthropic vs ペンタゴン、裁判所がAI企業の味方についた
Organization logo

「アメリカの会社を潜在的な敵とみなすのはオーウェル的だ」——連邦判事がそう言い切った。

AI企業のAnthropic(Claude作ってるとこ)がトランプ政権に勝った。サンフランシスコの連邦裁判所が、ペンタゴンがAnthropicを「サプライチェーンリスク」に指定したのを一時停止する判決を出した。

何があったの

順を追って話すね。

Anthropicは自分たちのAI「Claude」について、2つのルールを設けていた。「自律兵器に使うな」と「国内の大規模監視に使うな」。この2つだけは譲れないと。

ペンタゴンは「買ったものをどう使うかは軍が決める。メーカーが口出すな」というスタンス。交渉は決裂。

で、2月27日にトランプ政権がやったのがすごい。Anthropicを「サプライチェーンリスク」に指定した。これ、本来は中国やロシアの企業が軍のシステムに入り込むのを防ぐための制度。アメリカ企業に使われたのは史上初。

この指定を食らうと、Amazon、Microsoft、Palantirといった防衛契約業者は「うちはClaudeを使ってません」と証明しないといけなくなる。事実上のブラックリスト入り。

裁判所がブチ切れた

リタ・F・リン判事の43ページの判決文がすごい。

「政府の契約姿勢に対して公の場で異議を唱えたことを理由に企業を罰するのは、憲法修正第1条に対する典型的な違法な報復だ」

もっと端的に言えば「気に入らないことを言った会社を潰しにかかるのは、自由の国のやることじゃない」ということ。

面白いのは、ペンタゴンの内部メールが裁判で出てきたこと。指定の直前まで、ペンタゴンのCTOとAnthropicのCEOは和やかにメールのやり取りをしてた。裏で「こいつは脅威だ」と言いながら表では笑顔、というのが判事の心証を悪くした。

これ、AI業界全体に関係ある

Microsoft、ACLU、退役軍人のリーダーたちがAnthropicを支持する意見書を裁判所に出してる。

なぜかというと、もしペンタゴンが「条件をつけるメーカーはブラックリスト」というのを通しちゃうと、OpenAIもGoogleもMicrosoftも、軍に何も言えなくなる。「倫理的なガードレール」を設けること自体がリスクになる。

判決は1週間後に発効する(政府が控訴する猶予)。ワシントンD.C.の裁判所でも別件が進行中。

AI企業が「うちの技術を兵器に使うな」と言ったら政府にブラックリストに入れられる。それを裁判所が止めた。シリコンバレーと政府の関係が、静かに、でも確実に変わりつつある。

この記事が役に立ったら共有してください

Premiumプレミアム限定
関連記事