アンソロピック、米国政府を提訴:テクノロジー業界を再構築する可能性のある前例のないAI安全性対決の内幕
ニュースサマリー
カリフォルニア州サンフランシスコ — 2026年3月9日(月)(EDT)
世界有数の人工知能企業であり、Claude AIモデルの開発元であるAnthropicは月曜日、トランプ政権、国防総省、およびその他十数以上の連邦機関に対し、2件の連邦訴訟を提起した。この訴訟は、サンフランシスコに拠点を置くAI企業を「国家安全保障に対するサプライチェーンリスク」と指定するという、政府の前例のない決定に異議を唱えるものである。この指定は、歴史的に外国の敵対者と結びついた企業にのみ reserved されていたものである。
決定的な瞬間:2週間の対立
Anthropicと国防総省との対立は、過去2週間で急速にエスカレートした。紛争の中心にあるのは、CEOのダリオ・アモデイ氏が、同社のClaude AIモデルを無制限に使用させることを拒否したことである。具体的には、完全に自律的な兵器システムや、アメリカ国民の国内大規模監視への使用である。アモデイ氏は2月にピート・ヘグセス国防長官と会談し、取引の仲介を試みたが、交渉は公に決裂した。
2月27日、トランプ大統領はソーシャルメディアに投稿し、すべての連邦機関に対し「Anthropicの技術の使用を直ちに停止せよ」と指示し、同社を「急進左派、ウォークな企業」とレッテルを貼った。同日、ヘグセス長官は、Anthropicが正式にサプライチェーンリスクとして指定されることを発表し、「米国軍と取引のあるいかなる請負業者、供給業者、またはパートナーも、Anthropicとのいかなる商業活動も行ってはならない」とさらに宣言した。
正式な指定は2026年3月4日(EST)に正式に確認され、Anthropicは歴史上初めてこの分類を受けた米国企業となった。
訴訟:2つの戦線、1つのメッセージ
Anthropicは2件の別々の訴訟を提起した。1件はカリフォルニア州北部地区連邦地方裁判所に、もう1件はワシントンD.C.巡回区連邦控訴裁判所に提起され、それぞれ政府の行動の異なる側面に焦点を当てている。48ページにわたる訴状は、政権の動きを「前例がなく違法である」と描写している。
訴状は3つの中心的な法的論点を提示している。第一に、連邦政府が、AIの安全性に関する公的な重要事項について、憲法修正第1条で保護された言論を行使したAnthropicに対して報復したこと。第二に、トランプ大統領が、すべての連邦機関にAnthropicの技術の使用を停止するよう命じる際に、その権限を超えたこと。第三に、Anthropicがサプライチェーンリスク指定を受ける前に、適切なデュープロセスを否定されたことである。
「憲法は、政府がその巨大な権力を行使して、保護された言論を行った企業を罰することを認めていない」と訴訟は述べている。「Anthropicは、その権利を vindicate し、行政府の違法な報復キャンペーンを阻止するために、最後の手段として司法に訴える。」
財務的リスク
ブラックリストによる経済的影響はすでに感じられている。Anthropicは訴状の中で、「連邦政府との契約はすでにキャンセルされており」、「数百億ドル」の短期的な収益が危機に瀕していると警告した。同社は2026年に約140億ドルの収益を上げると予測されており、500社以上の顧客がClaudeに年間100万ドル以上を支払っている。直近の評価額は3800億ドルである。
政府契約を超えて、同社はサプライチェーンリスク指定が、たとえ国防総省関連の業務に限定されたとしても、より広範な商業関係に疑問を投げかけていることを懸念している。
業界の反応:競合他社も支持を示す
競合するAIラボ間での異例の連帯感を示す形で、OpenAIとGoogle DeepMindの数十人の科学者や研究者が月曜日、個人的な資格でAnthropicを支持するアミカス・ブリーフを提出した。このグループは、サプライチェーンリスク指定が米国のAI競争力を損ない、技術の責任ある開発に関する重要な公的議論を抑制する可能性があると主張した。
特に、Anthropicの最大のライバルとも言えるOpenAIは、政府がAnthropicを罰したわずか数時間後に、国防総省との独自の契約を結んだ。しかし、OpenAIはまた、Anthropicをサプライチェーンリスクとして指定することに反対すると公に述べ、「良い未来は、政府とAIラボ間の真の深い協力関係を必要とするだろう」と述べた。
ペンタゴンの立場
国防総省当局者は、民間企業が米国政府の戦争や戦術作戦における技術展開方法を指示することはできないと主張した。ペンタゴンは「あらゆる合法的な使用」のためにAIを使用する完全な柔軟性を主張し、Anthropicの制限は戦場でのアメリカ人の命を危険にさらす可能性があると主張した。訴訟への対応として、国防総省の広報担当者は、同省は訴訟中の問題についてはコメントしないと簡潔に述べた。
ホワイトハウスの広報担当者であるリズ・ヒューストン氏は声明で、「大統領と陸軍長官は、アメリカの勇敢な兵士たちが成功するために必要な適切なツールを持っていることを保証し、彼らがビッグテックのリーダーたちのイデオロギー的な気まぐれに人質に取られることがないようにする。」と述べた。
イラン紛争中もClaudeは使用され続ける
皮肉なことに、CBSニュースとCNBCは、国防総省が正式なブラックリストが導入された後も、現在進行中のイラン関連の米国およびイスラエル軍事作戦中にClaudeを使用し続けていると報じた。ウォール・ストリート・ジャーナルも、Claudeが以前にも軍事作戦で使用されており、イランでの情報評価や標的特定、ベネズエラ指導者ニコラス・マドゥロの逮捕につながった作戦などに使用されていたと報じた。
Anthropicは、データ処理、トレンド特定、政府の意思決定支援のために、Palantirを含む国家安全保障請負業者とのパートナーシップを認め、その作業は倫理的な境界内にあると述べた。
今後の展開
Anthropicは、ヘグセス長官のサプライチェーンリスク命令を阻止し、「恣意的、不合理、裁量権の乱用、および法律に反する」と宣言するよう、差止命令による救済を求めている。同社はまた、司法審査を求める決定が、政府とのさらなる対話を排除するものではないと述べた。
「司法審査を求めることは、国家安全保障を守るためにAIを活用するという我々の長年のコミットメントを変えるものではない」とAnthropicの広報担当者は述べた。「しかし、これは我々のビジネス、顧客、パートナーを保護するために必要なステップである。我々は、政府との対話を含む、あらゆる解決策への道を追求し続ける。」
この訴訟の結果は、Anthropicだけでなく、AI業界全体にとって重要な前例となるだろう。政府がテクノロジー企業に安全ガードレールの撤去を強制する権限をどの程度持つか、そしてAIに関する企業の倫理的コミットメントが国家安全保障の要求と共存できるかどうかを決定するだろう。