前回の記事では、AIがジュニア層の仕事を代替し、キャリアの入り口が消えるリスクについてお話ししました。
今回は、そのAIを「誰が、どんなルールで使うのか」という、もう一つの大きなテーマです。2026年2月、アメリカで起きたある事件が、AI業界の倫理観を根底から揺さぶりました。
Anthropicが突きつけた「2つのレッドライン」
AIチャットボット「Claude」を開発するAnthropicは、2025年7月に米国防総省と2億ドル(約300億円)の契約を結びました。契約には2つの条件が明記されていました。
Claudeを完全自律型兵器に使わないこと。そして、アメリカ国民に対する大規模な国内監視に使わないこと。この2本が、Anthropicが米国防総省に突きつけた「レッドライン」です。
数カ月間、この契約のもとで運用は順調に進んでいました。ところが2026年初頭、国防総省は態度を変えます。「すべての合法的な目的で使えるようにせよ」と要求してきたのです。この表現だと、自律型兵器も大規模監視も「合法」の範囲に入りかねません。 Anthropicのダリオ・アモデイCEOは、この要求を拒否しました。

トランプ政権の報復と、OpenAIの参入
結果は、劇的でした。2026年2月末、トランプ大統領はSNSでAnthropicを「過激な左翼企業」と名指しし、全連邦機関にClaude使用の即時停止を命じました。
ヘグセス国防長官はAnthropicを「サプライチェーン・リスク」に指定。通常は敵対国に関連する企業に対して使われる措置です。軍と取引のある企業は、Claude関連の商業活動を一切禁じられました。
そしてその数時間後、OpenAIのサム・アルトマンCEOが国防総省との契約を発表。アルトマンは「大規模監視や自律型兵器への使用を禁じる条件を設けた」と主張しています。
一見するとAnthropicと同じ条件に見えますが、専門家や法律家からは「契約の文言に抜け穴がある」「既存の法律を守るという表現にすぎず、実質的な制限になっていない」という批判が相次ぎました。
「安全なAI」を掲げた男の原点
アモデイの姿勢には一貫性があります。彼は元々OpenAIで研究部門のトップを務め、GPT-2やGPT-3の開発に携わった人物です。
しかし、AIの開発方針をめぐるビジョンの違いから2020年末にOpenAIを去り、2021年に妹のダニエラとともにAnthropicを設立しました。
アモデイは経営者というよりも、AIの安全性に取り憑かれた研究者に近い人です。プリンストン大学で計算神経科学を学んだバックグラウンドがあり、AIモデルの挙動を「メカニズム」として理解しようとする姿勢が、Anthropicの社風そのものを形づくっています。

「どのAIを選ぶか」が問われている
この一件で浮き彫りになったのは、AI企業が技術だけでなく「思想」で選ばれる時代に入ったということです。
安全性を最優先にして政府と対立する道を選んだAnthropic。実利を取りつつ安全策を約束するOpenAI。どちらが正しいかは一概に言えませんが、少なくとも僕たちユーザーは、自分が使うAIの「背景にある哲学」を知っておくべきだと思います。
2026年3月、連邦裁判所の判事はAnthropicへの禁止措置を「言論の自由に対する報復」と認定し、仮差止命令を出しました。一方で別の控訴裁判所は国防総省のサプライチェーン・リスク指定を維持する判断を下しています。この攻防は、今もまだ続いています。
AIの進化は止まりません。だからこそ、技術の「使い方」と「使わせ方」を考えることが、ビジネスパーソンにとっても、消費者にとっても、避けて通れない課題です。
テクノロジーの力を信じるからこそ、その力にブレーキをかけられる仕組みが必要だ。僕はそう考えています。


コメント