●この記事のポイント
トランプ政権が米AI企業アンソロピックを「サプライチェーンリスク」に指定し、政府機関での使用を停止。直後にOpenAIが国防総省と大型契約を締結した。憲法AI(Constitutional AI)を掲げ軍事転用を拒んだ企業と、国家安全保障に擦り寄った企業——AI倫理と安全保障の衝突が、業界の勢力図を塗り替えつつある。
米国防総省(ペンタゴン)による米アンソロピックへの「サプライチェーンリスク」指定、そしてドナルド・トランプ大統領による政府機関での同社製品の使用停止命令――。これは単なる調達ルールの変更ではない。AI開発の主導権と倫理観を巡る、シリコンバレーと米国家安全保障体制の全面衝突の幕開けである。官民一体で中国に対抗してきたはずの米AI業界に走った激震の深層を読み解く。
●目次
- 米政府とAI企業の「決別」という異常事態
- アンソロピックの「拒絶」とトランプ政権の「報復」
- OpenAIの「変節」と軍事市場の独占
- 現場からの反旗 ―― グーグル・OpenAI社員の連帯
- AI倫理は「安全保障」に勝てるのか
- AI業界は「分断」の時代へ
米政府とAI企業の「決別」という異常事態
2025年春、シリコンバレーに衝撃が走った。米政府はAI安全性研究の先頭に立つアンソロピックを、調達上の「サプライチェーンリスク」として事実上の排除対象に指定し、トランプ大統領は政府機関での同社AI製品の使用を即時停止するよう命じた。
かつて中国・ファーウェイに対して発動したような厳しい措置が、今度は「自国の有望企業」に向けられた。これがいかに異例の事態か、テクノロジー業界の関係者なら誰もが即座に理解するはずだ。
背景にあるのは、AIの軍事・攻撃転用を巡る価値観の根本的な対立である。アンソロピックは「憲法AI(Constitutional AI)」と呼ばれる独自の安全設計思想を掲げ、AI兵器化への協力に慎重姿勢を崩さなかった。一方のトランプ政権は、安全保障を最優先に、AIを国家戦略の中核に据える方針を加速させている。
アンソロピックの「拒絶」とトランプ政権の「報復」
アンソロピックは2021年、OpenAIの共同創業者であるダリオ・アモデイ氏らが「AIの安全性」を旗印に設立したスタートアップだ。同社が打ち出した憲法AIは、AIの応答に倫理的ガイドラインを埋め込む手法で、業界内での評価は高い。だが同社のこの哲学が、ペンタゴンとの蜜月を阻む壁にもなった。
「関係者によれば、国防省はAIに標的選定や情報収集といった軍事オペレーションへの直接関与を求めていたようです。これに対しアンソロピックは明確な留保を示し、交渉は事実上の決裂に至ったとのことです」(国際安全保障の専門家である政治アナリスト・畠田祐一氏)
トランプ政権が採った手段は迅速だった。「サプライチェーンリスク」という行政上の区分を活用し、入札資格を事実上剥奪。政権の強硬姿勢は、シリコンバレーに「政府に逆らえばどうなるか」という強烈なメッセージを送るものでもあった。
「”サプライチェーンリスク”という指定は、通常は外国企業や安全保障上の明白な脅威に使われる概念です。自国の民間AI企業への適用は前例がなく、行政権限の拡大解釈として法的な議論も呼びうるもの。企業にとっては、政府との倫理的な摩擦がいかに致命的なビジネスリスクになりうるかを示す先例となりました」(元米国防省AIアドバイザー)
OpenAIの「変節」と軍事市場の独占
アンソロピックが排除された直後、間髪入れずに動いたのがOpenAIだ。同社は国防省との複数年にわたる大型契約を締結し、政府AI市場における圧倒的な存在感を示した。
皮肉なのは、OpenAIはかつて「人類全体に利益をもたらすAI」を掲げる非営利組織として出発した企業であるという点だ。サム・アルトマンCEOはここ数年で完全に舵を切り、国家安全保障の担い手として積極的に政府に擦り寄る戦略を選択した。GPT-4を始めとする同社の主力モデルは、軍の情報分析や意思決定支援システムへの組み込みが進む。
問題は、政府系AI案件がOpenAI一強に近い形で収斂しつつある点だ。競合の排除によって生まれる技術的バイアスと競争原理の喪失は、長期的には米国のAI競争力そのものを損ねるリスクをはらんでいる。
【図表】AI業界の対立構図
現場からの反旗 ―― グーグル・OpenAI社員の連帯
今回の対立が単なる企業間競争の問題に留まらない理由のひとつが、現場の技術者たちの動向だ。グーグルやOpenAIの社員を中心に、アンソロピックの姿勢を支持する声が内部から噴出している。
「自分が書いたコードが、中東での空爆の標的選定に使われるかもしれない」。ある元OpenAI上級エンジニアは、匿名を条件にこう語った。「それを想像した瞬間、私はこの仕事を続けることの意味を根本から問い直した」
イラクやガザでの軍事行動においてAI技術が情報分析や標的選定に活用されているとの報道が相次ぐ中、技術者の倫理的葛藤は現実のものとなっている。グーグルでは2018年にドローン映像解析プロジェクト「Project Maven」への反対署名運動が起き、同社はその後、国防省との契約を更新しなかった経緯がある。今回の局面でも、類似の社内分裂が複数の大手テック企業で進行していると、関係者は口をそろえる。
これは企業の成長性に直結するリスクでもある。トップクラスのAI研究者は引く手あまたであり、「倫理なき企業」と見なされた場合の人材流出は深刻だ。ESG投資の観点からも、AI企業のガバナンスや倫理基準は機関投資家の評価軸として急速に重要度を増している。
「優秀なAI研究者ほど、自分の研究の社会的インパクトに敏感です。企業が軍事案件を受注することで、採用競争上の不利が生じるケースは現実に起きています。ダイバーシティやサステナビリティと同様、”AI倫理”は今や採用ブランドの核心的要素になりつつあります」(同)
AI倫理は「安全保障」に勝てるのか
問題の核心は、「理想」と「現実」の間のせめぎ合いだ。AIが実際の紛争で活用される時代において、倫理的な留保を貫くことは、国防上の空白を生む可能性がある。「敵国(中国)がAIを軍事利用するなら、米国もやるべきだ」という論理は、ワシントンでは一定の説得力を持つ。
しかし、もうひとつの現実がある。米国内での足並みの乱れは、グローバルなAI開発競争そのものを歪めるリスクをはらむ。倫理的なAI開発の国際標準を主導してきたのは米国の研究者コミュニティであり、その知的基盤が崩れれば、中国主導の技術規範が台頭しかねない。
ビジネスパーソンへの示唆も明確だ。今後、AI企業を選定する際の基準は「機能」や「価格」だけでは不十分になる。その企業が持つ「思想」、そして「国家権力との距離感」が、調達リスクや規制リスク、ブランドリスクを左右する最大の変数になりつつある。
「企業がAIベンダーを選ぶ行為は、これからは”政治的・思想的な選択”の側面を持ちます。特に欧州や日本の企業にとっては、米国のAI規制の動向と、調達先ベンダーの安全保障上の立場がコンプライアンスリスクに直結する時代になっています」(同)
AI業界は「分断」の時代へ
今回の一連の出来事が示すのは、AI業界が単なる技術競争の段階を超え、価値観と国家戦略が正面衝突するフェーズに突入したという事実だ。アンソロピックが象徴する「倫理派」と、OpenAIが突き進む「実利・国防派」の二極化は、今後のシリコンバレーの勢力図を塗り替えるだけでなく、次世代テクノロジーの進化の方向性そのものを規定することになる。
投資家の目線でも、この分断は無視できない。アンソロピックは政府案件という巨大市場から締め出された一方、アマゾン(AWS)やグーグルといった戦略的投資家からの支援を背景に、民間企業や欧州市場での展開を加速させている。OpenAIは政府収益という安定基盤を得たが、倫理的評判リスクと優秀人材の離反という見えない負債を抱える。どちらが長期的なレジリエンスを持つかは、まだ誰にも断言できない。
確かなのは、AIを「ツール」として捉えるだけでは企業の意思決定として不十分な時代が来たということだ。AIは今や、どの国家と、どのような価値観のもとで開発されるかという「政治的存在」でもある。その本質を見誤れば、調達判断が取り返しのつかないビジネスリスクを生む。これがトランプ政権によるアンソロピック排除事件が、私たちに突きつけた最大の教訓である。
(文=BUSINESS JOURNAL編集部、協力=畠田祐一/政治アナリスト)