AI Infrastructure2026-04-28
The Verge
Google社員、ペンタゴンによるAI利用に抗議
DeepMindの20人以上のシニアエンジニアやディレクターを含む600人以上のGoogle社員が、サンダー・ピチャイCEO宛ての公開書簡に署名し、ペンタゴンが同社の人工知能モデルを機密軍事目的で使用することを阻止するよう要求した。社内で大きな支持を集めているこの抗議は、自身の仕事が戦争や監視に利用されることに対するテクノロジー労働者の倫理的懸念の高まりを反映している。
書簡は特に、米国国防総省がGoogleの高度なAIシステムを機密作戦に活用できるようにする契約を、キャンセルまたは拒否するよう求めている。社員らは、そのような使用は、以前にペンタゴンのドローン画像解析プログラム「プロジェクト・メイヴン」をめぐる従業員の反乱を受けて2018年に制定されたGoogle自身のAI原則に違反すると主張している。当時、Googleは兵器や、その主たる目的が傷害を引き起こしたり助長したりすることであるその他のシステムのためにAIを開発しないことを誓約した。
社内の批評家は、今回の新たな抗議は、それらの誓約が依然として脆弱であることを思い出させるために必要であると述べている。「私たちは紛争地帯における自律的な意思決定のためのインフラを構築するよう求められている」と匿名の従業員は記者団に語った。「それは私たちが望んでいた仕事ではありません。」
この抗議は、AIの能力が急速に進歩している時代における企業の責任について、より広範な疑問も提起している。世界中の政府が軍事AIに多額の投資を行う中、テクノロジー企業は立場を選ぶよう圧力を強められている。Googleはまだこの書簡に対する公式な回答を発表していないが、内部の反対意見は、倫理と国家安全保障をめぐる議論が決着にはほど遠いことを示している。
AIがより強力になるにつれて、商業的イノベーションと軍事応用の境界線はますます曖昧になっている。Googleにとって、有利な政府契約を進めながら従業員の士気を管理することは、これまでで最も困難な課題の一つとなるかもしれない。
