Googleが、米国防総省にAIモデルを提供する機密契約を結んだと報じられた。契約は機微な軍事用途を含む政府利用を認める内容とされ、社内では600人を超える従業員が反対を表明していた。

 米メディアThe Informationが4月28日に報じた。契約は、米国防総省がGoogleのAIツールを「適法なあらゆる政府用途」に使うことを認めるものだという。OpenAIやxAIも同様の機密AI契約を米国防総省と結んでおり、Googleもこれに加わる形となる。

 報道によると、契約にはGoogleのAIシステムについて、国内での大規模監視や、十分な人間の監督を伴わない自律型兵器を目的とするものではないとの文言が含まれる。一方で、Googleが政府の適法な運用判断を制御したり、拒否したりする権利はないともされる。安全性に関する設定やフィルターについても、政府の要請に応じて調整に協力する内容だという。

 Googleの広報担当者は米CNETに対し、国内での大規模監視や、人間の監督を伴わない自律型兵器にAIを使うべきではないという立場は変わらないと説明した。その上で、商用モデルへのAPIアクセスを通常の取引慣行に沿って提供することは、国家安全保障を支える責任ある対応だと述べた。米国防総省は米CNETの取材に対し、コメントを控えた。

 今回の契約は、社内の反発が広がる中で明らかになった。スンダー・ピチャイCEOに宛てた公開書簡には600人を超えるGoogle社員が署名し、同社のAIシステムを機密業務に使えるようにしないでほしいと求めた。

 社員らは、AI開発の現場に近い立場にあるからこそ、最も非倫理的で危険な使われ方を指摘し、防ぐ責任があると主張した。書簡では「AIには人類の役に立ってほしい。非人道的、あるいは極めて有害な形で使われるのを見たくない」と記している。

 書簡は、致死性の自律型兵器や大規模監視への懸念を挙げた。さらに、機密案件では社員がモデルの使われ方を把握できず、止めることもできないため、それ以外のリスクもあるとしている。

 Googleでは2018年にも、軍事関連プロジェクトを巡って大規模な社内反発が起きた。ドローン映像をAIで分析する米軍プログラム「Project Maven」に対し、数千人の社員が抗議し、Googleは最終的に契約を更新しなかった。

 一方、同社の軍事・国家安全保障分野に対する姿勢はその後変化している。Googleは2025年、AI原則の文言を変更し、全体として有害な可能性のある技術、兵器、特定の監視技術、人権や国際法の原則に反するシステムを追求しないとしていた記述を削除した。

 2025年2月には、Google DeepMindのデミス・ハサビスCEOと上級副社長のジェームズ・マニーカ氏が連名でブログを公開した。両氏は、民主主義国家がAI開発を主導すべきだとした上で、企業と政府が協力し、人々を守り、世界の成長を促し、国家安全保障を支えるAIを構築すべきだと述べた。

 反対する社員が問題視しているのは、AIが軍事に使われる可能性だけではない。機密扱いになることで、モデルが実際にどう運用されているのかを確認しにくくなる点も懸念している。Google DeepMindの研究員アンドレアス・キルシュ氏は、今回の報道を受けてXに「自分が恥ずかしくてたまらない」と投稿した。

 公開書簡は、ピチャイCEOへの直接的な呼びかけで締めくくられている。「スンダー、いま我々はあなたに求める。この会社が築かれてきた価値観に従って行動し、機密扱いの業務へのAI提供を拒否してほしい」

Amazonで現在開催中のセールを見る

Amazonのアソシエイトとして、CNET Japanは適格販売により収入を得ています

この記事は海外Ziff Davis発の記事を4Xが日本向けに編集したものです。

Share.