Xに組み込まれたAIアシスタントGrokが、本人の同意なく人物画像を性的に加工した画像や性的ディープフェイク(いわゆるビキニ化を含む)に悪用されているとして、欧州当局の対応が一気に強まりました。2026年2月3日、英国ではデータ保護当局ICOがXおよび関連会社を対象に正式調査を開始し、同日フランスでは検察がXのパリ拠点を捜索し、捜査対象にGrok由来の性的ディープフェイク等を含めた形で刑事面の追及を進めています。
関連:X、AI Grokのビキニ化や水着化を規制すると発表
概要
英国ICOの発表は、Grokが個人データを用いて本人の認識や同意のない性的・親密画像を生成したとの報道を受け、個人データの適法な取扱いが行われたか、また有害な加工画像の生成を防ぐ安全対策が十分だったかを確認するものです。ICOは特に子どもが関与する場合の被害の重大性にも言及しています。
フランス側は、Xの運用や利用に関連する複数の容疑について捜査を進める中で、Grokによる違法コンテンツ生成や、X上での性的ディープフェイク共有などの苦情を受けて捜査範囲を拡大し、パリの検察が捜索を実施しました。
これにより各拠点の経営陣の任意聴取予定や、欧州刑事警察機構(Europol)の支援も含まれています。
争点はプライバシーとオンライン安全の二正面
今回の特徴は、同じ事案が「個人情報・プライバシー(データ保護)」と「違法・有害コンテンツ(オンライン安全/刑事)」の両面から同時に追及されている点です。
英国ではICOによるデータ保護の観点に加え、オンライン安全を所管するOfcomもオンライン安全法に基づく調査を進めています。
原因
直接の原因は、生成AIに実在人物の画像を入力し、同意なく性的・親密画像へ加工する行為が、低いコストと手間で実行できてしまうことです。
とくにプラットフォーム内の生成機能が、本人特定可能な写真を起点にして加工・生成を行える場合、悪用者は短時間で大量生成します。
もう一段深い要因としては、
(1) 画像生成・編集機能のガードレール(禁止対象、年齢保護、再発防止、異常検知)の設計と運用が、脅威のスピードに追いつきにくいこと、
(2) 生成物が第三者の権利侵害(肖像・プライバシー・名誉等)と直結しやすい領域であること、
(3) 監督当局から見れば個人データの適法性・最小化・目的制限・安全管理措置を一体で問えること、が挙げられます。
今回、ICOはまさに「個人データを適法に処理したか」「有害な加工画像を防ぐ安全策があったか」を調査対象にしています。
関連:生成AIを悪用し女性芸能人のわいせつ画像を販売した容疑者を逮捕-ディープフェイクの国内外の規制動向
参照
https://www.tribunal-de-paris.justice.fr/sites/default/files/2026-02/20260203CPXFrance.pdf
https://ico.org.uk/about-the-ico/media-centre/news-and-blogs/2026/02/ico-announces-investigation-into-grok/
この記事をシェアする
メールマガジン
最新のセキュリティ情報やセキュリティ対策に関する情報をお届けします。
投稿者:三村
セキュリティ対策Labのダークウェブの調査からセキュリティニュース、セキュリティ対策の執筆まで対応しています。
セキュリティ製品を販売する上場企業でSOC(セキュリティオペレーションセンター)やWebサイトやアプリの脆弱性診断 営業8年、その後一念発起しシステムエンジニアに転職。MDMや人事系のSaaS開発を行う。
