芸能人だけじゃない「AI着せ替え」のリスク…自衛の手段と被害に遭った際の対処法

●この記事のポイント
・生成AIを悪用した「AI着せ替え」が社会問題化。芸能人に限らず、SNSに写真を投稿するすべての人が被害者になり得る時代が到来している。法と技術の限界が露呈した。
・削除要請や法規制が追いつかない中、画像にノイズを加えてAIの学習を妨害する「技術的自衛策」が注目される。被害時の即応行動と専門窓口の活用が重要だ。
・AIの利便性の裏で、個人の尊厳が無償で消費されている現実。問題は個人防衛にとどまらず、AI企業と社会全体が「信頼のコスト」をどう負担するかにある。

 2025年末以降、SNSを覗くと、ある種の「異様な光景」が日常化しつつある。X(旧Twitter)に実装された生成AI「Grok」などを悪用し、実在する女性や著名人の写真を、本人の同意なく性的に加工・拡散する行為――いわゆる「AI着せ替え」だ。

 一見すると、匿名アカウントによる悪質なネットいじめ、あるいは低俗な悪ふざけに見えるかもしれない。しかし、この現象の本質は、はるかに深刻だ。たった一枚のSNS写真から、誰もが「テクノロジーによる暴力」の被害者になり得る。その現実を、私たちは突きつけられている。

 しかも、被害者は芸能人やインフルエンサーに限られない。一般企業の会社員、学生、あるいは子どもを持つ親――SNS上に「顔のわかる写真」を一度でも投稿した経験がある人は、すべて潜在的な当事者だ。

 この問題に、私たちはどう向き合うべきなのか。

●目次

なぜ「法」と「プラットフォーム」は、常に後手に回るのか

 現在、日本ではAIによる性的画像加工について、名誉毀損罪、侮辱罪、わいせつ物頒布等罪など、既存の刑法を適用した摘発が進みつつある。さらに2025年に施行された「情報流通プラットフォーム対処法」により、SNS事業者には、違法・有害情報に対する迅速な削除対応が義務づけられた。

 制度上は、一歩前進したようにも見える。だが、現場では「追いついていない」という声が圧倒的に多い。

 サイバーセキュリティコンサルタントの新實傑氏は、次のように指摘する。

「AI生成画像の厄介な点は、『実在の人物を基にしているが、画像自体は“創作物”だ』というグレーゾーンにあります。削除要請は通っても、加害者の特定や刑事責任の追及には高いハードルが残るケースが少なくありません」

 最大の問題は、一度ネットに流出した素材は、完全には消せないという点だ。削除された画像をもとに、別のAIが新たな偽画像を生成する。コピーは無限に増殖し、被害は長期化する。

 プラットフォーム側も、「表現の自由」と「利用者保護」の間で判断を迫られ、対応はどうしても後追いになりがちだ。法も、運営ルールも、生成AIの進化速度に追いつけていない――これが現実である。

技術的自衛策という選択肢:「データに毒を盛る」発想

 では、私たちはただ被害を待つしかないのか。近年、注目を集めているのが、技術を技術で防ぐ「デジタル自衛」という考え方だ。

 代表例が、画像保護ツールとして知られる「Glaze」や「Nightshade」である。

 これらは、画像に人間の目ではほとんど認識できない微細なノイズを加えることで、AIの画像認識を意図的に誤作動させる技術だ。人が見ると普通の写真でも、AIには「肌と服の境界がわからない」「人体構造が破綻している」と認識され、生成結果が崩れる。

「Nightshadeの思想は、簡単に言えば“学習データに毒を混ぜる”ことです。自分の画像をAIにとって扱いにくいものにすることで、無断利用のリスクを下げる。完全な防御ではありませんが、現時点で個人が取れる数少ない対抗手段です」(新實氏)

 もちろん、これらのツールは万能ではない。将来的にAI側が耐性を獲得する可能性もある。だが、「何もしない」よりは、はるかに現実的な選択肢である。

被害に遭ったとき、感情より先に取るべき「3つの行動」

 もし、自身や家族の画像が無断で加工・拡散された場合、怒りや恐怖を感じるのは当然だ。しかし、専門家は「最初の対応が、その後の結果を大きく左右する」と口を揃える。

(1)証拠の保全
スクリーンショット、URL、投稿日時、アカウントIDを保存する。削除後では取得できない情報が、法的手続きの要となる。

(2)プラットフォームへの通報・削除要請
「AI生成による、同意のない性的画像である」ことを明確に記載する。改正法により、事業者は迅速な対応を求められている。

(3)専門窓口への相談
 警察:サイバー犯罪相談窓口
 弁護士:発信者情報開示請求や損害賠償請求を視野に
 セーファーインターネット協会(SIA):削除支援や助言
「泣き寝入り」を選ばないことが、同様の被害を減らすことにもつながる。

企業と社会への問い:「信頼のコスト」を誰が負担するのか

 最後に、この問題を個人の自衛努力だけに押し付けてよいのかという、より大きな問いが残る。

 生成AIは、ビジネスにおいて生産性を飛躍的に高める武器となった。だが、その裏側で、個人の尊厳や人格が無償で消費されているとすれば、それは健全なイノベーションとは言えない。

「『偽物だから問題ない』という発想は、極めて危険です。AIが生成した画像であっても、被害者の社会的評価や心理的ダメージは現実のものです。プラットフォームやAI開発企業は、その“外部不経済”を誰が負担しているのか、正面から向き合う必要があります」(同)

「AIで他人の身体を消費する」ことが、なぜこれほど容易に許容されてしまったのか。その背景には、テクノロジーの進歩に、私たちの倫理的想像力が追いついていない現実がある。

 この問題は、決して一部の芸能人だけの話ではない。今日、私たちが何気なく投稿する一枚の写真が、数カ月後の自分、あるいは大切な誰かを傷つける「素材」にならない保証はない。

 いま必要なのは、技術規制だけではない。テクノロジーの「使い道」に対する、社会全体の強固な合意である。それを怠れば、デジタル社会の基盤である「信頼」そのものが、静かに、しかし確実に崩れていくことになるだろう。

(文=BUSINESS JOURNAL編集部)