ディープフェイクポルノに自分の体が使われる衝撃
# 「自分の顔が性的動画に使われている」——ディープフェイクポルノの恐怖が突きつける現実
皆さん、「ディープフェイク」という言葉をご存じでしょうか。AIを使って、ある人の顔を別の映像に合成する技術のことです。この技術が今、深刻な性被害を生んでいます。
## ある女性の体験
2023年、ジェニファーさん(仮名)は非営利団体の調査職に就きました。新しい仕事のために撮影したプロフィール写真——いわゆる「ヘッドショット」を、彼女はある顔認識プログラムに通しました。
目的は1つ。10年以上前、20代前半の頃に撮影されたポルノ動画が、今もネット上に存在しているかを確認するためです。
結果は「検出あり」でした。
ここで考えてみてください。たった1枚の顔写真から、過去の映像が芋づる式に見つかる。これは被害者が自分の被害状況を把握するために使った例ですが、同じ技術が悪意ある人間の手に渡ればどうなるでしょうか。
## なぜこれが怖いのか
顔認識技術の精度は年々向上しています。SNSに載せた写真、職場のウェブサイトに掲載された顔写真——私たちが日常的に公開している画像が、ディープフェイクポルノの「素材」にされるリスクがあるのです。
つまり、被害者になるために特別なことをする必要はありません。インターネット上に顔が存在するだけで、誰もが潜在的な被害者になり得る。これが現代の現実です。
## 日本ではどうなっているのか
実は日本でも、この問題は他人事ではありません。2023年時点で、ディープフェイクポルノに特化した刑事罰の整備は十分とは言えない状況でした。肖像権やプライバシー権といった既存の法的枠組みが、AI生成の性的画像にどこまで対応できるのか——法律の専門家の間でも議論が続いています。
さらに、日本のNPOや企業がウェブサイトに従業員の顔写真を掲載する慣行についても、再考が求められています。電子透かし(ウォーターマーク)のような技術的対策を講じなければ、善意で公開した写真が悪用される危険性があるのです。
## 私たちにできること
大切なのは、「自分には関係ない」と思わないことです。技術は日進月歩で進化しています。法整備を待つだけでなく、1人ひとりがこの問題の深刻さを知り、声を上げていくことが、被害を減らす第一歩になるのではないでしょうか。
# 鏡の中の見知らぬ自分——ディープフェイクポルノという静かな暴力
ある朝目を覚ますと、自分の顔が知らない体に貼りつけられていた——そんな悪夢のような話が、もはや比喩ではなくなっている。
2023年、ジェニファーという女性が非営利団体の調査職に就いた。新しい仕事には新しい顔写真が必要だった。撮影したばかりの職業用ヘッドショットを、彼女は顔認識プログラムに通した。10年以上前、20代前半のころに撮影されたポルノ動画が、いまもインターネットのどこかに漂っていないか確かめるためだ。
結果は、彼女の不安を裏切らなかった。プログラムは確かにそれらの動画を検出した。
僕はこの話を読んだとき、井戸の底から自分を見上げるもう1人の自分のことを考えた。その「もう1人」は本人の意思とはまったく無関係に存在し、消すことも、目を逸らすこともできない。デジタル空間に刻まれた像は、本人が忘れても、世界が忘れてくれない。それは記憶というよりも、呪いに近い何かだ。
顔認識技術は本来、失われた人を見つけるための道具だったはずだ。迷子を探し、犯罪者を追い、災害の犠牲者を特定する。しかしその同じ技術が、かつての自分の姿を暴き出す装置にもなる。技術とはいつもそうだ。ナイフが料理にも凶器にもなるように、顔認識もまた、救済と暴力の両面を持っている。
ディープフェイクという言葉が日常に浸透しつつある今、問題の輪郭はさらにぼやけている。実際に撮影された映像だけでなく、AIが生成した架空の性的画像までもが、本人の顔を使って無数に作られ、拡散される。日本でも状況は深刻だ。2023年時点でディープフェイクポルノに対する包括的な刑事罰の整備は追いついておらず、被害者は法の隙間に取り残されたまま、自分の顔が見知らぬ体に接合されていく現実と向き合わなければならない。
肖像権やプライバシー権といった既存の法的枠組みが、AI生成の性的画像にどこまで対応できるのか。その問いに対する明確な答えは、まだどこにもない。NPOや企業が従業員の顔写真をウェブサイトに掲載するとき、その1枚がディープフェイクの素材になりうるという想像力を、どれだけの人が持っているだろうか。電子透かしのような技術的対策は存在するが、普及にはほど遠い。
ジェニファーが顔認識プログラムの検索ボタンを押したとき、彼女は何を感じただろう。たぶん、古い日記を開くような、あるいは閉じたはずの扉がゆっくりと軋みながら開いていくような感覚だったのではないかと僕は想像する。自分の過去は自分だけのものだと、僕たちは素朴に信じている。しかしデジタル技術は、その素朴な信頼を根底から揺さぶる。
鏡を覗き込んだとき、そこに映るのが自分であるという保証は、もうどこにもないのかもしれない。
# ディープフェイクポルノの恐怖――顔認識技術が暴く過去の悪用
**顔認識プログラムに自身の写真を通した瞬間、10年以上前に撮影された性的動画が検出される――この現実が、被害者に与える衝撃は計り知れない。**
## 記事の要点
- 2023年、非営利団体の調査職に就いた女性「ジェニファー」(仮名)が、新たな職業用プロフィール写真を顔認識プログラムにかけた
- 目的は、20代前半に撮影されたポルノ動画がネット上で検出されるかの確認
- 結果:10年以上前の動画が実際に検出された
- 顔認識技術の高精度化により、過去の画像・動画と現在の顔が容易に紐づけられる時代に突入している
## 技術がもたらすジレンマ
顔認識技術は被害の「発見」に役立つ一方、悪意ある第三者がディープフェイク素材の標的を探す手段にもなり得る。職業上の顔写真公開が、意図せぬ性的悪用の入口となるリスクが顕在化している。
## 日本への示唆
- 2023年時点で日本にはディープフェイクポルノに特化した包括的な刑事罰が未整備
- 肖像権・プライバシー権の既存法枠組みがAI生成の性的画像にどこまで対応できるか、法的検討が急務
- NPO・企業が従業員の顔写真を公開する際、電子透かし等の技術的対策導入が現実的な防衛策となり得る
---
生成AI時代において、「自分の顔」がどこでどう使われるかを完全に制御することは既に不可能に近い。被害の可視化と法整備の両面から、早急な対応が求められている。