ディープフェイクポルノに自分の体が使われる衝撃

Style ← お好みの文体を選べます。選択は自動で記憶されます

# 「自分の顔が性的動画に使われている」——ディープフェイクポルノの恐怖が突きつける現実

皆さん、「ディープフェイク」という言葉をご存じでしょうか。AIを使って、ある人の顔を別の映像に合成する技術のことです。この技術が今、深刻な性被害を生んでいます。

## ある女性の体験

2023年、ジェニファーさん(仮名)は非営利団体の調査職に就きました。新しい仕事のために撮影したプロフィール写真——いわゆる「ヘッドショット」を、彼女はある顔認識プログラムに通しました。

目的は1つ。10年以上前、20代前半の頃に撮影されたポルノ動画が、今もネット上に存在しているかを確認するためです。

結果は「検出あり」でした。

ここで考えてみてください。たった1枚の顔写真から、過去の映像が芋づる式に見つかる。これは被害者が自分の被害状況を把握するために使った例ですが、同じ技術が悪意ある人間の手に渡ればどうなるでしょうか。

## なぜこれが怖いのか

顔認識技術の精度は年々向上しています。SNSに載せた写真、職場のウェブサイトに掲載された顔写真——私たちが日常的に公開している画像が、ディープフェイクポルノの「素材」にされるリスクがあるのです。

つまり、被害者になるために特別なことをする必要はありません。インターネット上に顔が存在するだけで、誰もが潜在的な被害者になり得る。これが現代の現実です。

## 日本ではどうなっているのか

実は日本でも、この問題は他人事ではありません。2023年時点で、ディープフェイクポルノに特化した刑事罰の整備は十分とは言えない状況でした。肖像権やプライバシー権といった既存の法的枠組みが、AI生成の性的画像にどこまで対応できるのか——法律の専門家の間でも議論が続いています。

さらに、日本のNPOや企業がウェブサイトに従業員の顔写真を掲載する慣行についても、再考が求められています。電子透かし(ウォーターマーク)のような技術的対策を講じなければ、善意で公開した写真が悪用される危険性があるのです。

## 私たちにできること

大切なのは、「自分には関係ない」と思わないことです。技術は日進月歩で進化しています。法整備を待つだけでなく、1人ひとりがこの問題の深刻さを知り、声を上げていくことが、被害を減らす第一歩になるのではないでしょうか。