ディープフェイクポルノによる身体の搾取とAIが個人番号を流出させる問題
# ディープフェイクポルノとAIによる個人情報流出——私たちの「顔」と「番号」が狙われている
皆さん、「ディープフェイク」という言葉を聞いたことがありますか? AIを使って、本人の許可なく顔写真を合成し、あたかもその人が性的な行為をしているかのような偽動画・偽画像を作る技術です。いま、この被害が世界中で深刻化しています。
2023年、研究職に就いたジェニファーさんという女性が、新しく撮影したプロフェッショナル用の顔写真を、ある顔認識プログラムにかけました。目的は、自分の顔がネット上で無断使用されていないかを調べるためだったとみられます。
ここで考えてみてください。私たちがSNSに何気なく投稿した写真、履歴書に貼った証明写真——これらすべてが、AIによって「素材」として悪用されうる時代になったのです。
もう1つ、見過ごせない問題があります。AIが個人の電話番号などプライベートな情報を出力してしまうケースです。大規模言語モデルは膨大なデータを学習しているため、意図せず個人情報を「覚えて」しまい、問い合わせに応じて吐き出してしまうことがあるのです。
では、日本ではどうでしょうか。
実は日本でも、性的ディープフェイクの被害は報告されています。しかし2023年時点では、こうした行為を直接罰する法律が十分に整備されているとは言い難い状況でした。被害者が声を上げにくい性質の犯罪であるだけに、法整備の加速が求められます。
また、顔認識技術を使って被害を早期発見する手法は、日本の被害者支援団体や捜査機関にとっても参考になるはずです。「自分の顔が悪用されていないか」を技術で確認できる仕組みがあれば、泣き寝入りを減らせる可能性があります。
さらに、AIが個人情報を出力してしまうリスクについては、日本の個人情報保護委員会がAI事業者向けのガイドラインをどこまで強化できるかが問われています。
私たちの「顔」も「電話番号」も、デジタル空間では驚くほど簡単に流通してしまいます。技術の進歩は便利さをもたらす一方で、こうした新しいリスクも生み出しているのです。だからこそ、1人ひとりが「自分のデータがどう使われうるか」を意識し、社会全体でルールを整えていく必要があるのではないでしょうか。
# 盗まれた身体――ディープフェイクと、AIが差し出す電話番号のこと
ある朝、目を覚ますと、自分の顔がもう自分のものではなくなっている。そういう世界を想像してみてほしい。コーヒーを淹れ、トーストにバターを塗り、いつものように出勤する。何も変わらない1日のはずだった。でも画面の向こう側では、あなたの顔がまったく別の身体に縫いつけられ、見知らぬ誰かの欲望のなかで静かに消費されている。
ジェニファーという名の女性が、2023年に新しい研究職に就いた。彼女は業務用のポートレート写真を撮り、それを顔認識プログラムにかけた。まるで鏡の裏側を覗き込むような行為だ。自分の顔が、インターネットという底なしの井戸のどこに沈んでいるのかを確かめるために。
僕たちはふだん、自分の身体が自分のものであることを疑わない。腕を伸ばせば腕が動く。瞬きをすれば視界が暗転し、また戻る。それは水が低いところへ流れるのと同じくらい自明なことだと思っている。けれどディープフェイクという技術は、その自明さを根底から掘り崩す。あなたの顔は、あなたの許可なく、あなたの知らない場所で、あなたの望まない文脈に置かれる。盗まれるのは画像データではない。身体そのものだ。
性的なディープフェイクの被害は、多くの国で法の網目をすり抜けている。日本も例外ではない。2023年の時点で、こうした被害の多くが既存の刑事罰の枠組みに収まりきらず、被害者は法的な空白地帯に取り残されたままだった。やかんの底に穴が空いているのに、誰もそれを塞ごうとしない。お湯はただ、床に広がっていく。
もうひとつ、別の井戸の話をしよう。AIが個人の電話番号を出力してしまうという問題がある。あなたが誰かについて質問すると、機械が親切心のようなもので――もちろん機械に親切心などないのだけれど――その人の私的な番号を差し出してしまう。まるで郵便受けの鍵が最初から壊れている集合住宅のようなものだ。住人が気づく頃には、見知らぬ手紙が何通も届いている。
日本の個人情報保護委員会がAI事業者に向けたガイドラインをどこまで強化できるか。顔認識による被害発見の技術が、捜査機関や被害者支援の現場にどう届くか。問いは具体的で、切実で、そして驚くほど答えが出ていない。
僕たちはたぶん、テクノロジーという名の巨大な動物と同じ部屋に住んでいる。その動物は賢く、便利で、ときどき僕たちの代わりに皿を洗ってくれる。でもある夜ふと気づくと、その動物は僕たちの寝顔を静かに見つめている。善意も悪意もなく、ただ見つめている。
その視線の意味を決めるのは、結局のところ、僕たちの側の仕事なのだと思う。
# ディープフェイクポルノと AI による個人情報漏洩——2つのリスクが浮き彫りに
**生成AIの悪用がもたらす「身体の盗用」と「番号の流出」が、プライバシー侵害の新たな局面を示している。**
## 記事の要点
- MIT Technology Reviewのニュースレター「The Download」(平日配信)が、ディープフェイクポルノによる被害とAIが個人の電話番号等を出力する問題を取り上げた
- 2023年に研究職に就いたジェニファーという人物が、新たに撮影したプロフェッショナル用顔写真を顔認識プログラムにかけ、自身の画像がどのように悪用されているかを調査した
- 顔認識技術が被害の発見手段として活用されうることを示唆する事例となっている
## 日本への示唆
- **法整備の遅れ**: 日本では性的ディープフェイク被害の多くが既存の刑事罰でカバーしきれず、専門立法の加速が求められる
- **被害者支援への応用**: 顔認識による被害画像の検出手法は、日本の捜査機関や支援団体にとっても有効な選択肢となりうる
- **AI事業者への規制**: AIが個人の電話番号を出力するリスクに対し、個人情報保護委員会によるガイドライン強化が論点に浮上する可能性がある
---
生成AIの能力向上に伴い、「合意なき画像生成」と「学習データからの個人情報漏洩」は表裏一体の問題として深刻化している。技術的対策と法的枠組みの両面での対応が急務だ。