ディープフェイクポルノによる身体の搾取とAIが個人番号を流出させる問題

Style ← お好みの文体を選べます。選択は自動で記憶されます

# ディープフェイクポルノとAIによる個人情報流出——私たちの「顔」と「番号」が狙われている

皆さん、「ディープフェイク」という言葉を聞いたことがありますか? AIを使って、本人の許可なく顔写真を合成し、あたかもその人が性的な行為をしているかのような偽動画・偽画像を作る技術です。いま、この被害が世界中で深刻化しています。

2023年、研究職に就いたジェニファーさんという女性が、新しく撮影したプロフェッショナル用の顔写真を、ある顔認識プログラムにかけました。目的は、自分の顔がネット上で無断使用されていないかを調べるためだったとみられます。

ここで考えてみてください。私たちがSNSに何気なく投稿した写真、履歴書に貼った証明写真——これらすべてが、AIによって「素材」として悪用されうる時代になったのです。

もう1つ、見過ごせない問題があります。AIが個人の電話番号などプライベートな情報を出力してしまうケースです。大規模言語モデルは膨大なデータを学習しているため、意図せず個人情報を「覚えて」しまい、問い合わせに応じて吐き出してしまうことがあるのです。

では、日本ではどうでしょうか。

実は日本でも、性的ディープフェイクの被害は報告されています。しかし2023年時点では、こうした行為を直接罰する法律が十分に整備されているとは言い難い状況でした。被害者が声を上げにくい性質の犯罪であるだけに、法整備の加速が求められます。

また、顔認識技術を使って被害を早期発見する手法は、日本の被害者支援団体や捜査機関にとっても参考になるはずです。「自分の顔が悪用されていないか」を技術で確認できる仕組みがあれば、泣き寝入りを減らせる可能性があります。

さらに、AIが個人情報を出力してしまうリスクについては、日本の個人情報保護委員会がAI事業者向けのガイドラインをどこまで強化できるかが問われています。

私たちの「顔」も「電話番号」も、デジタル空間では驚くほど簡単に流通してしまいます。技術の進歩は便利さをもたらす一方で、こうした新しいリスクも生み出しているのです。だからこそ、1人ひとりが「自分のデータがどう使われうるか」を意識し、社会全体でルールを整えていく必要があるのではないでしょうか。