生成AIで一般人を裸に、ディープフェイクポルノ被害の今と対策--米韓では法律も
卒業アルバムやSNSの写真を生成AIで性的な画像や動画に加工する、ディープフェイクポルノ被害が未成年の間で拡大中だ。被害の実態と対策について解説したい。
自分のディープフェイクポルノ画像が送られてくる
「自分の顔の裸の写真が匿名のアカウントからDMで送られてきて、頭が真っ白になった」と、ある女子高生は言う。「覚えもなかったし、身体も自分じゃないけれど、顔は自分。なんで?と」。自分が裸でポーズを取っている画像で、自分の身体ではないが、画像的には不自然さはなかったという。
あまりのことにパニックになり、送ってきたアカウントをブロック、画像は削除してしまった。けれどあとになって、「保存しておいて、削除申請をしたほうがよかったのではないか」と考えるようになったそうだ。
「あの画像はどうなったのか、まだどこかに残っていて誰が見ているのか、心配で不安が消えない。進学や就職に影響が出たらと思うと不安になる」
このように、一般人がディープフェイクポルノ被害のターゲットになることが増えている。無料で手軽に利用できるディープフェイクツールは数十に上り、作成の敷居が下がったためだ。
SNSの中には、卒業アルバムの写真などが個人名とともに共有されているグループが見つかることも。「脱いだ画像に加工して」などと写真を投稿している例もあった。このように、卒業アルバムの写真やSNSの投稿画像などの画像がターゲットとなっている実態があるのだ。
日本のディープフェイクポルノ被害は世界3位
たとえば「ClothOff」は、「AI脱衣 写真を裸にするサイト」などとうたっており、無料でも利用できる。このようなアプリやサービスを使うと、写真をアップロードするだけでわずか数秒でヌード写真が作成できてしまう。また、ディープフェイクか本物か、容易に見分けがつかない。
米セキュリティ企業のセキュリティヒーローによると、2023年にネット上で確認されたディープフェイクポルノ映像は9万5820件であり、2019年と比べて550%増加している。このうち98%がポルノ映像であり、99%は女性を標的としたものだ。
被害者を国籍別に見ると、最多は韓国の53%、ついで米国が20%。日本は全体の10%を占め、全体で3番目に多い状態だ。被害者は歌手や俳優、アスリートといった著名人が9割以上だが、近年はご紹介したように一般人が被害に遭うことも増えているのだ。
2024年、米国では10代の少年二人が、ランカスター・カントリー・デイ・スクールに通う同級生48人を含む60人のディープフェイクポルノを作成したとして起訴されるなど、加害者も被害者も10代という例が目立つ。
韓国ではディープフェイク画像の所持・閲覧で刑事罰
韓国では、知人女性・少女等の顔写真を使ったディープフェイクポルノ画像が、テレグラムで拡散される被害が広がっている。加害者側は女性の顔写真をテレグラムで共有、ディープフェイクポルノを作成。被害者が在籍する学校ごとに分類してチャットルームを作り、メンバー間で共有することが多いという。
警察の統計によると、韓国でのディープフェイク性犯罪は、集計を開始した2021年は160件だったが、2024年は7月までで297件に達した。3年間で立件されたデジタル性犯罪の3分の2以上は、加害者も10代だ。
ディープフェイクポルノ被害が社会問題化した結果、24年9月には、ディープフェイクポルノの所持、閲覧で罪に問われる改正法案、通称「ディープフェイク性犯罪防止法」が可決している。
自分の画像、動画を不特定多数に公開しすぎないこと
このように、ディープフェイクポルノ被害対策は世界で進みつつある。英国では、2023年に制定された「オンライン安全法」で、ディープフェイクポルノの共有が禁止になっている。
米国でも、30以上の州で本人の同意のないディープフェイクポルノの作成や公開を規制する州法ができている。ただし、どのような犯罪に分類するか、罰則の重さについてはばらつきがある状態だ。
日本では、ディープフェイクポルノを規制する法律があるわけではないが、名誉毀損罪や著作権侵害、児童ポルノ禁止法違反などに該当する可能性がある。しかし、被害申告をする必要がある。
また、児童ポルノ禁止法により、児童ポルノの所持、製造、提供などは禁止されているが、顔が実際の子どもでもAIで作成した場合は該当しない可能性がある。実際にこれまで取り締まられたこともない。
ディープフェイクポルノ被害を完全に防ぐことは難しく、今後、国内でも法規制が進むことを期待したい。われわれができることは、SNSなどで自分の画像や動画を不特定多数に公開しすぎないこと。被害に気づいたら、すぐにぱっぷすなどの相談機関に相談し、削除などの対処をすることだろう。
AI使い写真の女性を裸にするアプリが横行-ディープフェイク深刻化
人工知能(AI)を使って写真に写った女性の服を脱がせるアプリやウェブサイトが人気を得ていることが、ソーシャルネットワーク分析会社グラフィカの調べで分かった。9月だけで2400万人が脱衣サイトを訪れた。
グラフィカによると、こうした「ヌード化」アプリ・サイトの多くは、人気のソーシャルネットワークをマーケティングに利用している。
例えば、今年に入ってからX(旧ツイッター)やレディットを含むソーシャルメディアで、脱衣アプリの広告リンクが2400%以上増加したという。これらのサービスは、AIを使って人物がヌードになるように画像を作り直す。多くのサービスは女性にしか使えない。
こうしたアプリは、AIの進歩によって非合意のポルノが開発・配布されるという憂慮すべき傾向の一部であり、ディープフェイクポルノとして知られる捏造(ねつぞう)メディアの一種だ。画像はしばしばソーシャルメディアから取得され、被写体の同意や管理、知識なしに配布されるため、その拡散は深刻な法的・倫理的問題を生む。
人気の高まりは、ほんの数年前に作成されたものよりはるかに優れた画像を作成できるAIが幾つかリリースされたことによるものだとグラフィカは指摘。オープンソースであるため、アプリ開発者が使用するモデルは無料で入手できる。
グラフィカのアナリスト、サンティアゴ・ラカトス氏は「実際にリアルに見えるものを作ることができる」と話す。以前のディープフェイクはぼやけたものが多かったという。
無許可ポルノ
Xに投稿された脱衣アプリを宣伝する画像には、顧客がヌード画像を作成し、それを元の画像を使われた人物に送りハラスメントするような言葉が使われていた。アプリの一つは、グーグルのユーチューブでスポンサーコンテンツを有料で提供しており、「nudify」という単語で検索すると最初に表示される。
グーグルの広報担当者は「性的に露骨な内容を含む広告」を同社は許可していないと説明。「問題の広告を見直し、社内規定に違反するものを削除している」と明らかにした。
レディットの広報担当者によると、同サイトは捏造された性的な素材を非同意で共有することを禁止しており、調査の結果、幾つかのドメインを禁止したという。Xはコメント要請に応じなかった。
無許可ポルノは以前からインターネットの弊害だったが、プライバシーの専門家は、AIテクノロジーの進歩がディープフェイクソフトウエアをより簡単で効果的なものにしていることに懸念を強めている。
電子フロンティア財団(EFF)のサイバーセキュリティー担当ディレクターであるエバ・ガルペリン氏は「このようなことが一般人によって一般人をターゲットに行われるのを目にすることが増えている。高校生や大学生の間で見られるようになった」と語る。
被害者の多くが自身のフェイク画像について認識しておらず、知った場合も法執行機関に捜査してもらったり、法的措置を講じたりするための費用の捻出に苦労するかもしれないと同氏は指摘している。