生成AIで一般人を裸に、ディープフェイクポルノ被害の今と対策--米韓では法律も

生成AIで一般人を裸に、ディープフェイクポルノ被害の今と対策--米韓では法律も

卒業アルバムやSNSの写真を生成AIで性的な画像や動画に加工する、ディープフェイクポルノ被害が未成年の間で拡大中だ。被害の実態と対策について解説したい。

自分のディープフェイクポルノ画像が送られてくる

 「自分の顔の裸の写真が匿名のアカウントからDMで送られてきて、頭が真っ白になった」と、ある女子高生は言う。「覚えもなかったし、身体も自分じゃないけれど、顔は自分。なんで?と」。自分が裸でポーズを取っている画像で、自分の身体ではないが、画像的には不自然さはなかったという。

 あまりのことにパニックになり、送ってきたアカウントをブロック、画像は削除してしまった。けれどあとになって、「保存しておいて、削除申請をしたほうがよかったのではないか」と考えるようになったそうだ。

 「あの画像はどうなったのか、まだどこかに残っていて誰が見ているのか、心配で不安が消えない。進学や就職に影響が出たらと思うと不安になる」

 このように、一般人がディープフェイクポルノ被害のターゲットになることが増えている。無料で手軽に利用できるディープフェイクツールは数十に上り、作成の敷居が下がったためだ。

 SNSの中には、卒業アルバムの写真などが個人名とともに共有されているグループが見つかることも。「脱いだ画像に加工して」などと写真を投稿している例もあった。このように、卒業アルバムの写真やSNSの投稿画像などの画像がターゲットとなっている実態があるのだ。

日本のディープフェイクポルノ被害は世界3位

 たとえば「ClothOff」は、「AI脱衣 写真を裸にするサイト」などとうたっており、無料でも利用できる。このようなアプリやサービスを使うと、写真をアップロードするだけでわずか数秒でヌード写真が作成できてしまう。また、ディープフェイクか本物か、容易に見分けがつかない。

 米セキュリティ企業のセキュリティヒーローによると、2023年にネット上で確認されたディープフェイクポルノ映像は9万5820件であり、2019年と比べて550%増加している。このうち98%がポルノ映像であり、99%は女性を標的としたものだ。

 被害者を国籍別に見ると、最多は韓国の53%、ついで米国が20%。日本は全体の10%を占め、全体で3番目に多い状態だ。被害者は歌手や俳優、アスリートといった著名人が9割以上だが、近年はご紹介したように一般人が被害に遭うことも増えているのだ。

 2024年、米国では10代の少年二人が、ランカスター・カントリー・デイ・スクールに通う同級生48人を含む60人のディープフェイクポルノを作成したとして起訴されるなど、加害者も被害者も10代という例が目立つ。

韓国ではディープフェイク画像の所持・閲覧で刑事罰

 韓国では、知人女性・少女等の顔写真を使ったディープフェイクポルノ画像が、テレグラムで拡散される被害が広がっている。加害者側は女性の顔写真をテレグラムで共有、ディープフェイクポルノを作成。被害者が在籍する学校ごとに分類してチャットルームを作り、メンバー間で共有することが多いという。

 警察の統計によると、韓国でのディープフェイク性犯罪は、集計を開始した2021年は160件だったが、2024年は7月までで297件に達した。3年間で立件されたデジタル性犯罪の3分の2以上は、加害者も10代だ。

 ディープフェイクポルノ被害が社会問題化した結果、24年9月には、ディープフェイクポルノの所持、閲覧で罪に問われる改正法案、通称「ディープフェイク性犯罪防止法」が可決している。

自分の画像、動画を不特定多数に公開しすぎないこと

 このように、ディープフェイクポルノ被害対策は世界で進みつつある。英国では、2023年に制定された「オンライン安全法」で、ディープフェイクポルノの共有が禁止になっている。

 米国でも、30以上の州で本人の同意のないディープフェイクポルノの作成や公開を規制する州法ができている。ただし、どのような犯罪に分類するか、罰則の重さについてはばらつきがある状態だ。

 日本では、ディープフェイクポルノを規制する法律があるわけではないが、名誉毀損罪や著作権侵害、児童ポルノ禁止法違反などに該当する可能性がある。しかし、被害申告をする必要がある。

 また、児童ポルノ禁止法により、児童ポルノの所持、製造、提供などは禁止されているが、顔が実際の子どもでもAIで作成した場合は該当しない可能性がある。実際にこれまで取り締まられたこともない。

 ディープフェイクポルノ被害を完全に防ぐことは難しく、今後、国内でも法規制が進むことを期待したい。われわれができることは、SNSなどで自分の画像や動画を不特定多数に公開しすぎないこと。被害に気づいたら、すぐにぱっぷすなどの相談機関に相談し、削除などの対処をすることだろう。

AI使い写真の女性を裸にするアプリが横行-ディープフェイク深刻化

人工知能(AI)を使って写真に写った女性の服を脱がせるアプリやウェブサイトが人気を得ていることが、ソーシャルネットワーク分析会社グラフィカの調べで分かった。9月だけで2400万人が脱衣サイトを訪れた。

  グラフィカによると、こうした「ヌード化」アプリ・サイトの多くは、人気のソーシャルネットワークをマーケティングに利用している。

  例えば、今年に入ってからX(旧ツイッター)やレディットを含むソーシャルメディアで、脱衣アプリの広告リンクが2400%以上増加したという。これらのサービスは、AIを使って人物がヌードになるように画像を作り直す。多くのサービスは女性にしか使えない。

  こうしたアプリは、AIの進歩によって非合意のポルノが開発・配布されるという憂慮すべき傾向の一部であり、ディープフェイクポルノとして知られる捏造(ねつぞう)メディアの一種だ。画像はしばしばソーシャルメディアから取得され、被写体の同意や管理、知識なしに配布されるため、その拡散は深刻な法的・倫理的問題を生む。

  人気の高まりは、ほんの数年前に作成されたものよりはるかに優れた画像を作成できるAIが幾つかリリースされたことによるものだとグラフィカは指摘。オープンソースであるため、アプリ開発者が使用するモデルは無料で入手できる。

  グラフィカのアナリスト、サンティアゴ・ラカトス氏は「実際にリアルに見えるものを作ることができる」と話す。以前のディープフェイクはぼやけたものが多かったという。

無許可ポルノ

  Xに投稿された脱衣アプリを宣伝する画像には、顧客がヌード画像を作成し、それを元の画像を使われた人物に送りハラスメントするような言葉が使われていた。アプリの一つは、グーグルのユーチューブでスポンサーコンテンツを有料で提供しており、「nudify」という単語で検索すると最初に表示される。

  グーグルの広報担当者は「性的に露骨な内容を含む広告」を同社は許可していないと説明。「問題の広告を見直し、社内規定に違反するものを削除している」と明らかにした。

  レディットの広報担当者によると、同サイトは捏造された性的な素材を非同意で共有することを禁止しており、調査の結果、幾つかのドメインを禁止したという。Xはコメント要請に応じなかった。

  無許可ポルノは以前からインターネットの弊害だったが、プライバシーの専門家は、AIテクノロジーの進歩がディープフェイクソフトウエアをより簡単で効果的なものにしていることに懸念を強めている。

  電子フロンティア財団(EFF)のサイバーセキュリティー担当ディレクターであるエバ・ガルペリン氏は「このようなことが一般人によって一般人をターゲットに行われるのを目にすることが増えている。高校生や大学生の間で見られるようになった」と語る。

  被害者の多くが自身のフェイク画像について認識しておらず、知った場合も法執行機関に捜査してもらったり、法的措置を講じたりするための費用の捻出に苦労するかもしれないと同氏は指摘している。

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏

「SNSを全削除しました」ディープフェイク増加で危機感を高めるZ世代の対応 「一番怖いのは被害を自覚できないこと」「ターゲットは女性だけじゃない」

生成AIによって作成された“ディープフェイク動画”が各国で社会問題化している。テクノロジーの急速な進歩にともない、従来にくらべてより簡易にクオリティの高い画像や動画の生成が可能になったことで、AI技術を用いてわいせつな画像や動画を作成する「性的ディープフェイク」が氾濫し、被害が急増しているのだ。

 そうしたなか、デジタルネイティブのZ世代のあいだでも、危機感が広まっているようだ。彼ら/彼女らはどのようにAIディープフェイク問題を受け止め、対応しているのだろうか──。

韓国の報道を見てSNSアカウントを削除した女性

 都内の大学に通っている女性・Aさん(21歳・大学生)は、韓国での犯罪報道を目にしたことがきっかけで、自身の顔写真をアップしていたSNSアカウントを削除したという。

「韓国でディープフェイクポルノが拡散される事件が多発し、昨年にはポルノの視聴と所持が懲役3年以下の有罪になるなど、法整備が進んでいるというニュースを見ました。大学の授業でも生成AIについて扱っていることもあって、このニュースを見て強い危機感を覚えました。自分も含めて若い世代は、当たり前のようにSNSに自分の動画や画像をアップします。その画像データが悪用されて、簡単に生成AIで性的なフェイク動画が作られてしまうなんて、私が高校生の頃は想像もできなかった。

 私もこれまで、インスタ(Instagram)やBeRealなどのSNSに顔写真をたくさん載せてきたのですが、怖くなってアカウントごと消しました。鍵アカウントにしていても、身内から流出することもあると思ったからです。

 とはいっても、すでに画像や動画をたくさんアップしてしまっているので、悪用されているかもしれない……。ダークウェブ上にディープフェイク動画が流出していたとしても、悪用された被害者側がそれを知ることは難しい。一番怖いのは、被害を自覚できないことですよね……。とにかく、今からでもネット上から自分の情報を消した方がいいと判断しました」(Aさん)

ネットに氾濫する「ディープフェイク作成アプリ」のまとめ情報

 都内の大学に通うかたわら、DJとしてイベントに出演するなど、学生以外との付き合いも多いという男性・Bさん(19歳)は、次のように語る。

「最近、写真を読み込ませると自動で特定のアニメ風に加工してくれる、いわゆるAIアニメ化アプリが流行していますよね。中学生の妹も、自分の写真や友人の写真をアップしてアニメ化して遊んでいるので、10代前半にも普及しているのは間違いないです。

 ただ逆にいうと、アプリに写真をアップするだけで精巧な画像加工ができるということ。そうしたなかでネット上には、スマホやPCで誰でも簡単に作成できる、『ディープフェイク作成アプリ』のまとめ情報などが氾濫しています。

 悪用されたくないので、具体的なアプリ名は述べませんが、もっとも簡単にできるのは『顔入れ替え』の画像生成。ある画像の顔だけを、別の人の顔に入れ替えることです。また、推しの芸能人や知人の写真を使って、自分とキスをしているようなAI動画を簡単に生成できるアプリもあります。こうしたアプリは、まとめサイトなどで丁寧に使い方が解説されているため、若年層でも簡単に使えてしまうんです」(Bさん)

「フェイク動画作ってよ!」と頼まれるケースも

 Bさんは音楽イベントなどで知り合う知人から、「ディープフェイク動画を作って欲しい」と依頼されたことがあるという。

「もともと僕が映像制作が得意だったり、遊びでAI生成の音楽を作ったりしていることもあり、イベントで知り合った人から『あの子の画像でエロ動画つくってよ(笑)』、『この子に別の服着せられたりするの?』などと頼まれたことがあります。もちろん断っていますが、今後こうしたツールが広まっていけば、被害者が増えるのは目に見えています。

 大学の友人の女子は、『就活の時に悪影響があったら困るから、高校時代までのSNSは全部削除した』と言っていました。デジタルネイティブ世代のなかでも、リテラシーがある子たちは危機感を抱いています。今はディープフェイクポルノの被害者は圧倒的に女性が多いとされていますが、今後は男性もターゲットにされかねないと思っています。ポルノだけでなく、社会的信頼を失墜させるようフェイクコンテンツが作成され、仕事を失うこともあり得ると考えると、不安でしかたないですね」(Bさん)

 急速にAI技術が進歩し、スマホひとつあれば簡単にディープフェイク画像や動画が作成できるようになった昨今、SNSに慣れ親しんだZ世代たちの危機感は高まりつつあるようだ。

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏