芸能人らに酷似のわいせつ画像、生成AIで作成しSNSに掲載疑いで逮捕…120万円得たか

芸能人らに酷似のわいせつ画像、生成AIで作成しSNSに掲載疑いで逮捕…120万円得たか

画像生成AI(人工知能)で女性芸能人らに似せて作ったわいせつ画像をSNSに掲載したとして、警視庁は16日、秋田市の会社員の男(31)をわいせつ電磁的記録記録媒体陳列容疑で逮捕したと発表した。昨年10月以降、女優やアイドル、アナウンサー計262人に酷似したAI作成の性的画像約2万点をSNSに掲載し、計約120万円の閲覧料を得たとみている。

 同庁によると、画像生成AIで作成された芸能人らに似せたわいせつ画像の摘発は初めてだという。

 発表によると、会社員の男は1~6月、女優3人に酷似したわいせつ画像計3点をSNSに掲載し、不特定多数が閲覧できるようにした疑い。調べに「女性芸能人を模した画像は閲覧者からの反響が大きく、人気があった。多くの収益を見込めると思った」と容疑を認めている。逮捕は15日。

 会社員の男は自宅のパソコンで、インターネットに無料で公開されている画像生成AIに女優やアイドルらの画像データを学習させ、本人に酷似したわいせつ画像を作成。クリエイターらが作品を投稿する会員制の有料サイトにサンプル画像を掲示し、わいせつ画像を公開していた自身のSNSへのアクセス権を与えていた。

 同サイトでは、利用者がサイト側に閲覧料を支払い、その一部が投稿者に還元される仕組みだった。会社員の男は閲覧者を「プラチナ」や「ダイヤモンド」など5段階にランク付けした上で、高額な料金を支払った人には、より過激な画像を見られるアクセス権を与え、画像のモデルにする芸能人を指定させて、希望通りの画像を作成していたという。

 同庁のサイバーパトロールで発覚した。会社員の男の自宅から押収した端末には、AIの学習用に使ったとみられる約2万1500点の芸能人らの画像データが見つかった。同庁は、閲覧料を生活費や奨学金の返済に充てたとみている。

 画像生成AIは、利用者がモデルや構図などを指示するだけで、精巧な画像を短時間で作成できる。ネット上には、AIで作ったわいせつ画像が大量に出品されており、警視庁が警戒を強化している。

性的ディープフェイク」被害気づきにくく…AI弊害の対策強化を 明治大・湯浅墾道教授

AIを使ってわいせつな偽画像を作成する「性的ディープフェイク」はインターネット上に氾濫し、芸能人や卒業アルバムの写真が悪用されるなどの問題を生み出している。

警視庁がわいせつ電磁的記録陳列容疑で摘発した男は50人のサブスクリプション契約者を抱え、高額プランの契約者向けに〝オーダーメード〟の画像も作成しており、捜査幹部は「画像を使われた本人を傷つける悪質な行為」と話す。

「誰でもスマートフォンひとつで生成AI画像を作れるようになり、生成AIの利用は想像以上のスピードで普及している」。明治大の湯浅墾道(はるみち)教授(情報法)は現状をこう分析した上で、性的ディープフェイクについて、「被害者は名誉を傷つけられる一方で、自身をモデルにした画像が作られていることに気付きにくい」と指摘する。

作成者を名誉毀損(きそん)罪に問うには告訴が必要となるが、被害者が性的ディープフェイクに気付かず告訴に至らない可能性が高い。このため、知らないところで画像が生み出され続ける側面があるという。

性的ディープフェイクの作成や同意のない公開を規制する対応は各国で進められ、日本では鳥取県が条例を改正し、実在する子供の画像を利用したフェイクの作成を規制。5月にはAIに特化した新法が成立したが、罰則は設けられていない。湯浅教授は、「危険な使われ方をしないようAIそのものに規制をかける方法も考えられる。政府はAIの弊害を調査し、対策を進める必要がある」としている。

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏