Grokの性的画像加工 世界で約300万枚生成か、子どもの被害も
(旧ツイッター)に搭載された生成AI(人工知能)「Grok(グロック)」を悪用し、実在する人物の画像が性的な画像に加工される被害が相次いだ問題で、この機能が使われた11日間に世界で約300万枚の性的画像がつくられた可能性があることがわかった。米英の非営利団体「デジタルヘイト対策センター(CCDH)」が22日、推計結果を発表した。
センターは、グロックに画像編集の機能が追加された後の昨年12月29日から今年1月8日までを調査した。相次ぐ被害報告を受け、Xは9日に機能を有料会員に限定し、14日には露出が多い画像の編集をできなくしている。
調査期間内にグロックが生成した全画像計約460万枚のうち、ランダムに抽出した約2万枚を分類。年齢や性別にかかわらず性的画像と判断されたのは約65%、子どもの性的画像と判断されたのは約0.5%だった。全体の460万枚にこの割合を当てはめて計算し、性的画像は約300万枚、子どもの性的画像は約2万3千枚と推計した。多くの著名人の画像や、自撮り画像を元にしたものもあったという。
この機能をめぐっては、画像に写った本人の同意なく、性的な画像に容易に加工・拡散できる事態を招いた。英国が調査を開始したほか、インドネシアやマレーシアではグロックへのアクセスを一時的に遮断。日本政府もXに改善を要求するなど、各国当局も問題視していた。
