生成AI対策で監査・認証制度、政府検討へ…開発・提供者の透明性向上図る
インターネット上のデータを使って文章や画像を作り出す「生成AI(人工知能)」の急速な発展を踏まえた政府のAI対策の概要案が3日、判明した。AIの開発者や提供者の透明性を向上させる必要性を強調し、第三者による監査や認証制度創設の検討を盛り込んだ。今後、関係省庁会議「AI戦略チーム」で具体策の議論を進める。
概要案では、対策の柱として、〈1〉法令やガイドライン(指針)順守の徹底〈2〉リスクの高さに応じて規制を定める「リスクベース・アプローチ」の採用〈3〉技術による対応――の3点を掲げた。
法令やガイドラインの整備については、AIの仕組みや学習データの中身、データの取り扱いなどに一定水準の品質を保証するため、AIの開発者や提供者に対する第三者の監査や認証制度の導入を検討するとした。AIの利用者に向けても、機密情報への配慮や虚偽情報への注意、教育現場での活用方法などに関してガイドラインを作成し、周知することを明記した。
「リスクベース・アプローチ」は、精神的、身体的な害が生じる恐れなどリスクの高さによってAIを分類し、ランクごとに規制の厳しさを変える手法で、欧州連合(EU)などでAI規制の根幹に据えられているとされる。同様の手法の採用を明示し、既存の法令やガイドラインの見直しなどについて精査していく考えを示した。
今後開発を促進する技術分野としては、「リスクを認識、低減する技術」を挙げた。SNS上に投稿された偽情報を見破るための独自AIの開発などが想定されている。
生成AIなどの規制を巡っては、5月に広島市で開かれた先進7か国首脳会議(G7サミット)で、「広島AIプロセス」の推進で一致した。近く論点整理に向けた議論を本格化させ、年内にG7としての立場を表明する方向だ。
日本政府としては、G7各国の状況について情報を収集しつつ、海外と歩調を合わせる形で規制の具体策を検討する考えだ。
