納得できない―グーグルの「子ども向けGemini」立ち上げで一部保護者が反発

納得できない―グーグルの「子ども向けGemini」立ち上げで一部保護者が反発

グーグルは、保護者がAndroidデバイスやChrome OSデバイスを管理し、子どものオンライン利用を安全にサポートするための「ファミリーリンク機能」を以前から提供している。この機能を利用する親たちの多くが最近、同社の人工知能(AI)チャットボットのGemini(ジェミニ)が間もなく子どものデバイス上で利用可能になるという通知メールを受け取っている。

ニューヨーク・タイムズの報道によると、グーグルはファミリーリンクで管理されている保護者の監督付きアカウントを通じて、13歳未満の子どもがGeminiにアクセスできるようにしている。

この「子ども向けの制限付きGemini」は段階的に展開されており、子どもたちは宿題のサポートや創作活動の支援、一般的な質問への応答といったGeminiのさまざまな機能を体験できるようになっている。保護者は、AndroidデバイスやiOSデバイス、もしくはウェブ上で子どもにGeminiの使用を許可し、子どものデフォルトアシスタントに設定することも可能だ。

グーグルは、Geminiを子どもの学習や創造性、探求を支援するツールに位置づけている。同社は、このAIツールの前身であるBardでも同様の方向性を強調し、AIが子どもの代わりに宿題をやるのではなく、一緒に学ぶための友達だと伝えていた。

生成AIの教育分野でのポテンシャルは、広く認識されつつあり、一部の研究によればデジタルツールは学校教育の中に組み込まれることで最も効果を発揮するとされている。しかし、デジタルツールは教師を置き換えるのではなく、補完するものであるべきだ。

AIと子どものリスク

■AIと子どものリスク

ユニセフが発表した「How Can Generative AI Better Serve Children’s Rights?(生成AIはどのように子どもの権利に貢献できるか)」と題したレポートは、AIの可能性とともにそのリスクにも目を向けるべきだと訴えている。

この報告書は、「子どもの権利条約」に基づいてAIを評価すべきだとし、「無差別」「子どもの意見の尊重」「子どもの最善の利益」「生命・生存・発達への権利」という4つの原則を提示している。

まず懸念される大きな問題は、「デジタル貧困(Digital Poverty)」とも呼ばれるアクセス不平等の問題だ。すべての子どもがインターネットやスマートデバイス、教育用AIにアクセスできるわけではない。その結果、一部の子どもが学習面で優位に立つ一方、ほかの子どもは取り残される。

さらに、トレーニングデータのかたよりも深刻な課題だ。AIシステムは社会の偏見を反映するため、子どもはオフラインで経験するのと同じ差別にオンライン上でも直面する可能性がある。また、個人データの収集と使用に関する同意の問題も厄介だ。たとえば9歳の子どもから「意味のある同意」を得るのは、法的にも倫理的にも極めて難しい問題だ。しかも、そのデータが商用モデルの学習に利用される場合はさらに複雑だ。

誤情報の拡散も大きな懸念材料となっている。子どもはフェイクニュースを見抜く力が弱く、デジタルの存在を信頼しやすい傾向がある。特に、社会的に孤立している、またはオンラインの時間が長すぎる子どもの場合は、チャットボットと人間の区別は必ずしも明確とはいえない。一部のボットは子どもの幻想を助長するような応対をしたと報じられている。

■保護者たちがグーグルに「反発」する理由

そんな中、グーグルはファミリーリンクを通じて子どもにAIを使用させる保護者向けに、利用可能な保護機能や推奨される使用方法を説明している。

ここで最も重要なのは、同社が「子どものデータをAIモデルの学習に使わない」と明言している点だ。加えて、コンテンツフィルターも用意されており、保護者は、子どものスクリーンタイムの制限、特定アプリのブロック、不適切なコンテンツの制限が可能だ。しかし、ここにはひとつの落とし穴がある。それは、子どもたちが自分でGeminiを起動できる点だ。

そして、多くの保護者の反感を買ったのは、Geminiが「オプトイン」ではなく「オプトアウト」で提供されることだ。ある保護者はこう語っている。「先週このメールを受け取った。でも私は『Geminiを子どもに使わせてもいいか』と聞かれていない。『使わせたくなければ設定を変えろ』と言われている。納得できない」。

■保護者にのしかかる負担

グーグルはまた、「Geminiは人間ではない」と子どもに伝えることや情報の真偽を確認する方法を教えること、個人情報を共有しないよう促すことなどを保護者に求めている。同社の生成AIの管理責任をほぼすべて保護者に委ねているわけだ。責任ある生成AIの導入には、各セクターにまたがる共同責任が求められるが、それがグーグルの取り組みに反映されているとは言いがたい。

テクノロジー企業は、こうしたツールを本当に安全で建設的なものにするために、もっと多くのことをすべきだ。彼らは、子どもたちにAIとの関わり方を教えて、意識を高める必要があるが、現状ではその試みは未成熟、未整備だ。子どもの意識を高める教育という点では政府もその役割を担えるだろう。AIが保護者にとって希望であるとしても、その落とし穴を回避するために費やすエネルギーが、結局はその恩恵を帳消しにしてしまうかもしれない。

ここで浮かぶ疑問は、子どもがAIツールを使い始めるべき時期はいつなのか? どれだけ使わせれば「やりすぎ」なのか? 子どものAI使用への介入のタイミングを決めるのは誰なのか? といったものだ。これらは現代の保護者たちを眠れなくさせる新たな問いであり、チャットボットには答えられない問題なのだ。

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏