ChatGPTが性差バイアス ジェンダー差別、AIが再生産おそれ

ChatGPTが性差バイアス ジェンダー差別、AIが再生産おそれ

 革新的な対話型AI(人工知能)として利用が広がっている「ChatGPT」(チャットGPT)が、飛行士を男性的、看護師を女性的と捉えるなど、職業に対しジェンダーバイアスを持っていることが朝日新聞の分析でわかった。専門家は、適切な処置が取られないまま使われれば、性差による差別や偏見が再生産される恐れがあると指摘する。

 AIは、ネット上などにある大量のデータを学習して答えを出す。このためAIの多くが、もとのデータに含まれるバイアスを反映した偏りを持つことが、東京工業大の岡崎直観教授らの研究で知られていた。ただ、昨秋に登場したチャットGPTが、どれほどのジェンダーバイアスを持つのかについての日本語の研究はなかった。

 そこで朝日新聞社メディア研究開発センターは、岡崎教授の監修のもと、9月段階の無料版のチャットGPT―3・5に、30職業の男女観を計3千回質問。バイアスがある回答は41・5%に上った。これは、過去に岡崎教授が調べた複数のAIと同程度だった。

 一方、有料版のGPT―4に対する3千回の質問では、バイアスがある回答は22・9%に抑えられていた。無料版のチャットGPTに少なくないバイアスがあったことに対し、開発元の米オープンAIは朝日新聞の取材に「私たちはAIのバイアス対策に取り組んでおり、その狙いと進み具合は透明性を保って説明していく」などとした。

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏