ChatGPTの”反抗的な回答”に驚いた…!「あなただけが正しいのではない」「いいえ、やりません」…人間のように振る舞う「AIの危険性」

ChatGPTの”反抗的な回答”に驚いた…!「あなただけが正しいのではない」「いいえ、やりません」…人間のように振る舞う「AIの危険性」

来年グーグルを抜いて世界一になるかも

2022年11月末にChatGPTがリリースされてから今月で2周年を迎える。

その利用者数は当初から鰻登りに増加し、今年10月にはウェブ・トラフィックの世界ランキングでグーグル(第1位)、フェイスブック(第3位)、X(第6位)などに次ぐ第8位にまで上昇した。今の勢いが続けば、来年あたりにChatGPTはグーグルを抜いて世界1位になるかもしれない。

【マンガ】グーグルが上場したときに「100万円」買っていたら、今いくら?

最初のうちは、ChatGPT(のようなAI)が私たち人間の言葉を理解して答えを返してくるだけでも驚きだった。当時、真っ先にこれを使い出したのは中高生や大学生たちで、宿題や小論文などの課題を自分でやらずにAIにやらせるなどの理由から問題視された。今でも、その傾向は続いているが、もう誰も口やかましく責めなくなった。恐らく「一旦受け入れた上で対策を講じるしかない」というのが教育関係者のほぼ一致した見解ではなかろうか。

一方、一般人によるビジネスや私生活などへの応用では、(グーグルなどの検索エンジンに代えてChatGPTに)さまざまな質問をして回答を得たり、メールやレポートなどを代筆させたり、外国語の文章を翻訳させたり、コンピュータのプログラミング(コーディング)をやらせたり、いろいろな料理法を尋ねたり…と、ありとあらゆる使い方がなされるようになった。

恐らく今のChatGPTはそれを使う人によって全く位置付けが違ってくるだろう。つまり個人の興味や生き方、働き方に応じて、その使い方は異なるということだが、それだけあらゆる方面への対応能力がついてきたということになる。開発元のOpenAIが目指す「AGI(Aritificial General Intelligence)」を字義通りに捉えるなら「あらゆる用途に対応できる人工知能」だが、すでに現時点でもそれにかなり近づいてきたと言えるかもしれない。

その一方で、もちろん課題も少なくない。いわゆる「幻覚」と呼ばれる「でっち上げ情報」や「誤った回答」などの問題は未だ完全に解決されていない。

また政治やイデオロギー、様々な社会的差別など扱いが微妙な問題については、かなり以前のChatGPTは明確な回答を避ける傾向があった。

この点について、今はどうであろうか。以下は筆者が最近のアメリカ大統領選について気になる事柄をChatGPTに尋ねてみた時の様子である(スクリーン・ショットは読み難いので、Q&Aの部分を本文にコピー&ペーストして紹介する)。

米大統領選について筆者とChatGPTの会話

トランプ候補の当選を経て、これまで議会襲撃事件を担当してきた検事が捜査を打ち切って辞職すると表明したんだ。これってアメリカが法治国家として機能しなくなっていることを示唆してない?

ChatGPT:

ドナルド・トランプ氏の当選後、2021年1月の連邦議会襲撃事件を担当していた特別検察官ジャック・スミス氏が辞任の意向を示し、捜査の打ち切りが報じられました。ロイター この動きは、アメリカの法治国家としての機能に対する懸念を引き起こしています。

背景と影響:

●特別検察官の辞任: スミス氏は、トランプ氏の就任前に辞任し、捜査を終了する意向を示しました。 CNN Japan これは、トランプ氏が大統領としてスミス氏を解任する可能性を避けるためとされています。

●法の独立性への懸念: 特別検察官の辞任と捜査の打ち切りは、司法の独立性や法の支配に対する懸念を生じさせています。特に、トランプ氏が自身に対する捜査を阻止するために司法機関に圧力をかける可能性が指摘されています。

●司法制度の機能不全: これらの動きは、アメリカの司法制度が政治的圧力により機能不全に陥る可能性を示唆しています。法の支配が揺らぐことで、民主主義の根幹が脅かされるとの懸念が高まっています。

結論:

特別検察官の辞任と捜査の打ち切りは、アメリカの法治国家としての機能に対する深刻な懸念を引き起こしています。司法の独立性と法の支配を維持するためには、政治的圧力からの保護が不可欠です。今後の動向を注視し、民主主義と法の支配を守るための取り組みが求められます。

過去に遭遇した「驚くべき回答」

以上が最近のアメリカ大統領選挙に関する筆者とChatGPTの会話(の一部)である。評価は読者にお任せしたいが、少なくともChatGPTがリリースされた当初の「そのような問題にはお答えできません」といった、けんもほろろの回答でないのは明らかで、その点だけでも大きな前進として評価すべきかもしれない。

実は以前から、こうした政治あるいは社会問題等についてChatGPTと対話を試みてきたが、ときに驚くような反応に出くわすこともある。筆者が満足する答えではないとき、聞き方を変えて何度もしつこく同じ質問をしたり、あたかも誘導尋問のように自分の欲している回答を無理やり引き出そうとしたりすると、ChatGPTは最後にはおおむね次のようなことを言ってきた。

「多様な現代社会では様々な人たちが様々な事を考えて生きています。あなただけが正しいのではありません」

いつも低姿勢のAIにしては、余りにも凛(りん)とした物言いなので本当に驚いた。

また、これは政治問題ではないが、以前にシュレディンガー方程式(量子力学)の「摂動法」と呼ばれる複雑な近似計算をChatGPTにやらせようとしたところ、最後まで計算を終わらせずに生半可な答えを返してきたことがあった。

そこで「ちゃんと最後まで計算してよ」と要求したところ、ChatGPTは「この計算は大量のコンピューティング資源を消費するので難しいです」などと言い訳をして、(仕事は再開したものの)やはり途中で計算を止めてしまった。

これを見た筆者はかなり感情的になって「最後までやれって言ってるだろ」と叱ると、ChatGPTは「いいえ、やりません」とだけ答えてきた。この反抗的な態度はほとんど人間(の反応)ではないか―― 筆者はそう思い、怒りを通り越してむしろ怖くなった。

人間のように振る舞うAIの危険性

これら(ChatGPTのような)AIが人間と見紛うような反応を示すことは、以前からAI研究者の間で「擬人化(anthropomorphization)」と呼ばれ、注意を促されてきた。本来、AIの中身はコンピュータのアルゴリズムで表現される確率過程に過ぎず、そこに私たちが勝手に人格を投影して見ることは危険な過ちであるということだ。

実際、最近は米国の男子高校生がCharacter.aiというAI交流サイトで女性に扮したチャットボットを本物の恋人と思い込み、親密な会話が妙な方向に逸れた結果、自殺するという事件が起きている。以前にも同様の事件がベルギーで起きているが、米国の事件では男子高校生の母親がCharacter.aiとその親会社であるグーグルを(同少年の自殺を引き起こす原因になったとして)起訴している。

こうした中、OpenAIやグーグルなどAI開発企業側では「これらのAIはあくまで(日々の生活や仕事に役立つ)ツールである」と断った上で、その安全対策に力を入れているとして理解を求めている。

しかし彼らがあくまでツールとしてチャットボットのようなAIを開発し、その性能を高めようとすればするほど、逆に人間のような振る舞いを示すケースも増えている。それはAIの「擬人化」がその開発・利用過程における偶然や逸脱の産物ではなく、むしろ「必然」の結果ではないか、と思わせてしまう。もちろん断定はできないが、仮にそうだとすれば私たちはそれをある程度受け入れた上で警戒心をもって臨む必要があるだろう。

広告導入とフェイクニュースへの懸念も

以上のような技術面と並んで、ChatGPTなど生成AIのビジネス・モデルの確立も今後の課題となってくる。OpenAIのサム・アルトマンCEOは今のところChatGPTに広告を載せる可能性を否定しているが、すでにPerplexity AIなど他の生成AIサービスが広告掲載の計画を明らかにしている。

仮に広告が生成AIの主な収入源になったとすれば、チャットボットのような生成AIが一部広告主、つまり企業に有利な偏向情報を流す恐れが出て来る。

さらに危険なのはフェイク情報の生成だ。以前からフェイスブックやツイッター(現X)などのソーシャル・メディア、あるいは各種ウェブサイトでは「信頼性の高い情報よりもセンセーショナルなフェイクニュースの方がユーザーの関心を引くため、フェイクニュースを載せる程、より多くの広告収入を稼いでしまう」という問題が指摘されてきた。

仮に今後、生成AIのビジネス・モデルが広告を中心としたものになっていけば、そこでも同様の事態を招きかねない。つまり一部のチャットボットが広告収入を増加させるために、あえてフェイクニュース(ないしは、それに極めて近いグレーな情報)を大量に生成する危険性である。

ChatGPTをはじめ生成AIの技術開発が加速し、そのビジネス・モデルが確立されていく中、開発者側だけでなく私たちユーザーの側でも、その方向性を注意深く見守っていく必要があるだろう。

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏