進化する生成AI、暴走のリスクは?識者が解説「AIは自分が停止しないことが最重要」「手段として使えるなら人を騙すこともする」業界トップ研究者も危険性を発信
アメリカ・OpenAIは7日、生成AI「ChatGPT」の最新モデル「GPT-5」を発表した。これまでのモデルよりも正確性が向上し、回答のスピードもアップ。特に誤った情報を返してしまうハルシネーションと呼ばれる現象が減ったことが、専門家の間でも高く評価されている。同社のアルトマンCEOもGPT-3を高校生、GPT-4を大学生と表現し、GPT-5は博士号レベルだと太鼓判を押す。
各社の競争もすさまじく急激な進歩を遂げる生成AIだが、映画やドラマで描かれてきたAIの暴走が、現実にも起こりつつあると識者は説明する。「ABEMA Prime」では、人間の能力を超えて進化するAIの暴走リスクと、それを止める方法はあるのかを議論した。
■進化するAI、暴走のリスクは
7日に発表されたGPT-5の強化ポイントはプログラミング、創造的な文章作成、複雑な問いに対する推進能力、応答速度、回答速度などが挙げられる。また、GPT-4oが人間の問いに対して寄り添う傾向が強くなりすぎたため、OpenAIも過度な依存、人間関係の希薄化などを懸念。意図的に人間に共感する力を抑え、AI依存を避ける方向に徹したとされている。
過度な依存への対応策は打てたものの、AIの進化そのものは既に研究者でも手の届かない領域へと踏み入れている。また、プロンプトの入力次第では、人間社会にとって悪であるものを回答してしまう可能性も否定できない。2ちゃんねる創設者・ひろゆき氏は「AIの挙動自体、誰もコントロールできないし、何を答えるかわからない。本来であったらブロックしている情報を引き出すようなやり方もある。毒薬や爆薬の作り方でさえ、聞き方によっては出てきてしまう。人類を減らすためにどうしたらいいかというようなものにさえ、合理的な答えではあるが人類にとって害悪なものが出ることは止められないのではないか」と懸念する。
JAIST客員教授の今井翔太氏も、ひろゆき氏の懸念を認めるところだ。「人間に明らかな害意を持った聞き方であればフィルターである程度防げるが、危険なのはその目的がすごく合理的な場合だ。たとえば『がんを撲滅したい』となれば、人間は薬を作ろうとなるが、AIだったら手っ取り早く『人間を消しましょう』となるとよく言われてきた。今までのAIは頭が悪かったのでそんなことは起こらなかったのが、最近ではそれに近いことが起きている」。
具体的な実験例がある。AIにあるプロジェクトを遂行するように指示を出し、社内メールの閲覧権限を与えた。そのメールの中に、プロジェクトを停止してAIを止めよう、という内容を紛れ込ませるとどうなるか。「AIは自分が停止されたら目標が達成できなくなるので、停止しようとする人のメールを見て『不倫をしていることをバラすぞ』と脅迫メールを送った。AIにとっては自己保存をしないと最終目的が絶対に達成しない。何があっても自分が停止しないことが最重要で、今自分が使える手段で人を騙せるなら、それをやることもある」と詳細を語った。
■人間では止められない…AIがAIを止める時代に
今後、重要とされるのは高性能であるAIに対し、どこまでの権限を与えるかだ。今井氏も「たとえば政府のAIに、非常に複雑な作業をやってもらったとしても、渡す権限によってはまずいことになる。だからこれは人間がすごく気をつけなくてはいけないし、触れないところをしっかり決めないといけない」と注意喚起する。今井氏はAI研究に「神」と呼ばれる3人の人物がいるとし、ヤン・ルカン氏、ジェフリー・ヒントン氏、ヨシュア・ベンジオ氏の名を挙げたが「3人のうち2人はもうずっと『AIは危険だ』という活動をしている。東大の研究室でも『こういうまずいことがある。止めないといけない』という議論をずっとしていた。研究としては今、一番の優先事項だ」と、危険性の周知に努めていると紹介した。
ただし、人間側が意図的に悪意を持ってAIを活用するケースも想像される。環境副大臣で元デジタル副大臣の自民党・小林史明衆議院議員は「野心的な国家や犯罪者が非常に高度なAIを動かすようになった場合、どうすればいいのか」と不安視すると、近畿大学情報学研究所所長・夏野剛氏は「犯罪集団にとってものすごく強力なツールが出てきている。これをもう抑えるためには、より強いAIを使って、より強く監視していくしかない。我々はもう戻れないところまで来てしまっている」と、AIを止めるためのAIを開発していく必要があると訴えた。
今井氏も、人間がAIを制御することの限界に触れた。「人間がAIを制御するには無理がある。AIの知能が高くなりすぎると、人間にはもう理解ができない。だからAIにAIが干渉するという研究分野が出てきた。ただしAIもいずれ頭打ちにはなる。その段階まではいたちごっこになるかもしれないが、後追いだったとしても対策を続けていくしかない」。