それは人類にとって脅威なのか 「強いAI」について考える

それは人類にとって脅威なのか 「強いAI」について考える

 これまでの連載では、現在AI(人工知能)と呼ばれているものを実現する技術について考えてきた。ここからは少し方向性を変え、AIをめぐる議論に焦点を当ててみたい。まずは「AIとは何か」を考える上で避けることのできない「強いAI」(Strong AI)と「弱いAI」(Weak AI)という概念について考えてみよう。

●「強いAI」とは何か

 私事で恐縮だが、3年前に子供が中学受験をした際、複数の学校の説明会に参加する機会があった。それぞれ特徴のある学校だったが、説明会の中で異口同音に「AIによって人間の仕事はなくなるかもしれない」という未来が語られていたことが印象に残っている。

 当時はちょうど、英オックスフォード大学のマイケル・オズボーン准教授らが2013年に発表した論文「雇用の未来」(The Future of Employment)が日本でも話題を集めていた。

 この論文は、702種類の職業それぞれが「将来コンピュータ化される確率」を算出し、ランキング形式で整理したもの。そんな中で、各校が「皆さんのお子さんが大人になるころには、AIによって人間の仕事はなくなっているかもしれない。であれば、いまどのような教育をすべきか」と説いていたのである。

 学校教育の場でも、人間の職業がAIに代替される可能性について語られるようになったのかと驚かされた。

 こうした若干センセーショナルな議論に登場するのが、「どんな仕事でも人並みに、場合によってはそれ以上のレベルでこなせるAI」である。そのような汎用的能力を持つAIは、「強いAI」と呼ばれることがある。まるでSFに登場するような万能ロボットが登場して、人間の仕事を次々に奪うというわけだ。

 本連載の第1回で触れたように、強いAIは米国の哲学者ジョン・サールが1980年に定義したとされる。彼は「Minds, Brains, and Programs」(心・脳・プログラム)と題された論文で、次のように主張した。

 人間の認知能力をコンピュータ上でシミュレーションする近年の取り組みに、どのような心理学的・哲学的意義を与えるべきだろうか? この質問を考える場合、私が「強い」AIと呼ぶものと、「弱い」もしくは「慎重な」AIと呼ぶものを区別することが有益だろう。

 弱いAIによると、心の研究におけるコンピュータの主な価値は、コンピュータが非常に強力なツールを提供してくれることだという。例えばコンピュータを使うことで、仮説をより厳密かつ正確に構築・検証できる。

 強いAIでは、コンピュータは単に心を研究するための道具ではない。適切にプログラミングされたコンピュータは、文字通り他の種類の認知状態を理解し、保持しているという意味において、むしろ「心」そのものなのである。強いAIでは、プログラミングされたコンピュータは認知状態を持っているため、プログラムは心理学的説明の検証を可能にする単なるツールではなく、むしろプログラム自体が説明そのものになるのである。

 彼は、人間の心を研究する際にコンピュータをどう使うかのアプローチを説明するために、強いAI、弱いAIという言葉を用いた。弱いAIのアプローチでは、コンピュータは心を研究するための補助的なツールで、強いAIのアプローチでは、コンピュータが「心」そのものになるようプログラミングするという。どんなタスクを実行できるかよりも、学術的な意味での「人間が持つような意識」を持つかどうかが強いAIとっては重要なのだ。

 しかし最近は、強いAIを「どのようなタスクでも実行できる汎用型人工知能」(AGI:Artificial General Intelligence)という意味で使うケースが増えてきた。この場合、弱いAIは「特化型AI」「専用AI」などと表現される。

 前置きが長くなってしまったが、今回の記事では昨今メジャーになっている「汎用的なAIという意味での強いAI」について考えてみたい。

●現在あるのは「弱いAI」

 強いAI=汎用型AIと定義すると、現在実用化されているAIは全て弱いAIということになる。

 Googleが開発した囲碁ソフト「AlphaGo」は人間のトップ棋士に勝利したが、自動車を安全に運転することはできない。Googleは自動運転車を開発しているが、そこに搭載されたAIは金融取引における不正を暴くことはできない。そして不正な取引を検知するために開発されたAIは……というように、企業が手掛けるAIのほとんどは用途が限定されている。

 これまでの連載で解説してきたように、いまAIアプリケーションを実現する手段として主流になっている機械学習やディープラーニングは、大量のデータを機械に学習させる手法だ。

 そこでは人間が問題の枠組みとゴールを設定し、関係するデータと適切なアルゴリズムを用意する。機械はそれらを基に、特定のパターンを見つけ出していく。

 人間のように何をすべきか自ら考えて結論を出しているわけではない。したがってAIに新しいタスクを実行させるには、新しいデータとアルゴリズムを用意して、一から学習させる必要がある。ただし第4回で解説したように、ある目的のために開発したAIを、それに近い目的に流用する「転移学習」という手法も生まれている。

 だからといって、弱いAIに価値がないわけではない。AIはさまざまな頭脳ゲームで人間を上回る腕前を発揮するようになったし、自動運転は人間の乱暴なドライバーや飲酒運転者よりも安全に運転できる。金融犯罪を検知するプログラムは、人間よりも多くの取引を高精度で監視可能だ。用途は限定されるが、弱いAIも優れた価値を生み出すのだ。

●強いAIは必要か

 弱いAIで十分ならば、私たちは強いAIの実現を目指す必要があるのだろうか。

 この問いをめぐる議論では、しばしば「鳥と飛行機」の話が引き合いに出される。いま、あなたは機械で鳥を再現しようとしている。その目的が鳥という生き物の研究なら、その手段は適切ではないかもしれない。本物の鳥をそっくり再現できる「ロボット鳥」はいまだに開発されていないからだ。

 しかしその目的が「空を飛ぶ道具をつくること」であればどうだろう。空を飛ぶ道具なら、1852年にアンリ・ジファールが有人飛行船の飛行を成功させたし、1903年にはライト兄弟がライトフライヤー号による飛行を実現した。

 飛行機と飛行船は、いずれも鳥とは全く違う仕組みで飛行するが、「空を飛ぶ」という点では共通している。それどころか飛行機と飛行船は、鳥よりもずっと高く遠くまで飛ぶことができ、大量の人々や荷物を運べる。

 何が言いたいかというと、私たちがAIに何を求めるのかは目的次第だということだ。特定の仕事を、人間並みかそれを上回るパフォーマンスで機械に代行させたいのであれば、弱いAIで十分だろう。一方でジョン・サールが主張したように、人間の心そのものを作るようなAI開発だってあり得るかもしれない。

●強いAIは実現されるのか

 では、そもそも強いAIは開発できるものなのか。可能だとするなら、私たちはいつそれを目にできるのか。

 この問いをめぐる、もはや古典的とも呼べる概念が「シンギュラリティ」(技術的特異点)だ。未来学者レイ・カーツワイルは、2005年に出版した著書「シンギュラリティは近い」で、2045年には人工知能は人間の脳を超える知性を持つと予想した。「ムーアの法則」に象徴されるような、デジタル技術の指数関数的な性能向上が後押しとなり、コンピュータの処理能力が飛躍的に向上するという。

 また彼は、2029年に人間1人当たりの脳の処理能力に匹敵するAIが実現されると予測する。これは汎用AIと言い換えてもいいだろう。しかし、いくらコンピュータの処理能力が向上しても、人間の頭脳と同じ働きをするAIが登場するかどうかは別問題だという批判もある。

 カーツワイルのシンギュラリティ理論は技術進化のトレンドに基づくマクロな予測だが、汎用AIを技術的に実現しようという取り組みは、実際にさまざまな団体や研究機関が進めている。こうした組織の研究者らは、それぞれ独自の理論に基づいて汎用AIの模索を続けている最中であり、いつどのような形で実現されるかについても、大きく意見が分かれる。

 例えば昨年、未来学者のマーティン・フォードが、著名なAI研究23人に対するインタビューをまとめた著書「Architects of Intelligence」を出版した。

 それによると、ロボット研究者として有名なロドニー・ブルックスは「2200年までに、汎用AIが50%の確率で実現される」と回答したそうだ。レイ・カーツワイルがシンギュラリティの到達時期として挙げた「2029年」とは大きな隔たりがある。他の研究者の予想もばらばらで、「何年までに汎用AIが50%の確率で実現されると思うか」という問いに対する回答の平均値は「2099年」だったという。

 いまのところ、AIのビジネス活用を考える場合は弱いAIに焦点を当てればいいだろう。とはいえ、このような「超人工知能」(最近ではASI:Artificial Superintelligence、『人工超知能』とも呼ばれる)がいつか生まれる前提に立つと、私たちはそれにどう備えるべきなのだろうか。あるいは、特定の領域で人間を上回るパフォーマンスを発揮する弱いAIをどう制御すべきか。この問いをめぐる議論については、次回整理してみたい。

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏