「AIの父」すら警鐘…「AIリスク」問題はなぜそんなに重要?軽視しては絶対ダメなワケ
AIの急速な発展に伴い、AIのガバナンス強化が世界で議論されています。2024年のノーベル物理学賞を受賞した「AIの父」ジェフリー・ヒントン氏は、「AIの脅威」を指摘する1人です。現在カナダのトロント大学の名誉教授であるヒントン氏は、「AIの危険性について自由に発言するため」当時在籍していたグーグルを退職しています。「AIの父」も警鐘するAIのリスクとは何か、それに対して企業は何をすべきか、AIガバナンスに詳しい、PwCコンサルティングの橋本哲哉氏が解説します。
【調査】9割超の企業が生成AI活用を推進
現在、多くの企業がAI/生成AIをビジネスにどう活用するかについて、多大な時間とコストをかけていることでしょう。
PwC Japanグループが定期的に実施している生成AI調査の最新情報「生成AIに関する実態調査2024 春」によると、生成AI活用の推進度合い(活用中・推進中・検討中までを含む)は、2023年 春時点で「22%」だったものが2023年 秋時点で「88%」と急伸し、そして2024年 春には「91%」まで増加しています(図1)。
もはやAIを活用しないことは、企業にとって重大なリスクであると言えます。一方で、AIの影響は甚大であり、今後の社会や経済に対して、連続的なパラダイムシフトを招くことが予想されています。ただし、そのパラダイムシフトは私たち人類にとって、必ずしもプラスの結果を招くとは限りません。
「AIの父」も警鐘を鳴らす「AIのリスク」とは
実際、「AIの父」と呼ばれるジェフリー・ヒントン氏も「AIの脅威」に警鐘を鳴らしています。ヒントン氏は、2024年のノーベル物理学賞を受賞したAI研究者2人のうちの1人です。ヒントン氏が長年にわたって研究に取り組んでいる深層学習は、現在のAIや生成AIの基礎を築いたと評価されています。
ヒントン氏は、目標を与えられたAIが人類にとって不都合な解決策を導き出すことや、今後、AI同士が競い合うことで自律的進化を遂げ、人類が取り残されてしまうこと、そして、AI兵器が登場し、人類に危害を及ぼすことなどに危機感を募らせています。
AIは人類の知能を超えるのか、はたまたAIは知能を持つのか。これはAIのシンギュラリティとして以前から論じられているテーマです。しかし、シンギュラリティが訪れるか・訪れないかを論じるよりも、訪れた場合に、どのように人類とAIが安心・安全に共存していくかを論じるほうが重要です。
AIの発展は著しく、今後、ますます加速していくでしょう。ヒントン氏の危機感が現実のものにならないよう、私たちはAIがもたらす脅威にどのように向き合っていくのか、今、それを真剣に考えるべき局面を迎えているのかもしれません。
生成AIでリスク増大、重要選挙が相次いだ2024年に起きたこと
AIのシンギュラリティや軍事利用と聞くと、自分には関係ないと思う人も多いかもしれません。ですが、AIのリスクはすでにインシデントとして顕在化し始め、マイナスの影響を受けている企業も発生しています。
加えて、生成AIの台頭により、AIの民主化が急速に進んでいます。これまでのAIはリテラシーを有している人に活用が限定されていましたが、生成AIは「誰でも自由に使える」というその特徴により、リテラシーがない人にまで活用が急速に広がっています。
これは言い換えると、AIリスクも急速に拡大していることにほかなりません。AIリスクはひとごとと目を背けるのではなく、足元のリスクを今、適切にマネジメントすることが、将来もたらされる脅威を回避するための第一歩となります。甚大なリスクに発展する前に、AIリスクマネジメント態勢を整備していくことが私たち1人ひとりに求められているのです。
それでは、実際、どのようなAIリスク・インシデントが発生しているのか、例を見ていきましょう。
2024年は世界的に重要な選挙が多く行われた年でした。それに乗じて、悪意を持った人が、あたかも本物のように合成された偽映像を作成して大衆の行動を誘導しようとする、いわゆるディープフェイクによるインシデントが多数発生しています。
生成AIを活用して各種書類を作成したところ、実在しない内容が生成され、それが公に出回ってしまったというハルシネーション関連のインシデントも多く確認されています。
また、AIによる学習が適正に行われておらず、特定の外見や思考を持った人に対して不適切、もしくは不利益な結果を返すという公平性の欠如(バイアス問題)も発生しています。AIモデルは日々学習を繰り返しているため、利用開始時に問題がなかったとしても、利用していく過程で問題が発生してしまう「データドリフト」の問題もはらんでいることから、AIリスクをマネジメントすることの難易度は高いと言えます。
AI活用に取り組む企業が「まずすべきこと」
一方で、AIリスクがあるからといって、AI活用にブレーキを踏んでしまうことは得策ではありません。冒頭で述べたように、AIを活用しないこと自体が企業にとってはもはやリスクであるからです。
AIは活用するもリスク、活用しないもリスクとなると、一体どうすれば良いのだと頭を抱えてしまうかもしれませんが、先進事例や2024年4月に経済産業省と総務省が公表した「AI事業者ガイドライン」などを参考にすることで、多くのヒントを得ることができます。
AI事業者ガイドラインは、日本におけるAIリスクマネジメントのスタンダートと位置付けられていますので、まずはこちらの内容から確認を始めてみるのが良いでしょう。AI事業者ガイドラインでは、各主体が取り組むべき共通の指針として、以下の10項目が挙げられています。
各主体が取り組むべき共通の指針
(出典:経産省・総務省「AI事業者ガイドライン」より引用)
指針の1つひとつは、決して新しいものではなく、記載されている内容も大きく異を唱えるものではないと思います。そして、10の指針のいくつかは、すでに多くの企業におけるリスクマネジメントとして取り込まれているのではないでしょうか。
このように、AIリスクはまったく新しいものではなく、根底にあるリスクマネジメントとしての考えは、既存の態勢が十分に活用できるものとなります。既存の態勢と整合性を取り、範囲を拡充していくことが重要です。リスクに対して過剰に身構えてしまい、リスクマネジメント自体が目的になることがないように注意を払う必要があります。
目的は、AIを活用し、企業としての競争力を強化していくこと、イノベーションを創出していくこと、そして、日本の国際的な競争力を高めていくことにあります。リスクマネジメントとは、これらを実現するための安心・安全なプラットフォームを提供することであり、1つの手段であることを忘れてはいけません。
昨今、Responsible AI(責任あるAI)という言葉をよく聞くようになりました。Responsible AIが意図している内容は、AIリスクマネジメントのみならず、積極的なAI活用を含めて、その両立を実現していくことだと当社は考えています。AI活用とリスクマネジメントを企業の重要テーマに掲げ、経営陣を含め全社一丸となり推進することで、Responsible AIを実現していくことが求められているのです。
