AI先進国アメリカ。AIはどれほど国の仕事を自動化できるか?

AI先進国アメリカ。AIはどれほど国の仕事を自動化できるか?

OpenAIを筆頭に、巨大テックのMetaやGoogleも含めAI業界を牽引するアメリカ。トランプ政権でますますAI時代が進んでいますが、政府機関にはどれほど採用されているのでしょうか。

米一般調達局(GSA: General Services Administration)・米国社会保障局(SSA: Social Security Administration)は、すでに職員に向けてChatGPTのようなAIを解放。米退役軍人省(DVA: Department of Veterans Affairs)では、生成AIがコードを書いているといいます。米陸軍はCamoGPTというAIツールを使って書類をチェック、多様性・公平性・包括性を排除しにかかっています。米教育省でも、学生ローンに関する質問に答えるAIを導入。

政府のAI導入の狙いは、今まで人間が行っていたタスクの自動化。年末までに国家職員の職、30万件をなくす想定です。

が、米政府のAI導入はこのまま進んでいくのでしょうか。

「我々はおかしいほどに誇張された流れの中にいます」というNPOリサーチ団体Data & Societyの研究員Meg Young氏。テクノロジー自体が、これらすべての仕事をこなせる段階にはまだないというのです。

導入されたAIは何してる?

現時点で、国が導入したAIチャットボットが主に担っているのは、メールの書き換えや文書の要約など非常に一般的なタスクです。ただし、それは今の話であって、より広く活用され、大きな責任をAIが担うのはそう遠くもないかもしれませんが。

米一般調達局、GSAでは、仕入れに関するタスクで生成AIを使いたい考え。仕入れとは、民間から役所がモノを買うプロセスがあり、例えば新たに建物を建てる場合の建築業者の選定から契約なども含まれます。役所の法的専門家が必要で、法律や条例に反しない業者選び、契約の交渉、また市民への情報の透明性も必要となる、THEお役所仕事的側面のあるプロセス。

Young氏は、AIを導入したところで、一体どれほどこのプロセスがスピードアップできるかは懐疑的だといいます。確かに、職員がたくさんの文書を調べ、要約する助けにはなるかもしれません。が、一方で、AIツールはミスが多すぎると法的専門家は指摘しており、大きな契約の場ではリスクが高く、むしろ、AIが邪魔になる可能性も。

契約書に含まれる言葉に弁護士は細心の注意を払っており、それゆえにすでに周知の言い回しがあることが多いのだそう。「もし、そこでAIチャットボットがまた違う新たな言い回しをすると、リーガルチームは膨大な時間を割かれてしまいます。最も時間の節約になるのは、コピー&ペーストなんですね」と解説するYoung氏。

AIツールを法に関することで使う場合、かなり目を光らせておかねばなりません。なぜなら、AIは正確性という点で信用度が低いからです。2024年の研究で、リーガルリサーチのため特別にデザインされ、LexisNexisとThomson Reutersがリリースしたチャットボットが、17%から33%の確率でファクトチェックにひっかかり、ハルシネーションが起きていることがわかりました。

その後、新たなリーガルAIツールがリリースされるも、アプグレ版も似たようなもの…

AIのミスとは?

AIによるミスにも、いろいろなパターンがあります。2023年、アビアンカ航空に関する訴訟では、弁護士側がChatGPTが生成した実在しないケースを提出したことがありました。また、2024年の研究では、法的推論をトレーニングしたチャットボットが、ネブラスカ州最高裁判所が連邦最高裁判所の判決を退けたと発言したことも。この研究の共同執筆者であるFaiz Surani氏は「これはありえないことで、ほとんどの高校生ならこの国の法的仕組みに反するとわかることです」。

こういうわかりやすいもの以外にも、ちょっとしたミスも多くあります。同研究では、裁判所の判決と訴訟当事者同士の言い分・争いをチャットボットは見分けることができないことも明らかになっています。

Surani氏いわく、まずプロンプト自体が不正確なことをチャットボットが認識できないこともあるといいます。例えば、架空の裁判官〇〇の判例を教えてくれというと、架空の人物にも関わらず、現実の判例を架空人物に紐づけて提出することがあったと。

法的推論はどうやらAIには難しいようです。その理由は、判決は時に覆るし、法律は変わるから。

リーガルAIは、一度取り込んだ情報を必要に応じて再び取り出し考えますが、その取り込んだときと今では状況が異なることが法の世界では多くあるのです。もっと言えば、法律は時に絶対ではなく、裁判に応じてその輪郭がぼんやりとすることがあるからです。ノースカロライナ大学の法教授Leigh Osofsky氏は「どんなにシンプルに見えることでも、裁判には常に賛成・反対意見があり、その答えにもまた賛成・反対意見があり、つまりとても不透明なものなのです」と語っています。

国民の血税はチャットボット代に?

米国内国歳入庁(IRS: Internal Revenue Service)は、一般向けのAIチャットボットは公開されていません。が、2024年の報告書には、今後AIチャットボットへ投資していく可能性も盛り込まれていました。

生成AIが、国の仕事にとって有益なのは確かでしょう。OpenAIとペンシルベニア州がタッグを組んだ先行プログラムでは、ChatGPT活用で職員の仕事が平均95分短縮されたことが明らかになりました(メールや文書の要約で活躍)。ただし、これはかなり親切丁寧な導入であり、175人の職員に、既存タスクでどこにどうChatGPTを使えるのか熟考してもらった上での導入でした。

一方で、トランプ政権による国の仕事への導入は、このような親切丁寧なプロセスはありません。「これでは、AI導入での成果なんて気にしていないのだろうと思われても仕方ありません」というYoung氏。「早すぎるのです。特定部署の仕事の流れに特化して(AIを)デザインするわけでもなければ、特定の目的を念頭に導入されるわけでもないのです」

トランプ政権は、連邦職員向けに生成AIチャットボット「GSAi」導入し、1万3000人の仕事を加速させると言いますが…。

2022年、Osofsky氏は、チャットボットによる連邦職員の法的ガイドの自動化に関する研究を実施。その結果から、公にチャットボットを活用する狙いや意味など、さまざまなインサイトがでてきました。

そこで推奨されたのは、ユーザーに、会話の相手は人間ではなくチャットボットであることを明確にわかるようにすること。また、ユーザーとチャットボットの会話には法的拘束力がないことを明記すること。わかりやすい例だと、国税チャットボットが「それは経費にあたります!」と言ったとて、税務署がダメと言えばダメ。税務署のチャットボットがいいって言いました!と言っても絶対ではないよというお話。

Osofsky氏と共に研究を行ったカリフォルニア大学の法教授Joshua Blank氏は、さらに、誰がチャットボットの開発を行い、メンテナンスをするのかという流れも明確にすべきだと付け加えています。

連邦省庁、職員のチャットボットを開発・メンテナンスするのは、いわゆるテック系の専門家。他の省庁からは独立・孤立していることが多く、情報の伝達、理解が適切ではない可能性があります。つまり、それはそのまま各部署のアップデートを知らず、チャットボットにそれが適切に反映されないリスクがあるということです。

トランプ政権が推し進めるAI化。重要なのは、その技術はまだまだ赤ちゃん段階にあること。レシピやグリーティングカードを書くのに役立っても、国の仕事をするのはまた話のレベルが違います。

Young氏は、テック企業ですらどこのどのAIがもっともメリットが大きいかわかっていないと指摘。OpenAI・Anthropic,・Googleが、政府と連携し食い込もうとしているものの、政府機関の仕事をAIがサポートするのは時期尚早、今はまだ初期段階なのです。

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏