アップルの「独自開発AI」の誤解。ChatGPTは“おまけ”だと断言できる、深い理由【現地取材】
アップルが自社製品へのAI組み込みを加速させる。
年次開発者会議「WWDC24」初日(現地時間6月10日)の基調講演で、アップルは「Apple Intelligence」を発表した。
iPhoneやMac、iPadに搭載されることになるAI機能だが、他社が実現しようとしているものと同じようでありながら、かなり明確に「違う立ち位置」からスタートしている。
現地での取材から、アップルの狙いとApple Intelligenceの価値について考えてみよう。
ChatGPT連動は「付加要素」にすぎない。本筋は他の技術
今回のWWDC・基調講演でAI関連機能が発表されるのは「既定路線」だった。
基調講演のスタート前も、会場にOpenAIのサム・アルトマンCEOが来ていることも確認されていた。「うわさ通りOpenAIと提携するのか」と、アップル本社があるApple Park現地会場も少しざわついていた。
確かにアップルはOpenAIと提携した。iOSなどからChatGPTを呼び出せるようにもなった。ユーザーはアカウントを新たに作る必要も、追加費用を払う必要もない。
しかし、実際に説明を聞いてみると、OpenAIとの提携自体は付加的な要素に過ぎず、Apple Intelligenceの主軸ではないことが見えてくる。
アップルのソフトウェア担当シニア・バイスプレジデントのクレイグ・フェデリギ(Craig Federighi)氏は、今回の発表を受けて開かれた記者向けトークセッションの中で次のように語っている。
「アップルの枠の外で強力なAIモデルを使いたい場合もあるでしょう。その場合には、好みのものを選びたいはずです。
(中略)ですから最終的には、ユーザーが選択できるようにしたい。例えばグーグルのGeminiとも連携できるようになることを楽しみにしています」(フェデリギ氏)
騒がれるChatGPTとの連携だが、要はこれは「ウェブブラウザーで検索エンジンを使う」ようなものだ。
強力な生成AIで何かをしたい時、外部のサービスへと情報を送る手段を用意するわけだ。送るかどうかは許諾を求め、自動で連携するわけではない。
そして、設定によって検索エンジンが切り替えられるように、「アップル製品の外で使うAI」を選べるようにする……ということだ。つまり、OpenAIは「最初の提携先」に過ぎない。
文脈と行動履歴から生成する「人に近い対話」
ではアップルの考える「Apple Intelligence」とは何だろうか?
短く説明するなら、「自分の持つデバイス内に閉じることで、セキュリティ・プライバシーを重視しつつスマホでも動く動作効率の良い、アップル製AI群」ということになる。
アップルのティム・クック(Tim Cook)CEOは、Apple Intelligenceを「パーソナルインテリジェンス」と呼んだ。
現状のクラウド型のAIは「ネットの向こうにある巨大なAI」である。一方でApple Intelligenceは「基本的にiPhoneやMacの中で動作が完結する、非常にパーソナルな存在」ということになる。
Apple Intelligenceには多数の機能がある。
ただ、その中でも特質がわかりやすいのは、音声アシスタント「Siri」の強化だろう。
Siriは今のバージョンであっても、声で命令すると機能を呼び出してくれる。
しかしあまり賢いわけではなく、声を認識して、そこから決まった命令を実行するという、声を使ったリモコンのようなものだ。
だが、Apple Intelligenceが組み込まれると、人間の応答により近い動作をするようになる。ポイントになるのは「機器の中での行動の把握」と「対話中の文脈理解」だ。
例えば、ある場所の天気を調べたとする。その後に人は「そこへの移動方法」を求めることが多いだろう。
今までなら場所を指定して移動方法を手作業で調べたかもしれないが、Apple IntelligenceベースのSiriになると、「そこへはどう行けばいい?」と聞くだけでいい。
自分が場所に関する情報を調べていた、という行動を、Apple Intelligenceが理解し、文脈を踏まえて反応するからだ。
また、画面上に表示されている内容も理解しているので、住所や電話番号などの記録も、iPhoneを触ることなく声だけでやってもらえる。
アップル製品の中に自分を助けてくれるアシスタントがいるという、Siriが生まれた頃の理想を実現しようとしているわけだ。
独自開発AI+クラウドでApple Intelligenceを処理
他方で、こうしたことを実現するにはいくつかの留意点がある。
1つ目は、「あらゆる情報を処理するには、相応に高度なAIが必要になる」ということ。
生成AIが注目されるのは人間に近い回答を実現できるからだが、複雑な内容になればなるほど、必要な性能は上がっていく。
アップルで機械学習とAI戦略を担当するバイスプレジデントであるジョン・ジアナンドレア(John Giannandrea)氏は、Apple Intelligenceの背景で動いているAIについて次のように説明した。
「さまざまなユースケースに合わせて、(1つの大きなAIモデルではなく)さまざまなサイズのさまざまなモデルを用意しました。
そして、多くの時間と労力を費やして、iPhone上で実行できる約30億パラメータのAIモデルが、最終的に機能します。
ただ、ユーザーはAIのモデルサイズを気にしてはいません。『機能する』ことを気にかけているのです」(ジアナンドレア氏)
Apple Intelligenceでは複数のAIモデルが使われている。クラウド上で動くGPT-4などに比べれば小さなものだが、それでも性能はいる。
アップルはAppleシリコンのうち「M1からM4まで」を搭載したMacとiPad、そして「A17 Pro」を搭載したiPhone 15 Proシリーズを動作対象にした。つまり、多くのiPhoneでは動作しないわけで、比較的、Apple Intelligenceを使うハードルは高い。
使っているAIモデルはアップルオリジナルのもので、「数年前から高品質なデータを集めて構築を続けてきた」(ジアナンドレア氏)という。
さらに、処理負荷が大きくなると、アップルのサーバー側でも処理の一部を担い、機器自体の消費電力を抑えるという。
そのサーバーはMacと同じAppleシリコンで構築されていると語る。
フェデリギ氏は「Appleシリコンなのでエネルギー効率は良い。そして、アップルのデータセンターはすべて再生可能エネルギーで動作している」とする。
iPhoneはすべてを知っているが「アップルはなにも知らない」
一方この話は次の「懸念」にもつながる。それは「機器の中での自分の行動を、AIが知っている」という事実だ。
スマホにしろPCにしろ、その中での行動は極めて個人的なもので、他人には知られたくない。
そのため各社は、パーソナルな内容を処理するAIの動作に「オンデバイスAI」を活用している。基本的にはアップルも同様だ。
だが、アップルはオンデバイスAIだけでなく自社クラウドも使うとしている。それはどういうことか?
アップルはここで彼らが「Private Cloud Compute」と呼ぶ技術を使った。
これはサーバーを利用するものの、処理ごとにプライベートな形で演算力を使い、処理が終わったら情報を一切残さない。
Apple Intelligenceでは機器内のデータや履歴は個人のデバイス内にしか残らず、アップルもその内容を知らない。
そもそもサーバーにその種のデータはなく、Private Cloud Computeに対し、処理のたびに匿名化された情報を送って終わったら消す、という形になっている。
「iPhoneはあなたのすべてを知っているが、アップルは何も知らない」というわけだ。
アップルは頑ななまでにプライバシー重視をアピールしてきたが、それがAIの運用でも効いている。ただし、利用者から見れば「アップルがやっていることも他社がやっていることも、そこまで違っていない」ように見えるかもしれない。
そこで大きな違いを生み出すには、開発者がApple Intelligenceに対応したアプリを作り、価値を拡大していく必要がある。
結局のところそれこそが、開発者会議でAI技術をアピールする最大の理由だ。
対応は英語から。日本語が置いていかれないためには
Apple Intelligenceはまず英語版が2024年夏から試験運用される。日本語を含む英語以外の言語については、来年2025年以降に提供を開始する見込みだ。
テストには慎重を期すべき部分があり、利用範囲をゆっくりと拡大していくのもわかる。一方で「また英語からか。日本は後回し」と落胆する人もいるだろう。
それはよくわかるが、同時に「英語以外の多数の言語」も後日の提供である、という点に留意しておきたい。
基調講演会場での取材中には、近くにアメリカ国外から来たプレスの姿も多数見かけられた。「英語以外は来年」との発表があった瞬間、日本プレスと同様、彼らからもため息が漏れていた。
ネットにおいて、英語が圧倒的な利用者を持ち、影響力が大きいことは否定できない。英語から進めていくのは自然なことだ。
一方、「英語の次にサポートされるのはどこか」が重要だろう。そこで日本語が極端に不利か、というとそうではない。
例えばグーグルの「Gemini」では、英語の次に日本語・韓国語のサポートされた。
またアップルの例で言えば、今回、空間コンピューティングデバイスである「Apple Vision Pro」の発売に関しては、アメリカの次の第二陣として、日本・中国本土・香港・シンガポールが選ばれている。
日本が選ばれたのは、XR関連のソフト・サービス開発について特に積極的だからだ。
「優先サポートすべき」国であると思わせる要因があることがなにより重要だ。「収益が大きく、ビジネス的に有利だと感じさせる」か、それとも「開発者が多く、価値がある」と感じさせるのか。
今後もAIなどの進化についていくには、単にやってくるのを待つのではなく、自国の強みとはなにかを考え、「有利に持っていく」ことを考える必要もあるだろう。
