ついに登場したアップルの生成AI「Apple Intelligence」を知る7つのポイント…ChatGPT連携や日本語対応の状況
アップルは6月10日(現地時間)、年次の開発者向けイベント「WWDC24」を開幕。基調講演のなかで、生成AIを取り入れたアップルのAI機能「Apple Intelligence(アップル インテリジェンス)」を初めて発表した。
マイクロソフトやグーグルを始めとする巨大IT企業が生成AIを自社サービスに積極的に取り入れるなかで、これまでアップルは取り組みの遅れが指摘されてきた。
満を持しての登場となったApple Intelligenceは、iOSやmacOS上で動作し、AIによるアプリ間連携と、プライバシー保護にこだわった設計になっていることが見えてきた。あわせて、ChatGPTで知られるOpenAIとの連携も公表している。最注目といえる、Apple Intelligence特徴を7つのポイントで解説する。
なお、基調講演では、iPhoneやiPad、Mac向け新OSと新機能を披露している。各OSはすでにパブリックベータ版の提供が開始されており、正式版は2024年秋に展開される予定だ。
1. プライバシーを重視した「AI」
Apple IntelligenceはアップルがiPhoneやiPad、Macで今後展開する、機械学習や生成AI機能の総称だ。
動作環境として、A17 Pro(現状はiPhone 15 Proシリーズのみ)や、M1〜M4チップを搭載した端末(iPad、Mac)であることが条件で、AIの処理にクラウドを使わない「オンデバイス処理」を中心に実行するという。
ユーザーのメールや連絡先、写真、ウォレット内のチケットなど、さまざまな個人的な背景情報(アップルは「パーソナルコンテクスト」と呼ぶ)を読み取った上で、AIがユーザーの質問に答えたり、文章案や画像を作成したり、アプリを操作することができる。
2. 「OSの機能」として使えるAI文章ツール
ビジネスにおいて一番役に立ちそうな機能が、文章周りのAIツールだ。
具体的な機能としては、テーマに合わせた文章の生成や、既存の文章のリメイク、文章を正確に改める校正などに使える。大規模言語モデル(LLM)が得意とする生成AIならではの機能だ。
既存のチャット型生成AIでも似たようなことはできるが、Apple Intelligenceの強みは、OSに統合されていることでより自然にシームレスに使えること、そして個人の背景情報(パーソナルコンテクスト)をある程度理解しているという点にある。
OSの機能として実装されているため、言ってみれば多くの「文字を入力するアプリ」で使えるというのも特徴の一つだ。
3. Siriが本当の「AIアシスタント」になる
13年前に登場したSiriはパーソナルアシスタントとしてさまざまな機能が今日まで追加されてきた。ただし、従来は基本的に「想定される質問に対して、ある程度決まった答えを返す」ものだった。
しかし、Apple Intelligenceを取り入れた新しいSiriは、「AIアシスタント」と呼ぶのに遜色ない機能を備えているようだ。
例えば、人に話しかけるような、多少の言い間違いは類推して理解してくれる。また、Siriとの過去のやりとりの内容(文脈、コンテクスト)を覚えているため、例えば特定の場所の天気を聞いた後に、「ここからそこまでの距離は?」と代名詞を使って聞いても、現在地から直前に聞いた場所への道順を地図で示すことができる。
また、表示している「画面の中の情報」も読み取ることができる。例えば、メッセージアプリで相手が住所を送ってきた際に「画面の住所を連絡先に追加して」と指示すれば、開いているメッセージの相手から登録先の連絡先を特定し、住所欄に送られてきた住所の文字列を登録する、といったことも可能になる。
なお、Apple Intelligence対応のSiriでは、テキスト(文字入力)での指示も可能だ。これまでは基本的に音声での指示だけだったが、外出先など声の出しにくいところでもアシスタントとしてのSiriが使えるようになる。
4. アップル版「画像生成AI」も登場
アップルが取り組む生成AIは、テキストのみならず「アップル版画像生成AI」の機能もある。Apple Intelligenceの中の「Image Playground」という機能がそれだ。
同機能では、一般的な画像生成AIのように細かいプロンプト(命令文)を入力する必要はなく、テーマや衣装といった「コンセプト」と、生成したい絵の単語、場合によっては写真などを入力するだけで、画像を生成する仕組みになっている。
基本的にはそれぞれのアプリに組み込まれる機能のため、メッセージアプリでそのまま画像として送ったり、プレゼンツール「Keynote」アプリで発表資料に挿入するといった使い方になる。
興味深いのは、iPadとApple Pencilとともに使った場合だ。
iPadOS 18ではメモアプリに「Image Wand」と言う特別なペンツールが追加される。
すでにこれまでのペンで書いた簡単なスケッチがメモにある場合、Image Wandでそのスケッチを囲むように円を描くとノートの中にImage Playgroundが呼びされ、スケッチ自体やメモ内の手描き文字の内容を把握して、画像を生成できる。
5. iPhoneの通話時に使えるAI要約機能
iPhone特有のApple Intelligence機能も存在する。
その象徴的なものが、電話アプリとの統合だ。これにより、電話アプリでもメモアプリのように録音、文字起こし、内容の要約ができるようになる。
なお、電話アプリの録音時は録音を始める時に通話相手に録音されていることが通知される仕組みになっている。
なお、「メモ」アプリでも録音、文字起こし、内容の要約が一気通貫に生成できる新機能も搭載される。
6. オンデバイス処理しない場合も。代表例はChatGPT連携
Apple Intelligenceの肝は、これらのOSに統合された機能を、アップルシリコンを使ったオンデバイス処理でプライバシーも保つところだ。
アップルによると「Apple Intelligenceがデバイス上での処理が可能か判断して、さらに大きな演算能力が必要な場合はタスクに関連するデータのみをサーバーに送信する」としている。
サーバーに送信した場合もデータは暗号化され、アップルはデータをサーバーに保存したままにしたり、アクセスすることはない、という。
AI処理にクラウドを併用するパターンとして代表的なものは、ChatGPTとの連携機能だ。
OpenAIもWWDC基調講演終了後に、アップルとの提携を発表。新しくなるSiriからChatGPTに質問を投げたり、文章ツールなどから、その機能を呼び出すことが2024年内にできるようになる。
モデルとして使われているのは最新の「GPT-4o」だと公表されている。単に無料の範囲で使うだけならアカウント連携も必要がない。
有料版である「ChatGPT Plus」などに契約しているユーザーであれば、アカウント連携することでiPhoneやiPad、Macのそれぞれの機能から「DALL-E 画像生成」などの有料機能を呼び出せる。
7. ChatGPT以外も今後対応。ただし、日本語は当初「非対応」
アップルはApple Intelligenceの今後の展開として、OpenAI以外のサードパーティー製のAIモデルにも対応する計画があることや、2025年にかけて、進化したSiriでより個人向け機能を強化していく方向性を示している。
ただし、直近の展開としては、「英語圏優先」で展開していく。具体的には、これらの機能は2024年夏からアメリカで英語向けに試験的に実装されていき、日本語を含む「英語以外の言語」には来年2025年になると正式にアナウンスされている
なお、実装にあたっては、一般ユーザー向けには、iOS 18、iPadOS 18、macOS Sequoiaのベータ機能として提供される予定(2024年秋頃)で、英語版であっても一般に使えるようになるまでにはやや時間がかかる。
ちなみに、OpenAIのGPT-4oは日本語でも利用できるため、Macなどで動く文章ツールからのChatGPT呼び出しで日本語が使えるかもしれないが、文章ツール機能自体をアップルが国や地域で限定する可能性もある。
いずれにせよ、日本で本格的に「アップルの生成AI」を使いこなすためには時間がかかる、というわけだ。
