Microsoftのイベントと「AI PC」で一気に上昇する要求スペック 大きく変化するAI PC時代のPC選び

Microsoftのイベントと「AI PC」で一気に上昇する要求スペック 大きく変化するAI PC時代のPC選び

 Microsoftは5月20日の午前10時(米国太平洋標準時)にスペシャルイベントを開催する(日本時間では5月21日午前2時)。イベントは米ワシントン州シアトルにあるMicrosoftの拠点で行われることになるが、この模様は例年のごとく一般公開はされず、イベント終了時間にあたる現地時間の午前11時(日本時間で21日午前3時)に情報解禁が行われ、各種プレスリリースやメディアによる解禁を受けての報道が一斉に出ることになる。イベントそのものの模様も、解禁後の少し後のタイミングで動画として公開されるとみられる。

 イベントで発表されるとみられる内容は以前のレポートでも報じた通りだが、「AI PC」と呼ばれる同社やパートナーが描く次世代のPCに関する最新の取り組みや、これを見据えてMicrosoftからリリースされる「24H2」以降のWindows OSについての説明が行われる。

 加えて、同社自身がそれらを踏まえて発表する、Snapdragon X Eliteを搭載したWindows on Armベースの最新PCである「Surface Pro」と「Surface Laptop」も披露される見込みだ。特にSurface LaptopについてはArmベースの製品は初となり、ある意味で2024年後半以降のPC市場を占う指標のような製品となるだろう。

 興味深いのは、前述のイベント情報の解禁時間にあたるタイミングでASUSTeK Computer(ASUS)が「Vivobook S 15」の新製品を発表することを予告している。

 言うまでもなく、解禁時間に合わせてのSnapdragon X Eliteを搭載したWindows on Armベースの最新PCであることはほぼ間違いない。実は、以前のレポートでも触れたように、2024年のWindows on Arm最新ハードウェア発表においては“2段階”での発表が予定されていたと筆者は聞いている。

 過去の例でいえば、MicrosoftはOEMメーカーのPC発表と自社のPC発表のタイミングは必ずずらして行っており、パートナーに対して競合製品をアピールしないよう一定の配慮を見せていたことが知られている。そのため、今回についても「OEMの発表は(6月初旬開催の)COMPUTEX TAIPEI 2024で」といった話だったようなのだが、最終的にこの計画はキャンセルされ、同じタイミングでの情報解禁となったようだ。

 ゆえに、今回のスペシャルイベントではおそらく同社初となる「Surfaceを含んだOEMのPC製品を一堂に紹介」といった体裁を採ることになるのかもしれない。

スペシャルイベントでは何が発表されるのか

 Microsoftが出資を行い、実質的にAI方面でのメインパートナーとして機能しているOpenAIだが、5月13日(米国時間)に「GPT-4o」を発表している。カメラ映像を介してのマルチモーダルの処理強化に加え、従来のGPTに比べ処理速度が2倍になったことでレスポンスが向上しており、より自然な形で対話が可能になっているのが特徴だ。

 現在、MicrosoftではこのGPTのベースになっている大規模言語モデル(LLM)を応用して同社製品群のインタフェースを強化する「Copilot」の名称が付くサービスを水平展開しており、この波はWindowsにも到来しつつある。当然ながら、次世代Windowsもまたこの動きとは無縁ではない。

 イベントではMicrosoftの最新の「AI」への取り組みについて言及が行われると思われるが、その一部はWindows上で展開され、実際にデモンストレーションを交えて披露されるだろう。

 実際に搭載が見込まれる機能についてWindows Centralのザック・ボーデン氏が言及しているが、「AI Explorer」「Windows Studio Effects」「Live Captions」については各方面の報道でもたびたび触れられている。

 AI Explorerは説明を聞く限り、既に廃止されている「タイムライン」のAI版のような機能で、過去の作業記録を自然言語による対話で再現できるというものだ。該当する機能は「Recall」と呼ばれているが、従来との違いはNPUとLLMを利用する点で、インタフェース的にはCopilotの一種に近いものと考えられる。

 Windows Studio Effectsについては既存機能の強化版で、背景の入れ替えのみならず、人物画像の最適化などをリアルタイムで施せる。Live Captionsについては、Windows上で再生されている音声に対してリアルタイムで好みの言語のキャプションを表示させることができる。アクセシビリティー機能であると同時に、リアルタイム翻訳も担っている。

 だがおそらく、このイベントでの最も大きなトピックとなるのは「ローカルLLM」だろう。特に生成AI(Generative AI)を“オンデバイス”で動作させる仕組みとなる。現状でもPC上でLLMを動作させることは可能だが、大きく2つのボトルネックが存在する。

 一般に、LLMにおける性能の優劣の指標の1つにパラメーター数があり、パラメーター数が多いほど複雑な(より多様な)処理が可能になるとされている。これに学習データ量(トークン)などの要素が加わることで、対応可能な受け答えの幅が広がることになる。

 これら数値が大きいほど“優秀”なLLMと言えるかもしれないが、難しいのは学習データ量が増えるほどLLM(モデル)のサイズが大きくなり、パラメーターが増えるとその処理のために高速なプロセッサやデータを展開するための“メモリ”が必要になるというワナがある。

 それゆえ「でかけりゃいいもんじゃない」という図式があり、実際に公開されているLLMも用途に応じて複数の学習データ量やパラメーター数のモデルが用意され、実行環境に合わせて最適なものを選ぶことが重要になる。

 例えば1年半前に登場して話題となったChatGPTだが、ベースとなったGPT-3.5のパラメーター数は1750億、つまり「175B」だと公表されている(BはBillionの略)。細かい部分は省略するが、LLMを「推論」で実行する場合に要求されるメモリは最低でも「○○B」で表現されるパラメーター数の「○○」の部分の1~1.2倍程度の「○○GB」のメモリが必要で、「学習」を行う場合はさらに10倍程度のメモリが必要になるとされている。

 比較的優秀で大規模なローカルLLMでは70Bや130Bといったパラメーターが設定されているが、それぞれ80GBや150GB程度のメモリが最低限必要ということになる。加えて、これらを高速で処理するための「プロセッサ」と「メモリ」が必要となるわけで、この条件を満たせなければレスポンスが“非常に遅い”LLMとなってしまい、実用に耐えないというわけだ。

ローカルLLMを実行するための“AI PC”

 なぜローカルLLMが必要になるかだが、理由は2つ考えられる。

 1つは前述のレスポンス性で、ある程度汎用(はんよう)的な処理についてはChatGPTのように全ての処理をクラウド側に投げて回答を待つのではなく、ローカル側で処理してしまった方が素早いレスポンスが得られるからだ。

 もう1つはOpenAIなどのLLMを開発する企業や、Azureという巨大なクラウドを運営するMicrosoftの懐事情にあるが、巨大LLMを動かすデータセンターを運用し、世界中のユーザーの問い合わせ要求に応え続けるのはネットワーク的にも電力的にもコスト的な負担が大きく、ある程度をローカル側に分離したいという欲求だ。

 幸い、昨今のスマートフォンやタブレットを見れば分かるように、ローカルにあたる“エッジ”デバイスについても満足がいく性能を持つようになり、こうしたワークロードの分離はいいアイデアといえる。

 たびたびウワサされるが、「MicrosoftがWindowsで課金モデルを採用しようとしている」といった話についても、金銭的負担の元凶の1つであるCopilotなどの動作負担をローカルに落とし込めれば、現在の利用モデルがそのまま継続される可能性が高い。

 さて、ここからが問題となるが、ローカルLLMを実行するためにはどれだけのパフォーマンスが必要になるのか。まずプロセッサだが、「学習」で有効となるのはGPUだが、「推論」の実行にあたってはやや性能過多であり、消費電力を含む実行効率面でもその動作に特化したNPU(Neural Processing Unit)に軍配が上がる。

 前回も触れたが、MicrosoftがAI PCで要求しているとされる「NPUで40TOPS」という数字では、CPU+GPU+NPUではなく、あくまでNPU単体での性能基準を設けている。少なくともNPUだけでローカルLLMの推論エンジンを“回せる”程度の実効性能が「AI PC」には必要ということなのだろう。

 そしてやっかいなのがメモリだ。学習や推論のいずれにおいても、これらの処理をGPUで実行する場合、GPU上のメモリ容量が必要になる。CPU側のメインメモリやSSDのような高速な外部ストレージを利用することも可能な仕組みもあるが、処理速度が一気に遅くなってしまう。

 重要なのは容量に加えて「メモリの帯域幅」で、ゲーム利用を想定したグラフィックスカードなどは搭載メモリが少ない製品もあり、LLMとの相性が必ずしもよくないという問題がある。「LLM開発者は大容量メモリを搭載したMac Studioを導入すべし」といったエントリーが公開されて話題になるほどで、Unified Memoryによる“高速大容量”という両条件を満たしたMac Studioが脚光を浴びる理由はこの点にある。

 話をWindows on ArmのAI PCに戻すと、NPUで40TOPS、搭載メモリで16GBということで、決して大規模向けではないものの、おそらくは「ローカルLLMを実行できる最低ライン」がこの水準だとMicrosoftでは認識しているのではないだろうか。

トレンドが大きく変化したPCハードウェアの世界

 WindowsというOSがあり、このOS上で動作するアプリケーションを実行できるだけのスペック……というのが、これまでのPCハードウェアの位置付けだった。

 現在、ユーザーが望むアプリケーションの処理の幅は数年前と比較しても広がっており、その実行環境であるOSもまたその変化の波にある。OSが変化したのであれば、ハードウェアに求められる要求もまた変化する。現在PCの世界は、10年あるいは20年単位でやってくる大きなトレンドの変化に直面しつつある。

 まず、AIというニーズに特化したNPUという処理機構の標準搭載だ。スマートフォンなどでは数年前から既に顕在化していたものの、Intelでいえば「Core Ultra」の名称でリリースされている“Meteor Lake”(開発コード名)の世代で初めて採用された。

 もう1つはメモリの問題で、これまでWindowsの実行では長らく最低ラインとされてきた「4GB」の壁が一気に「16GB」まで拡大された。帯域も重要で、おそらく少し先の時代ではDDR5以上が標準とされるのだろう。

 実はこれに関して興味深いトピックが2つある。1つは先日のイベントで発表されたiPad Proに搭載される「M4チップ」で、もう1つはIntelの次期モバイルプロセッサである「Lunar Lake」のリーク情報だ。

 まずM4だが、SoC内のNPUが(Apple Siliconで)前モデルのM3に比べて大幅に強化されており、18TOPSから38TOPSへと大きくジャンプしている。他方で、トランジスタ数はM3が250億なのに対し、M4では280億と、NPUにおける性能ジャンプを説明できるほどには伸びていない印象がある(性能はある程度トランジスタ数に依存する)。

 これに関して、先日西川善司氏が自身のYouTubeライブで興味深い指摘をしており、NPUのアーキテクチャ変更があり、推論エンジンに特化する形で改良が加えられたのではないかとの推察をしていた。

 推論エンジンでは、行列の積和で利用される浮動小数点の数値形式において「○.○○×10^△」で示される仮数(○.○○)の精度よりも、パラメーターの複雑性に対応できる指数(△)の数字が大きい方が重要という傾向があり、実際に通常の16bit浮動小数点(FP16)よりも精度を落とした「BF16」であったり、整数型であるINT8よりも小さいINT4などのサポートを行う処理プロセッサが登場するなどしており、こうした機能追加が行われたのではないかという考えだ。

 一度に処理するデータが半分になれば、単純計算で倍のパフォーマンスが出るので、処理の実行数をカウントする「TOPS(Tera Operations Per Second:単位秒あたりに何兆の命令を実行できるか)」もまた一気に倍加するわけだ。

 もう1つはIntelのプロセッサに関するリーク情報だ。Meteor LakeがNPUの性能面でライバルと比較して不利だというのは何度か触れているが、Intelでは次世代のLunar LakeでAI性能において現状の3倍(34TOPSから100TOPS)へと向上すると述べており、おそらくは同プロセッサを搭載したノートPCが出荷される2025年以降に期待を込めてアピールしている。

 このLunar Lakeについて、「Core Ultra 5 238V/234V」の型番とされるプロセッサの詳細スペックがリーク情報として出回っており、その中に「16GB/32GB On-Package LPDDR5x Memory」という表記がある。つまり、メインメモリがパッケージに封入される形となり、16GBと32GBの2タイプでSKUが分かれている。

 推測だが、これはApple SiliconのUnified Memoryに近いもので、拡張性が制限される反面、メモリの帯域幅が拡大して高速アクセスが可能になると考えられる。前述のように、ローカルLLMの快適さを決めるのは「メモリ容量と速度」であり、ノートPCのメモリ容量の最低ラインを16GBに設定しつつ、より高速アクセスを可能にして「AI PC」に最適化した形を模索しているのではないか。

 Lunar LakeとArrow Lakeの世代では、長年に渡ってサポートされてきたHyper-threading Technologyが削除されることになるが、Meteor Lakeの世代に比べても、よりNPUを含む周辺プロセッサに処理の比重が移りつつあることがうかがえる。

 このように、2024年後半から2025年以降に登場するPCは、そのアーキテクチャがAI PCに特化する形で変化していく。おそらくだが、ミドルレンジ以上のPCはその傾向がより強くなるだろう。

 一方で、従来ながらのPCアーキテクチャも変わらず併存していく時代がしばらく続き、少なくとも2025年10月14日にやってくるWindows 10の延長サポート終了から、Windows 11の“次”の世代のOSが登場するくらいまでは、アーキテクチャの移行期間になるのではないかと考える。

 AIに対応したアプリケーションのニーズ次第では、要求パフォーマンスが一気に上昇する時代がやってくるわけで、PC世界が久々に大きく動く面白いタイミングになるかもしれない。

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏