「Apple Vision Pro」を先行体験! かぶって分かった上質のデジタル体験

「Apple Vision Pro」を先行体験! かぶって分かった上質のデジタル体験

 Appleが「初の空間コンピュータ」として発表した「Vision Pro」。これをかぶって本体を右手でつかみ、人差し指がくる位置にあるデジタルクラウン(リュウズ)を押し込むと、目の前にiPhoneのホーム画面にあるようなアプリのアイコンが突然、現れる。

 どんなアイコンがあるのだろうと視線を動かすと、視線の先にあるアイコンが立体的に動いて反応する。起動したいアプリアイコンに視線を合わせた状態で、右手の親指と人差し指をくっつけると、アプリが起動する。

 話題のVision Proを一足早く、日本のメディア関係者としては1人だけ先行して体験する機会を得た。筆者がこれまでAR/VRのヘッドマウントディスプレイ(HMD)に対して懐疑的で「Appleには出してもらいたくない」と否定的なことばかりを書いていたので狙い撃ちをされたのかもしれない。

最高品質のデジタル体験を得られる「Vision Pro」

 話を元に戻そう。

 先の操作方法で「Encounter Dinosaurus」(恐竜との遭遇)という名のアプリを起動した。するとリビングルームの壁際にアプリのタイトルが表示される。映像なのは分かっているが、壁にタイトル文字の影が落ちているせいで、不思議なリアルさを感じる。しばらくするとその上をチョウがひらひらと舞い始めた。そのチョウに向かって指を伸ばす。するとチョウが近づいてきて指の先に止まった。

 このように書くと、何か素敵なものを想像するかもしれないが、改めて指先のチョウをよく見てみると脚の節目までかなりリアルだ。虫が苦手な筆者は、一瞬ゾッとして指を動かしてしまった。すると、それを感じたのかチョウも指から離れて壁に向かって飛んで行った。

 続いて、壁が真ん中から2つに分かれて、その向こうに荒野が現れた。しばらくするとその荒野の左側からティラノサウルスが現れ、別のティラノサウルスと戦い始める。

 やがて、ティラノサウルスが私の存在に気がついたのか振り向き体勢を変える。

 ここまでのできごとは、全て壁に開いた穴の向こう側での出来事だったが、迫ってきたティラノサウルスは壁際の穴を飛び出してリビングルームに侵入してきた。絶体絶命か!?

 幸いなことに、途中で戦意を喪失したのか、襲ってくる様子はなさそうなので、こちらから歩いて近寄ってみた。ウロコのような肌など、かなり細かい部分までリアルに再現されていた。

 なるほど、恐竜が登場するVRのコンテンツは他にも見たことがあるが、「テクノロジーと魔法の違いが分かっている会社が作ると、こうも体験が変わるのか」というのが筆者の感想だ。

 文字だけで読まされていると、これまでのVR体験と何が違うのかと疑問に思う人もいるだろう。

 人々がある体験を「魔法」と感じるか否かは、「何ができるかではなく」、「どのような品質で体験できるか」で大きな違いが生まれる。今回の先行体験は、まさにその違いを体感するできごとだった。

 では、なんでAppleの体験は魔法なのか、頭の中でその要素を因数分解してみた。

 おそらくLiDARというセンサーが部屋の大きさをミリ単位で正確に把握しており、そのおかげで文字タイトルが壁に落とす影の表示位置がリアルなこともその1つだろうし、壁に開いた穴がピッタリと壁の底辺と重なっているあたりもそうだろう。

 指に止まったチョウの脚をリアルに感じる圧倒的な映像の解像度も、こうした魔法と感じさせる要因だと思う。

 さらには目に見えている映像の位置と、空間オーディオ技術で音が聞こえてくる向きがピタリと合っていることも重要なポイントだろう。これが少しでもズレていると、「そうだった、これはリアルではなく偽の体験なんだ」と自覚してしまう。

 ゴーグルのほぼ真下の指の動きまでキャッチしてくれるカメラや、視線の向きを正確に捉える技術も重要だが、なんといってもポイントは、こうした要素の歯車1つ1つが精密にからみ合っていることにある。

 もちろん、これだけの品質を追求するからには、3499ドル(約50万円)と決して安いとは言えない製品になっている。

 基調講演では、M2搭載のPCとディスプレイ、さらに音響設備をそろえるのに比べれば割安と語っていた。確かにそうかもしれないが、それだけに誰でも買えるフレンドリーさは無くなってしまっている。

 しかし、こうしたコンピュータ製品は時間が経てばより優れた性能のものが、より安く作れるようになる。

 まずは何よりも「魔法のような体験」を大事に、最初の製品では「妥協しなければここまでの体験を作ることができる」という最高の状態を見せて、アプリを作る開発者にもそれに近い高い水準を維持してもらおうというのが狙いなのかと思った。

PC、スマートフォンに続く新しいコンピューティング環境

 このVision Proで、もう1つ良いなと思ったのが、VRやMRはもちろん、同社のティム・クックCEOが好きだというAR(拡張現実)という言葉も使わずに製品が目指す体験を「Spatial Computing(空間コンピューティング)」と呼んだことだ。

 これまでのHMDは、VRカメラで撮った立体映像など特殊なコンテンツを楽しむメディアプレイヤー的な役割が主だった。

 これに対してAppleが目指しているのは、マウス操作を広めたMac、タッチ操作を広めたiPhoneに続く新しいコンピューティングスタイルの創造であり、この新しい機器ならではの新しいライフスタイルを広めることにある。

 今回は体験できなかったが、基調講演では視界に映ったMacの画面を、空中に拡大表示して操作する様子やiOS用のアプリを使う様子も紹介されていた。

 つまりVision Proをつけていれば、普段、MacやiPhoneで行っていたことも、デバイスを切り替えず行えるのだ。

 今回、実際に体験できた空間コンピューティングの体験で、最も素晴らしいと思ったのは「フォトアルバム」のアプリだ。

 iPhoneで撮ったというパノラマ撮影の写真が視界いっぱいに広がってVR的に楽しめる。

 いや、それだけではない。Vision Proについている3Dカメラで撮影した写真や動画は、実際の風景と比べつがつかないくらいに、リアルかつ立体的に表示/再生される。撮影されている範囲はやや狭いのだが、立体写真の境界線がきれいにぼかされていて、映画の中の回想シーンのようなとても良い雰囲気で表示されるのだ。

 フォトアルバムの写真は部屋の中、視線の先に表示させることもできるが、ゴーグルの右上についたデジタルクラウンを時計回りに回すと、それまで写真の背景として見えていた部屋が暗くなり、真っ暗な空間に写真だけが浮かび上がっているような没入状態でも楽しめるようになる(周囲の様子が分からないVRゴーグルを被ったような状態だ)。

 この没入度の調整だけで終わらせず、「こんなところまで考えていたのか」と驚かされる工夫がある。人が近づいてくると、その人の周囲だけ明るくなってちゃんと姿が見えるのだ。

 VRゴーグルのように、周囲をシャットアウトして仮想空間だけに閉じこもるのではなく、ちゃんと現実空間とのつながりも断たない。こうした社会性も大事にする姿勢もAppleらしければ、それを形に変える体験の作り込みの良さもAppleらしい。

 Vision Proを装着している他の人との、FaceTimeでのビデオチャットも体験してみた。相手はゴーグルをつけた状態で現れるのかと思ったら、付けていない状態で現れた。これ、実は機械学習で作られた合成映像だ。

 あらかじめVision Proのカメラで自分の顔をスキャンしておくと、スキャンした顔に内側についたカメラで撮影した目を合成してゴーグルをつけていない状態の顔を再現してくれる。しかも、リアルに表情も再現してくれるのだ。

 確かによく見るとCGだと分かるのだが、しばらく話していると、そんなことも忘れてしまうくらいリアルに感じられる出来栄えだった。

最高の体験を提供するために利用ユーザーを徹底調整

 Vision Proで、もう1つ感心したのがその操作性の良さだ。親指と人差し指をくっつけてクリックする操作は、Vision Proが初めてではなく、これまでにいくつかのAR/VRデバイスで試したことがある。しかし、うまく認識されず操作に戸惑うことが多かった。

 Vision Proでは少し意地悪にゴーグル真下にある膝上など、かなり難易度が高そうな場所で操作をしてみたが、ほぼ1度も逃さずにクリックが認識された(もう少し意地悪をすれば良かったと思ったほどだ)。

 操作は操作したい対象を目で見て(視線を合わせて)クリックというのが1番の基本だが、これ以外に、2本の指を閉じて上下あるいは左右に引っ張ってスクロールという操作もよく使う。

 極めてシンプルなので、すぐに慣れることができるが、それ以上に大事なのが視線の向きの認識も、クリック操作の認識も正確に行われるからだろう。

 これは初回利用時にしっかりと調整をするからこそ実現している。例えば空間オーディオに関しては、AirPods Proのパーソナライズド空間オーディオ同様に、あらかじめ自分の耳の形の写真を撮ってカスタマイズする。

 この調整のおかげで、映像の位置と音の位置がピタリとあった立体再生が可能になる。ミュージシャンが自分のためだけに歌を歌ってくれる映像を体験したが、ちゃんと声は彼女の口から、そしてピアノの音はグランドピアノから、コーラスは右側に立っているコーラスの女性の方から聞こえてきた。

 正確な視線コントロールは、初回起動時に視線のキャリブレーション(調整)で行う。画面上を点が六角形を描きながら動くので、それを(頭を動かさずに)視線だけで追う。これで自分の視線への最適化が完了する。

 なお、目のピントに関しての調整だが、筆者は目がいいので、そのまま無調整で利用できたが、目が悪い人は専用のレンズを作ってそれをVision Pro内に装着する。この特別なレンズはZEISSが作ってくれるそうだ。

 このように、Vision Proはユーザー1人のために徹底してカスタマイズをした上で使う製品となっているが、それだけに現時点では最高クラスの体験を楽しめる製品になっている。

 発売後にはApple直営店でのデモ展示も行われるということだが、どのような運用でデモをするのかは気になるところだ。

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏