CESから消えた「SONY」──会場の外で見えた“二つの身体”
CES 2026、外観、内装ともに一新されたLVCC(ラスベガス・コンベンションセンター)のセントラルホールに巨大な「SONY」ブースが置かれていたのは昨年までのことだ。最も奥まった、他ブースとの交わりを拒絶するかのような位置にあった、人の流れを引き込む場所は存在してない。
(この記事を脱稿した直後、ソニーグループではなくエレクトロニクス製品子会社であるソニーがTCLとの提携を発表。この件に関しては、別途、詳細な分析を明日にでも掲載したいが、そもそもCESでの展示は“ソニーグループ”が主体となり、ここ数年、テレビが主役とはなっていなかった。
そうした意味では、ソニーとCESの関係は過去数年をかけて変化していたと捉えるべきだろう。ソニーのテレビ事業は依然として競争力のある画質を誇っているが、基幹部品は生産しておらず、少量・高付加価値路線に切り替えていた)
同じ場所にあるのは規模を縮小した上でSony Honda Mobility(SHM)のブースである。
まだこのジャンルでは挑戦者にしか過ぎないSHMが、今年から北米にデリバリーが始まるAFEELAを置く場所として適切だとは思うが、ソニーという企業の持つブランド力を考えるなら、ブラビアもプレイステーションも、撮像センサーの「次の一手」を匂わせる展示もないのは少々寂しいと言わざるを得なかった。
しかし、CESから姿を消したように見えるものの、メイン会場の喧騒から離れた高級ホテル、ベラージオのスイートルームには“SONY”の文字があった。
現在は会長に退いている吉田憲一郎氏が強調していた、エンターテインメントコンテンツを生み出すクリエイターをサポートし、エンターテインメント価値を生み出していくソニーの役割。
その役割をCESのど真ん中で抽象的に見せるのではなく、制作現場と制作プロセスを踏まえた上で新しいデファクトを確保するため、密室で密度の濃いデモが行われていた。
■「車」ではなく「ロボット」としての身体性
まずはAFEELAに関して。
SHMの川西泉社長兼COOにインタビューすると、CES 2026のテーマにもなっているフィジカルAIについて冒頭で次のように話した。
「僕は自動車に取り組む前、ソニーではAIロボティクスという部署を率いていました。AIBOのようなAIが組み込まれたロボットが、私たちの原点なんです」
SDV(Software Defined Vehicle)──ソフトウェアで価値定義される自動車──とは、そもそもの“出発点”が違う。SDVが生まれてきた文脈を振り返ると、「車が先」にあり、その再定義を行うツールとしてのソフトウェアがある。
ところが川西氏のコンセプトは逆だ。
まず「人を乗せて移動する自律型ロボット」として要件を置き、そこにモビリティとしての物理的信頼性を足していく。ホンダが100年近く積み上げてきた「壊れない・止まらない・危ないことをしない」ノウハウを注入しながらも、その中心にあるのは家族の心を豊かにしてきたエンターテインメントAIロボットのノウハウ。自動運転で開放されるパッセンジャーに、より豊かな移動体験をもたらす“一種のロボット”の身体に、ホンダのノウハウを注入するという順番である。
実際にAFEELAのデモを体験すると、その思想は言葉より先に伝わってくる。
“現場のワークフロー”を取りに行った「SONY」
車両がドライバーの接近を感知してドアを開ける。ここまでは、いまどき珍しくない。
だが、搭乗者の服装や状況を拾い、こちらの反応に合わせて会話の温度を変えてくる。こういう「間」の作り方は、単なる音声アシスタントとは違う。思わずジョークをデモンストレーターに話しかけると、AFEELAはそのジョークに合わせて返答をしてきた。
車をモノとして扱うのではなく、移動時の“場”を作り出すパートナーとして設定しているのだ。これはAIBOシリーズにも繋がる考えと言えるかもしれない。
川西氏がインタビューで強調したのは“VLA(Vision-Language-Action)”という概念だ。見て、理解して、動く。VLM(Vision-Language Model)と呼ばれるAIモデルが話題になることがあるが、単に視覚を取り入れるだけではなく、それをAFEELAという“ロボットの行動”までをひと続きに設計しているという。
テスラが作る車両が、映像情報をドライバーの操作へ直結させる方向で、システムを構成しているのと似た匂いはある。しかしAFEELAがおもしろいのは、車両制御を「パッセンジャーとの対話」と同居させることだ。
フィジカルAI世代のロボットが、映像や多様なセンサー、音声などを頼りに自律的にその身体を動かすのと同じ枠組みで移動体の室内体験を作り出そうとしていた。
もっとも、これは理想論だ。
AIBOが許される“曖昧さ”は、家の中で完結する。だが公道では、曖昧さはそのまま責任問題になる。ここから先、AFEELAが“ロボット”としておもしろくなるほど、同時に“自動車”としての不自由さが増えていく──その緊張関係を、SHMは正面から引き受けようとしている。
■“現場のワークフロー”を取りに行った「SONY」
一方、ベラージオのスイートルームに陣取ったソニー本体が見せていたのは、エレクトロニクス製品を扱う“ソニー”である。一昨年よりXR(拡張現実)ジャンルの展示を強化していた同社だが、ここでは現実の空間を、手早く3Dデータ化し、さらにそれを活用して映像作品を制作する一気通貫のソリューション「XYN(ジン)」をデモンストレーションしていた。
XRやバーチャルプロダクションに欠かせない「空間キャプチャ」、「3Dスキャン」をより手軽に、すばやく、高品質に行い、それを直感的なユーザーインターフェイスで作品へと落とし込む技術だ。
なお、ここで展示されていたのは、その多くが“製品化前”のソリューションだ。年内に製品、あるいはサービスとして提供開始になるものだ。
■“数カ月を「4時間」に圧縮”するXYN空間キャプチャー
3Dデータを元に映像制作を行うバーチャルプロダクションを普及させる上で、最大の壁となるのは、背景となる3Dアセット制作にかかる数カ月という時間と、莫大なコストだった。ソニーのXYN空間キャプチャはこの問題をいくつかの技術とワークフローで解決している。
まず、ガウシアンスプラッティングをベースとして独自開発した3Dスキャン技術がある。複数の高精細画像を組み合わせることで空間情報を計算によって再現するものだが、大量の写真を撮影せねばならず、また撮影場所に関しても、ある程度のノウハウが必要だ。
そこでXYN空間キャプチャでは、撮影ナビアプリ(110枚のロジック)現場での撮影をガイドするアプリを提供する。撮影に使うLEDウォールのサイズに合わせ、どの程度の粒度で撮影していくべきなのか、スマホ上のARガイドに合わせてシャッターを押していくだけ。
スマホのカメラが前後に動く際の視差を考慮して、「前後二列」での撮影を要求する。これにより「撮り逃し」が皆無になるだけではなく、むやみに“乱写”する必要もなくなるため、フォトグラメトリに必要な写真の枚数が少なくなる。
一般的なバーチャル制作で必要となる背景情報の生成で必要なのは、わずか110枚程度という。これで4K撮影に見合うデータが揃うという。
次に、このガイド付き撮影で得られた情報をクラウドにアップロードすると、対になるフォトグラメトリ技術“Venus”アルゴリズムで、空間データに変換される。前述したように110枚程度の写真で構わないため、撮影しながら5Gでアップロードを続ければ、あとは処理を待つだけ。
そして重要なのが、空間データ生成に要する時間がわずか「3時間」であることだ。
つまり“撮影に1時間、生成に3時間”、合計4時間で空間をキャプチャできる。100数十枚程度なら、人が写り込まないよう配慮しながらの撮影もある程度は可能で、現場での“デイリーオペレーション”で、空間データを取得できる。
早朝にロケハンした場所を、午後にはスタジオのLEDウォールに投影して本番撮影を行うことも可能で、バーチャル制作における制作コストを劇的に削減できる。なお、3Dオブジェクトも当然のようにスキャンが可能だ。
■「死の世界」に命を吹き込む技術
さらにソニーのXYN開発R&Dチームが取り組んでいたのは、ガウシアンスプラッティングでキャプチャした3Dスキャンデータを“活きた”情報として活用することだ。
この技術でキャプチャした空間データは、細かな3Dオブジェクトに分割することはできない。
そこでAI技術を活用し、空間内にあるオブジェクトを識別、分離する技術を開発した。例えば“電柱”が邪魔な場合は、電柱をクリックして選択・消去できる。
またシーンをキャプチャしたライブラリ内を自然言語で検索することもできる。”木製のベンチ”を指定するとをライブラリから呼び出し、それを別の空間に配置したりすることが可能だ。
直感的に空間情報を編集する“Haconiwa”コントローラ
さらに驚かされたのは、シーン全体が現実世界に存在しているかのように“自動的に動きが付与”できることだ。
“3Dスキャンされた空間”は、そのままではキャプチャした時間で“時が止まった死の世界”だ。木々の葉は動かず、水面が乱れることもない。そこで、物理シミュレーションを組み合わせ、例えば風のシミュレーション用いることで木々を揺らし、その影響による光の雰囲気にも変化を与える。
この「微かな動き」が加わるだけで、実写と3DキャプチャによるCG再現の境界を消失させることができる。
もちろん、現実をありのままに記録した後に、こうしたシミュレーション設定を変更することで、自在に「演出」を加えることも可能だ。これは、クリエイターが現実を「素材」として、その場で新しい世界を編み出せるようになったことを意味している。
■直感的に空間情報を編集する“Haconiwa”コントローラ
このように生成された素材をどう演出するのか、クリエイターが直感的に使えるユーザーインターフェイスも必要となる。
そこで開発されているのが、空間制作コントローラだ。
開発者は一種の「Haconiwa(箱庭)」と話したが、実際のリリースまでにはまだ時間がかかるようだ。ここでは、仮の名前として“Haconiwa”と表現しよう。
このインターフェースが秀逸なのは、ヘッドマウントディスプレイ(HMD)を被る煩わしさがないこと。水平に置かれた空間再現ディスプレイ(SRD:ソニーが従来から提供していた裸眼立体視できるディスプレイ)を覗き込むと、そこには文字通どおり「箱庭」のような3D空間が浮かび上がる。
3D操作が可能な専用ペンデバイスで、この空間内オブジェクトに触れると振動するハプティックフィードバックがあり、直感的にオブジェクトを指定し、バーチャルプロダクションにおける撮影シミュレーションで、ライティングやカメラ位置を調整できる。
複数のダイヤルも組み合わせ、ズームやカメラパスを操る感覚は唯一無二のもので、洗練されればカラーグレーディングのデファクトスタンダードである「DaVinci」のコンソールのように、業界内で定着する可能性があるだろう。
目の前で直感的にシーンが把握できるため、例えば、アニメ制作ならば「キャラクターがパンチを出すと、拳を誇張して大きく見せたい」と伝えると、カメラ位置に視点を切り替えてペンで演出意図を編集。すぐに、Haconiwa上で直接形にして確認してもらうことができる。
一方で、HMDを用いて演出意図を、キャラクターの視点やカメラマンの視点など、さまざまな視点で確認することも可能だ。空間を仮想的に移動しながら、最適なカメラ位置を指定するといったこともできる。
“バーチャル”であることを活用した、多層的なデバイス連携で、制作準備段階でのコミュニケーションロスを減らすことになるだろう。
何よりこのコントローラー。初めて使ってみたが、複雑なツールを「楽器」のように操れる。テクニックの壁を超えて、どう表現したいかという“純度”だけを研ぎ澄まして作品に注入できる。
■“シネマ品質”を実装できるソニーの強み
これらは“バーチャルプロダクション”を、シネマ品質レベルで実現するために作られたものだが、品質基準が高いため産業レベルでの応用も可能だという。
例えば自動車業界では、当然ながら自社製品の3Dデータは部品レベルで保有している。しかし、競合他社の車を購入して分析する場合、CADデータが存在しないため手作業での計測を行なっていたという。
しかし、XYNのスキャン技術を使えば、複雑な形状もはるかに短時間でデータ化できる。また、衝突試験で「ぐしゃぐしゃに潰れた車」など、モデリング不可能な状態を3Dデータとして保存し、研究に活かすニーズも先行して活用している顧客も生まれ始めている。
また、社会的な実装を考えるなら、地方創生においても大きな武器になるだろう。10年に一度しか開帳されない秘仏や、ドローン撮影に制限がある国宝級の景観。これらを高精細にデジタルアーカイブ化し、観光資源として活用するといったことも、XYNのクオリティなら十分に射程圏に入る。
ソニーの強みは、シネマ品質の制作から、その編集(XYN)、表示(Crystal LEDやSRD)、そしてソニー・ピクチャーズという出口までを垂直統合している点にある。そうした垂直統合の中でニーズが集まり、ワークフロー全体を3D化する際の“引っかかり”をなくしている。
その答えとして、一度、3Dキャプチャという形で撮影を行えば、“再利用可能なアセット”となり、あらゆる制作シーンで再活用できるようになる。そのための道具を、一気にデモンストレーションしたのがCESでのソニーの展示だった。
■“SONY”と“SHM”が描くソニーの輪郭
LVCCから「SONY」のロゴが消えたことは、後退なのだろうか? むしろ、ソニーが何を正面に据えたのかを示すサインに見える。
SHMはAFEELAという“ボディ”を通じて、ユーザーが移動する物理空間への介入を試みていた。ソニーは空間キャプチャと制作ツールを通じて、現実世界を3Dデータとして記述し、編集可能なものへと変えようとしている。両者に共通しているのは、現実世界とデジタル世界の境界を、どう溶かすかだろう。それは数年前、現在は会長となっている吉田憲一郎会長が描いたビジョンそのものだ。
SONYロゴが会場から消えたことは、決して後退とは思わない。単に“SONY”が“CES”の目指す方向とは異なる方向に歩んだからなのだろう。それがソニーの意図している戦略の結果ならば、(寂しさを感じるのは)視線の置き場所をこちらが見誤っていただけだ。
そして、その見誤りに気づいたことこそが、このCESの収穫だったと言えるのかもしれない。
