昔から一度参加してみたかった、MOSA主催のイベントにようやく参加することができた。しかも会場は Apple Japan。今年2月にも、大阪でMOSA主催のイベントがあり、粒揃いのセッションテーマの中でも特に「キューティマスコットを作り直してみる」という二度とはお目ににかかれないセッションは是非拝聴したく大阪に飛ぶ覚悟もあったのだが、予定が被り叶わなかった。
全体を通して牧歌的(?)で、思い思いに技術や未来予想(妄想?)を語らう空気感がとても心地よかった。筆者が福岡時代によく通っていた Apple Users Group や、各地で開催されていた AUGM の雰囲気を思い出して、懐かしくもあった。
今回はWWDC25のフォローアップイベントということで、特に Liquid Glass のテーマが多く取り扱われていたが、その他さまざまなアップデートについても多面的に取り扱われていた。今回、大谷さんのキーノートのために参加応募したようなものだったが、Apple プロダクトの歴史を遡った上で、今回の Liquid Glass というデザインシステムのアップデートから Apple の今後を説かれており、非常に説得力があった。浮遊するUIマテリアルに関しては個人的にも、(グラス型に限らず)フォルダブルなど多様なデバイス環境を予期したものだろうと思っていたが、、グラス型にフォーカスして語られるともはや、その布石であるとしか思えなくなってしまった。しかも WWDC25 という発表タイミングは、グラス型登場の前仕込みの段階であるという推測も、、Apple やその歴史を熟知されている大谷さんだからこその見解で、目から鱗だった。
Apple 豊田さんからの Recap セッションは、ひととおりセッションビデオを観た上でもなお有用だったし、Liquid Glass の解説については先の大谷さんのセッションと並べて聞けたことも幸運だった。
他にも、Yoshikawa さんによる Claude Code によるいわゆる Vibe Coding の実践談は手法が具体的で、取り入れるイメージが湧いたし(Cursorメインで使っている)、いけださんによる Foundation Models のデモでは、筆者も実践しながら再現性をなんとなく感じていた <ローカライズはプロンプト言語に依存> <ただし出力言語が一定しない(説)> を裏付けてくださり、興味深かった。
中野さんの発表に被せるかたちで、iPad の Full screen 対応 や Liquid Glass 対応のリミットに関して Apple 豊田さんによる追加補足があり、Xcode 26 の次のバージョン以降では猶予がないという温度感だった。現実的に、開発者としてはその猶予は数年は伸びそうだと思いたいのだが、、
しかし本日さまざまな登壇者が言及していたように、Liquid Glass の目指す方向性はその見た目の「新しさ」ではなく、将来登場する新たなフォームファクタ含め、多様なデバイスに対し、いかにソフトウェアやコンテンツを溶け込ませるかにあると考えている。なので、開発者が Liquid Glass への移行を余儀なくされるのは、その見た目が古いかどうかではなく、新しいデバイス上では使い勝手が悪いから、という理由で対応圧が迫るのではないかと予想する。
イベントページ:https://mosa.connpass.com/event/354216/
Liquid Glassから見えるAppleの未来戦略
なぜLiquid Glassのアイコンの丸みはデバイスに合わせてあるのか?
大谷 和利 さん
- 小さいことに見えて未来戦略から見ると大きいのでは?
- デジタル環境と現実との折り合いの付け方:その最新成果だと言える
- Liquid Glass は visionOS 26 には採用されていないのはなぜか?
- Alan Dye「ハードウェアとソフトウェアを緊密に統合する」
- 年代別の統合の変遷
- OS + ソフト + ハード(’80-’90)
- → サービス(’00):iTunes, iCloud, Apple Music
- → シリコン(’20):Mチップ
- → 現実の統合(24~)
- UIの変遷
- スキューモーフィズム(現実の模倣)
- コンピュータを身近に感じさせる
- GUIの歴史:比喩を使うことで、使い方が最初から分かる
- フラットデザイン(現実との線引き)
- ユーザーがデジタル環境に慣れ、画面の中だけでの完結
- ユーザーも進化した
- Liquid Glass(現実との融合)
- Rを同じにした。装置と画面内との境界線を意識状で無くしていくポリシーが含まれているのでは
- Vision Pro では現実と仮想の区別がそもそもつかない
- それ以外はデバイスを手にするので現実仮想が区別される → Rを一致し(透明にし)一体化させることで意識状は現実と仮想の境界をなくし融合する、のではないか。
- 半透明表現やグラスモーフィズムは、これまでも段階的に取り入れられていたが、本質的に異なる(e.g. Control Center)
- 透明度が高いだけでなく、場所を取らないようにしている(従来的なMax幅表現でなく、寄せることで背景コンテンツの存在を多く見せている)
- → UIがコンテンツを邪魔しない:意識の上で透明化していく
- Vision Pro だと現実の風景
- Alan Dye「(ガラスの工学的特性と)Appleにしか実現できない流動性を組み合わせ」
- 他社プラットフォーム上の模倣はあくまで静的なもの、本質的な模倣ではない
- Liquid Glass
- 物理法則に従う、すべてに実体がある感覚(Appleは「素材」と表現)
- 従来の拡散だけでなく、反射や屈曲もシミュレート
- Liquid Glass の動き自体で情報を見せている
- 背景が透けていることが重要:今は画面上だが、Vision では現実世界。そこに「素材」が浮かんでいる見せ方
- visionOS 26 で組み込まれていないのは、まだ煮詰めができていない?隠し球になっている?
- Material 3 Expressive
- スケール・高さ・空間の変化に軸足を置く構造的な情報設計、動きが構造の理解を助ける。フラットをベースに奥行きと触覚フィードバックで補助
- Expressive(表現力)を売り
- 例:壁紙カスタマイズ機能
- カスタマイズ、パーソナライズの多様性
- 天気エフェクト:現実の天気と同期するわけではない、現実とデバイスとが分離する(Appleはこれはやらない)
- Alan Dye「将来の新しい体験を生み出す基礎」
- visionOS 表現がヒントになったが、visionOS に採用しているわけではない
- 固定的デバイスよりも考えることが多くあり、実現に至っていない、その段階で他社に模倣されることを避けるために隠し球としている?
- なぜトランスルーセント?→ より多くのコンテンツを見せるため(Visionなどグラスデバイスでは、現実世界)UI の主張が強いと、その先のものを隠してしまう。
- Android XR のライブデモ
- 準備中にヘッドバンド部分を擦っていた:タッチコントロールがありそう
- 現段階では、UI が単なる透明かつ枠付き(ほとんどデザインされておらず、情報をそこに表示しているだけ)
- Material 3 Expressive とは関係ないつくり、UI がまだ固まっていなさそう
- Apple は、かならず来たるグラス型デバイスを、Mac や iPhone ユーザーが迷いなく使えるよう準備している、今のうちから現実との融合を図る新しいデザイン基盤に慣れてもらうための仕込みが Liquid Glass と思われる(視界を遮るUIにはならないだろう)
- M3 Expressive は主張を強めてしまい、XR では暫定的な作りになっている可能性
- デバイスの進化の方向性
- Jonathan Ive:OpenAI とのプロダクト開発。
- 自らの過ちはスマートフォンを作ったこととする内省。みなスマホばかり見ている。
- → スマホ漬けから人々を解放するために(グラスではなく)ポケットのなかに入れたまま使えるものを開発
- Apple Glass は、AirPods や Watch と併用により、最大限機能活用できるだろう
- ソーシャルメディアを追うデバイスにせず、周辺デバイスと分散的に機能を補い合い、スマホ漬けから脱却する
- Liquid Glass の発表により、登場は近いだろう
- Android XR は Gemini によるアプリ間連携できるが、Siri ではできない:WWDC25で Siri Shortcuts などでのアプリ関連系の補強が発表された
- Jonathan Ive:OpenAI とのプロダクト開発。
- スキューモーフィズム(現実の模倣)
WWDC25 Recap
Apple WWDR Design Evangelist 豊田さん
“聴講メモ:MOSA2025:夏のTech Dive! Follow WWDC25” の続きを読む