聴講メモ:TNXR MEETUP Vol.10 「人と情報の“距離感”をデザインする—AR/AIグラス時代の徒歩移動とカームテクノロジー—」

カームテクノロジーというワードに引き寄せられて行ってきた。

イベントページ:https://tnxrmeetupvol10.peatix.com

MESONと博報堂DYホールディングスとが共同で実証実験を行った「Motion Cyber Viewing」に関する発表とパネルディスカッション。

本編

  • 観光ユースケースにおける街歩きアプリで、どういうARコンテンツ、ナビゲーションデザインだと「能動的に接触」してくれるか?の検証
    • ARコンテンツによる広告のエンゲージメントの向上
  • ARデバイスの屋外都市空間への波及、デジタルと物理の統合、これにより生活行動がどう変化するか
    • 移動中も安全に情報取得でき、その機会や情報量が増加
      • 視界を塞がないので目的のコンテンツと同時に周囲環境も見渡せる
      • e.g. 対話エージェント
    • 徒歩移動が新しい可処分時間として設計される時代に
      • 自宅でテレビ、朝はラジオ、電車移動は動画、、とどこもメディアに占有されている中、歩き移動に音楽はあるが、視覚情報が占有できていない
    • 歩ける街化(walkable city):徒歩移動しやすくなる、AR移動支援が拡大
      • 歩道幅が広かったり
  • ARのユースケース、一番使うのはナビゲーション、誘導されながらAR情報を接種
    • ただし「Hyper reality」は一見楽しそうだが、コンテンツが溢れすぎ
      • 自ら情報に接触したいとならなくなる課題
    • 企業、都市、生活者、それぞれにとって大切な情報提示手法がありそう
      • 企業:自社の情報が埋もれて見られない問題
      • 都市:景観が台無しになり、印象が下がる問題
      • 生活者:受動的になり、能動的アクションをしなくなる問題
  • 「カームテクノロジー」に着目
    • e.g. mulボード
      • 必要なときにだけ情報が飛び出してきて、インタラクションすると追加で情報が現れる
    • カームテクノロジーを取り入れて
      • 段階的に情報を提示するインタラクション
      • 都市空間に溶け込む情報提示
      • 視覚的負荷の軽減
  • 観光ユースケースにカームテクノロジーの思想を導入
    • ARナビゲーションでの移動中に能動的にAR情報を提示する
    • 誘導状態にあるユーザーが自分から接触したくなる情報とは?
      • ARナビゲーション:有無やデザインが影響を与えるか
        • e.g. Google Maps だと地図ばかり見て周りを見ない
      • ARコンテンツ:情報量(配置や密度)やデザインが影響を与えるか
        • シーンごとに効果的なデザインとは?認知まででOKなケース、購買意欲につなげたいケースごと
  • 研究方法と事件設計
    • ナビゲーションの評価指標:誘導直感性、周囲視認性、エンタメ性、誘導安全性(MUST)
    • ARコンテンツの選定軸:情報の直感性、情報の一義性(アイコンだと抽象的だが画像なら?景観への影響と相関する)、景観への影響
  • 景観を重要視(風景学)
    • 主観的価値に依存しない視覚環境の評価基準
    • カームテクノロジーの、視覚的快適性考慮という概念と共通する
    • 渋谷区の景観指標を参考
    • 遠景、中景、近景の考慮:
      • 遠景だと視界占有率高。近景で景観を損なわず
      • かつ壁・建物を背にして、徒歩行動を邪魔しない考慮
  • 景観に馴染むトンマナやモチーフの採用
    • 施設内のアクセントカラーに乗っ取って環境との統一感を醸成
    • 触れる人にとって、ARのコンテンツがぎょっとしない、ぱっと目に入って触れてみたいと思えるもの、アバターであればついて行きたいと思える見せ方の工夫
    • ローポリからハイポリまでのリアルさ、モーションや表情の幅の中で、違和感のないものを探った
  • 技術解説
    • VPSでなくマーカーを使用
      • Vision Proで使えるVPSは手間がかかり、手軽さ優先
    • マーカーの位置を基準に位置合わせ
      • 広域移動時は、コンテンツが消失したりずれたりがあるので
      • 経路途中で位置合わせできるようにマーカーを配置したポイントを作った
      • そもそも Vision Pro は広域移動を考慮していない(一定速度以上の移動トリガーに途中で空間のリセットが走るケース)
  • 結果と考察
    • ナビゲーションがあった方が、ARコンテンツへのインタラクションが上がった
      • 移動だけでなく、環境への気づきや認知にも寄与
      • スマホ地図のナビゲーションでは、ついて行くことに認知取られるのかも
    • ARコンテンツは、誘導や滞在にも寄与した
      • 最適な情報量は3、4
    • 都市状況や目的に応じたアダプティブなナビゲーション・コンテンツの実装が重要

パネルディスカッション

  • 観光に絞ったが、今後一般的になったときに、どういったARのデザインの工夫があり得るか?
    • 広告は注意を引くかで設計されているが、ARでもそれをやる?景観との不一致は逆に顧客離れにつながるのではないか
    • Web広告に対する忌避感、
    • 都市空間では、ハデじゃない、だけでなく景観と馴染むかも考慮
      • e.g. 京都の吉野家
      • Web広告のバツボタンサイズのガイドラインにも類似していそう
  • 「借景」に似たようなことをしていると思ったが
    • 「ベネチアの水」ベネチア都市の水路、同じ水路が同期して上がり下がりして、建物自体はバラバラでも一つの都市としてつながるデザイン構図になっている
    • ARでもエリアをまたいで物理的に区切られた建物がつながり、エリアに対するまとまりの意識を変えられないか
      • e.g. 万博のリング的な
    • みんながみんな同じものを見たい?ユニバーサリティ
  • ARでの広告の提示の仕方
    • ARの設定でオンオフできそうだが
    • 観光ならセレンディピティ求めるシーン、だから今回検証のように固定型で店舗前のARコンテンツを表示するようにした
    • AR広告のターゲティング、セレンディピティの切り替え
  • AIxARグラスの融合、パーセプションフローモデルの各状態に合わせた知覚情報の提示ができるようになったとき、これまでの広告戦略の仕事がどう変わるか
    • 戦略は変わってきそう、ターゲティング精度が高まるので、広告生成もファネルごとに変わってくる(e.g. Xでマンガ広告をタップ、次からは本編広告が流れてくる)
    • 購買意向の促し、生活行動の変容に注力したマーケティングが必要
  • 認知をとるなら音使った方が有利だろうが、可処分時間の観点では、音は音楽とかですでに占有されているのではないか

聴講メモ:五反田.mobile ~モバイルアプリ × AI~

企画されている方から前々から聞いていてずっと楽しみにしていた、五反田のモバイル勉強会第1回。しかもテーマがモバイルアプリ開発におけるAI導入で、まさに今あれこれと試行錯誤しているので、個人的にはとても嬉しいタイミングだった。

イベントページ:https://gotanda-mobile.connpass.com/event/369003/

AI導入はどこも手探りだと思うが、自社内しか見えていないと、今の進め方がきちんと的を射ているのかも分からないし、他社と比較して進んではいなくともどの程度劣後しているかも把握しづらい。他社の率直な導入状況を、LTに加えて懇親会でも知ることができ、たいへんありがたい場だった。

Claude Code の Sub agents 機能、Firebase Crashlytics を MCP で接続できることなど、明日から早速導入してみたい知見もあった。Devin の使い所/使い分けの勘所は聞く人により意見に大きく開きがあったのが意外だった。実験段階でまだまだデファクトが定まっていない状態なので、トライ&エラーのしがいがあるし、こうした知見の需要もまだまだ高いと感じた。

あと、懇親会中にもLTタイムがあったのも新しくて良かった。


Copilot code reviewを試してみた

牟田拓広 さん

  • Copilot Code Review 使えるかを設定で確認 → Reviewers に Copilot 追加
  • 日本語でレビューさせたい
    • プロンプト copilot-instructions.md に指定
    • defualt ブランチにマージされて適用
  • PRできたタイミングで自動レビューさせる:Rulesetsで設定
  • 効果検証これからだが、SwiftLint カスタムルール運用をこっちに寄せられるかも

データと見るLuupでのAI活用

瀧川陽介 さん

“聴講メモ:五反田.mobile ~モバイルアプリ × AI~” の続きを読む

聴講メモ:extension DC 2025 Day3 @ LINEヤフー

extension DC 3日目、初日登壇、残り2日は聴講者として全日参加することができた。三日間参加したくさん知見を得て、話せて充実した時間となり運営の方々には心から感謝。また、昨日お話しし損ねた Foundation Models の発表をされた Fujimon さんとも、ほぼ時間いっぱい独り占めさせていただき、昨日のプレゼン内容であったりプロンプトの工夫など色々と意見いただけた。

イベントページ:https://lycorptech-jp.connpass.com/event/362636/


マルチウィンドウ実践ガイド

tatsubee さん

  • フルスクリーン or ウィンドウ分割が選択可能
  • 柔軟なサイズ変更、複数開くことが可能、枚数上限が増えた
    • 前2つはすべてのアプリが対応するべき
    • 複数枚ウィンドウは、アプリにとっての強みポイント
  • 考慮したい点
    • ウィンドウコントロール
      • Toolbar 領域の先端に表示(信号機)
      • コンテンツ領域と重ならないように。toolbar 使えばOK
      • 使わない場合は手動調整が必要
        • GeometryReader で取得 containerCornerInsets
        • Safe Area の考慮も必要
        • アニメーション追加するとさらにいい感じに
      • UIKit の場合
        • layoutGuide
  • ウィンドウサイズ
  • 新しい Window を開く
    • OpenWindowAction
    • Drag & Drop
      • userActivity, handlesExternalEvents
    • 無数の Window が開ける
      • 何がどの Window か特定しやすくする必要がある:Window に名前をつける
      • navigationTitle が反映

実装で解き明かす並行処理の歴史:Swift ConcurrencyからNSThreadまで遡ろう

laprasDrum さん

“聴講メモ:extension DC 2025 Day3 @ LINEヤフー” の続きを読む

聴講メモ:extension DC 2025 Day2 @Sansan

昨日に引き続き、extension DC Day 2 に参加。Liquid Glass デザインの話から、ショートカット の話までさまざま。Foundation Models のプロンプトテクニックが素晴らしそうで、発表者の Fujimon さんにお話伺おうと思っていたが、筆者がすっかりお友達と話し込んでいるうちに時間が来てしまった。明日の Day 3 もいらっしゃるそうなので、チャンスがあれば。

イベントページ:https://sansan.connpass.com/event/362403/


SpeechAnalyzerによる音声文字起こしの罠

Musa さん

  • speech-to-text技術
    • SFSpeechRecognizer
      • Siri 有効化必須がデメリット
      • オンデバイス・クラウド どちらでもOK
      • 長さ制限あり
    • SFSpeechRecognizer
      • 遠距離可能
      • オンデバイスのみ
      • リアルタイム、音声ファイル 両方OK
      • 事前のモデルダウンロードが不要
      • 純正アプリで使用されている
  • 精度比較
    • SpeechAnalyzer の方が検出文字数多い
    • 音の拾いやすさ、検出精度は圧倒的に向上、文字起こし品質も向上
    • 横文字、専門用語も対応
  • SpeechAnalyzer の罠
    • リアルタイムもファイルも可能だが、リアルタイムは音の拾いやすさが致命的に悪い
      • 机の向こう側とか声も取れない
    • ファイル起こし → SpeechAnalyzer に渡すことで劇的改善
  • 現状、ネット上ではこの問題が報告されていない
  • オーディオファイルからの speech-to-text 実装紹介
    • LLM のように asyc でインクリメンタルに結果が返ってくる

Liquid GlassとAppIntentsについての考察

touyou さん

“聴講メモ:extension DC 2025 Day2 @Sansan” の続きを読む

参加メモ:DroidKaigi 2025

会場エントランス

昨日までの二日間、渋谷で開催された DroidKaigi 2025 に参加してきた。

DroidKaigi 2025

スタッフとして知り合いが複数人参加していたり、会場にも顔見知りが多くいた関係で、常に誰かと話しているような状況だった。最後話したのがいつだったかも思い出せないくらい、久しぶりに顔を見た新卒時代の同僚とも、たくさん話すことができた。
何より同僚の登壇もあったので、最前列で応援することができて良かった。

iOSDC や try! Swift とはまた違った雰囲気だったのも印象的だった。スポンサーブースはその出展数の多さから祭りのように賑やかだった。その数40越え。スポンサースタンプラリー完走はほぼ不可能のように思えた。

他にもアイスがタダでもらえたり、バリスタコーヒーも選択肢が豊富だったり、ネイルが体験できるコーナーがあったりと文化祭感。発表40分、休憩20分と計1時間が交互に繰り返される点も、キレ良くて分かりやすかった。また、国内カンファレンスの割に外国人比率が高めだったのも意外だった。

アフターパーティではマグロの解体ショーも

聴講したセッションについてはまだ内容を咀嚼しきれておらず、きちんと復習したい。ありがたいことに、ほぼ即日で全セッションの動画が配信されていた。

DroidKaigi 2025 – YouTube

個人的に印象に残ったセッション3選。


最後に、初体験だったネイルの写真。

参加メモ:新しいFoundation Modelフレームワークのアプリへの導入(ワークショップ)@Apple Japan

アップルジャパンで開かれた Foundation Models のワークショップに参加してきた。結果から言うと、知りたいこと、気になっていたことはすべて明快にでき、お話もコーディングもたくさんできて、とても充実した時間となった。

参加者が少なかったおかげで、心置きなくテクノロジーエヴァンジェリスト武石さんとお話しできたのが良かった。Foundation Models に限らず、何をお尋ねしても的確な回答をくださったのがとても心強く、今後の取り組み方にも自信を持つことができた。自学自習だけだとこうはいかない。

ワークショップ:新しいFoundation Modelフレームワークのアプリへの導入

ワークショップとはいうものの、中身は事前に告知されていた通りにもくもく会で、冒頭5〜10分 Foundation Models framework に関するイントロがあったのち、3時間ほぼほぼ質問と作業時間に費やすことができた。

このブログで長々したためている通り、筆者は「日記を Spotlight にインデクスし Foundation Models に検索させ、対話に使う」ことをテーマに取り組んでおり、そのプロジェクトを持ち込んだ。課題が山積していて、相談はおおきく以下があった。

参考:メインで対応くださった武石さんのツイート


冒頭、いくつか tips の紹介があった。(メモしている範囲で)

  • Languages
    • デフォルトのレスポンス言語は、入力(プロンプト)の言語によって決定される
      • tool calling に英語が混ざっていたら英語になる可能性があるので、instruction で言語を指示すると良い
    • プロンプトには LocalizedStringLocale.current を instruction 指定に使うのを推奨(ユーザーの言語環境に応じられる)
  • Tool calling
    • ツールを強制的に呼び出す際は、instruction に強い表現を使うこと(プロンプトテクニック)
      • ALWAYS USE *** tool to find…
      • You MUST USE *** tool
  • Handling limited token
    • 4096 token というトークン上限
      • 日本語は、CJK は1文字1token(英語は3-4文字1token)
    • トークン消費を見るためのAPIはない
      • やりとりの他にも、生成された結果もセッション内でトークンに含めて管理しているのでややこしい
      • exeededContextWindowSize エラーを捕捉して新しいセッションを作る
      • GenerationOptions.maximumResponseTokens でコントロールする
      • 長い文章を扱う場合、NLTokenizer でチャンクを作る(Natural Language framework)、パラグラフベースで文章を切ることが可能

質疑で新たに知ることができたことのメモ。事前に実験したこと、考えていたことをもとにディスカッションくださった。

  • Core Spotlight のセマンティック検索挙動について
    • 部分一致的な挙動になるのが現状の性能限界
    • Siri の改善が追いついていない
    • WWDC24 セッションで言及されたサンプルコードも現状存在しない
  • ツール呼び出しをしてくれないケースがある
    • 指示文に “must use the tool (“SearchDiaryTool”)” と書いていたところを、よりシンプルに “must use the SearchDiaryTool” とするだけで変わるかも
    • 肌感としてツールの名称定義を、動詞-名詞 (SearchDiary, GetXXX) のようにするなどすると結果が変わったりする
    • ↑ など、指示文の細かい書き方のチューニングが効果ある
    • (ツール呼び出しに限らず)日本語よりも英語の方がパフォーマンスが良い
  • ツール呼び出しの制限
    • タイムアウトは特に明言されていなく、ない認識
    • だが、ツール呼び出し周りの情報がトークンウィンドウを溢れさせて終了することはある
      • セッション自体の指示文やプロンプトだけでなく、ツール定義(指示文など)もウィンドウを占有する。複数ツールを与えるとその分オーバーヘッドが増大する
      • ツール呼び出しでツールから取得した情報もすべて、最終的なレスポンスに関わらずトークンウィンドウを占有する
    • Foundation Models にツール呼び出しをさせるよりも、Foundation Models 外で情報を事前に取得し、プロンプトとして与える方が良い(ツール呼び出しの不確実性 < プロンプトで与えた情報が使われる確実性)
      • Foundation Models は自然言語的に回答を整形するのに使うという割り切りも検討
  • RAG 実装
    • ↑ 武石さんツイートの技術的な噛み砕きや、サンプルコードをもとにした解説
    • チャンク化→ベクトル化したものを、メタデータ付きの構造体としてラップしてあげ照合することで、より豊かな検索体験が作れそう
    • ベクトル化した情報は必ずしも SQL や CoreData に永続化する必要はない(規模によってはオンメモリでも十分)
  • そのほか
    • Foundation Models の得意分野として、結局、サマリや抽出が得意
      • Writing Tools も内部的に同じモデルを使っている
      • Writing Tools では、RAGの自前実装で行わなければいけないチャンク化など内部的に勝手にやってくれるのでラク

前半は上記の質疑を中心に、後半は RAG の実装にチャレンジしていて、つまりどころはその都度質問させていただいた。その際、Apple 社内で流通しているサンプルコードを参考に見せてくださったのは、実現方法が一目瞭然でとても嬉しかった。

ということで今日いただいた情報をもとに、Core Spotlight にはいったん見切りをつけて RAG を自前実装する方向に舵きりしたいと思う。

聴講メモ:集まれSwift好き!Swift愛好会 vol.95 @ 株式会社スマートバンク

オフライン参加のつもりが予定が狂い、今回はオンライン視聴。ラストの Liquid Glass 対応に関するトークはオフライン限定ということで、残念ながら聴講できず。最後のアセットコンパイルの話で、Assets に含めた svg ファイルが、ビルドの過程で各解像度の png に変換されていると知り目から鱗。

イベントページ:https://love-swift.connpass.com/event/367730/
アーカイブ動画:https://youtube.com/live/uZpxIPIg6F0


アプリの “かわいい” を支えるアニメーションツールRiveについて

上ちょ / uetyo さん

  • Rive とは? “インタラクティブ” アニメーションツール
  • ユーザーのタップを起点にアニメーション、音声再生、Haptic も可能
  • 複数種類のアニメーションを用意したい場合
    • Lottie アニメーションは種類分の個数が必要だが、Rive はファイルは一つのみでOK
    • Rive ファイル内で分岐が完結
  • RiveViewModel: Rive ファイルに指示するプロトコルを SDK が提供(型安全)
  • riveViewModel.view() でビュー生成
  • Screen に手を加える必要なし
  • アニメーション、再生タイミング、タイマー調整… は従来、エンジニア実装、デザイナー確認のラリーが発生していたが、 Rive ファイル内でデザイナー完結するのでラク
  • アニメーションの制作方法:
    • 初期:Rive ファイルの作成をエンジニアが主導+デザイナー巻き込み
    • 現在:デザイナーで完結
    • Rive は Duolingo が最も利用している、アニメータ専門チームが存在
  • Lottie Animation との使い分け
    • Rive:パフォーマンスが高い(メモリ使用量、CPUのレンダリングコスト)
    • 銀の弾丸ではない、ループ再生は Lottie を公式が推奨する
    • カスタムフォントはキャッシュ機構が必要(メモリ使用が増大し不安定に)
  • Q&A
    • Lottie と比べて微妙な点
      • Rive が高機能すぎて作りにくい
      • Lottie は AE から直接エクスポートできるが、Rive は専用のツール (Rive Editor) が必要で学習うコストが高い
      • 前述のパフォーマンスに対する考慮が必要
    • 後発の Rive だからこそ導入時の困りごと
      • トラブル時情報が少ない(フォーラムやGitHub Issueで質問→レスポンスに時間がかかる)
      • 日本語での情報が少ない、AIの学習も進んでいない
    • 採用すべき
      • ただのローディングだけであれば慣れ親しんだLottieが良さそう
      • 画面全体で利用したい、アニメーション途中のインタラクションをさせたいケースはおすすめ
    • 両方採用はあり?
      • ワンバンクは両方利用
      • ケースによって片方に倒すのもあり

異業種からiOSエンジニアへの道のり〜iOS開発の魅力〜

hinakko さん

“聴講メモ:集まれSwift好き!Swift愛好会 vol.95 @ 株式会社スマートバンク” の続きを読む

参加メモ:A11y Tokyo Meetup オフライン交流会 #7 Beer Bash

最近アクセシビリティについて WWDC のセッション動画を中心に学んでいるが、障害当事者の方々と接する機会がないため、知識のインプットだけに終始している。

普段プロダクト開発をしながら、自社サービスが十分にアクセシブルでないことは明白。だがユーザーからのそうしたフィードバックは決して多くはない。それは使う以前に見捨てられている、という状況を示している可能性もあるし、より俯瞰してみるとそもそも競合他社含め、(携わっている)業界自体がアクセシブルに機会提供できず、諦めとして認識されているのではないか?という危機感もあった。

そう考えていた時に、元同僚が運営メンバーにいる A11yTokyo Meetup がビアバッシュイベントを開催すると知り、何かきっかけを得られればと思い参加を決めた。

イベントページ:https://a11ytyo.connpass.com/event/364520/

会場テーブルとラガービール

会場は港区のドイツビール・ドイツ料理屋。

参加メンバーは、聴覚、視覚障害をお持ちの方、車椅子利用者の方など障害当事者の参加があった。アクセシビリティへの関わり方についても、業務で主導している方だけでなく、自分のような情報収集をしている段階の方、博士課程で研究されている方と様々だった。また、ホワイトボードを介しての筆談や、手話で会話を取り交わし合う場面もあり、日常では中々意識する機会がないコミュニケーションのあり方に気づかされた。

学生時代ノートテイカーをされていた方、博士課程で弱視の方のスポーツ補助を研究されている方の話を聞けたのも良かった。

細かいことだが、手話にも方言があることを知れたのが驚き。同じ言葉もその表現は地方によって異なり、手話も言語のひとつといえば当たり前のことなのだろうが、そんなことも知らなかった。

ちなみに、筆者も片耳難聴を患っており、たまたま同じテーブルで聴覚障害の方とご一緒でき、日頃の不便を共感しあったりした。その方は北欧から仕事で来日されており、アメリカやヨーロッパにおけるアクセシビリティ対応の現状についても知ることができた。

この会はビアバッシュということでいわゆる飲み会中心の交流会だが、ミートアップ自体は隔月でLT会のようなこともされているとのことで、継続的に参加したいと思った。また、9月には千葉でアクセシビリティカンファレンスが開催されるとのことで、こちらもキャッチアップしたい。

アクセシビリティカンファレンスCHIBA2025

聴講メモ:実例から学ぶ!モバイルアプリ開発における「AIの使いどころ」

Claude、Devin をはじめとしたコーディングエージェントの利用方法、操り方について実践を経て得られた知見について、五者五様の発表。モノリポ管理であったり、コード調査であったり、実装タスクの向き不向き、デザイン連携、MCP の利用まで多岐にわたっていた。こうした業務利用から生まれたノウハウは、業務生産性向上もそうだが、無駄なトークン消費をいかに抑えるかであったり、そのための見切りポイントの参考にもなるので嬉しい。

イベントページ:https://findy.connpass.com/event/363471/

今回はオンライン聴講で、いつもであればメモを記事にするのだが、今回は移動しながら聴いていてできていない。が、どの発表もAIの業務利用に取り入れたい知見で溢れていたので、備忘録として発表スライドを並べておく。(ページ読み込みが激しく遅くなったので改ページした。)

聴講メモ:SPARKS #1 – AR/AI Glass Hands on!

MESONさん主催の新企画・XR/空間コンピューティング系ミートアップの第1弾が開催されたので参加してきた。

イベントページ:https://meson.connpass.com/event/362171/

今回特に期待していたのは、トークセッションやクリエイターLTも然ることながら、さまざまなARグラスが集結し、体験できるというハンズオンが設けられているということだった。特にここ最近はAR系の新製品が目まぐるしい勢いで登場し、それぞれが高額なのもあってまったくキャッチアップできていなかったので、大変ありがたかった。


共催4社の代表4名によるトークセッションは、AI時代におけるARデバイスのありかた、HMDとグラス型との対比に関するトピックが主軸。(以下、4名の登壇者の発言が混在しているので、どんなトピックが話されたかの参考程度)

最近注目しているグラスデバイス

  • Even G1
    • 1日中着用可能、Apple Watch をつけなくなった、食事中スマホ見なくなった
    • デフォの時計:商談中コミュニケーションが分断しない
    • 通知、時計機能メインで利用
      • マイク x AI の機能はあるが、使ってない
      • デフォルトは精度高くない、3rd Party がアプリ開発可能
    • Even G1 のような AR グラスは、カメラ相性が良さそう
      • 視界のコンテクストを共有できることが重要、言葉で説明せず指示語が使える
  • XREAL One Pro
    • ディスプレイ使用。視野角狭いことでかえって目の前の作業に集中できる
    • 映像で使うシーンがライフスタイルにない
      • これから出てきそう?
  • カメラの要不要はデバイス将来を決定づける分岐点
    • マイクスピーカーだけで良いか、映像含めたマルチモーダルか、まだ未知数
    • AIの精度を上げるためには、コンテクストとしての映像、カメラが必要
    • 気づかないものにAIが先に気づいてヒントを与えてくれる世界(ゼルダの妖精)
    • AIのパーソナル化、パーソナルアシスタントとしての機能性
      • データ量が重要、ユーザーどこでなにをしたか、AIグラス経由でスキャンできることで収集

HMD vs Glasses

  • HMD は「やるぞ」のモードが必要 → グラスは日常でカジュアルに利用可能
    • HMD:企業向け、家、仕事使い
    • グラス:日常使い
  • コンテンツの作りやすさでは HMD > グラス
  • 来年は AR グラスがますます浸透する
  • HMD とグラスとで、ユースケースが収斂し始めている
    • 技術登場当初から社会に受け入れられるまでに形態は変化する
    • 例)電話:ラジオ的な 1toN から、1to1 の受話器型へ
    • スクリーンレス、AIとの融合、へ収斂するのでは
  • 現状 AVP はディスプレイの代替になっていっている
    • 目や手の操作の快適性は企業に刺さってない
    • それよりもディスプレイの高精細さ

ビッグテックのグラス戦略

  • 「ディスプレイいらない」となりそう
  • リアルタイム性とファッション性、マルチモーダル(マイクスピーカーカメラ)の形態が普及しそう
    • その後、AR Glass「Pro」で、ディスプレイ付きが普及する?
  • 普及のしやすさで言えば、カメラなし、ディスプレイあり
  • ハードウェア側のエコシステムが整うことで、クリエイターが未来創造の速度が加速する
  • コンシューマー側は 3D を扱うための学びのハードルが高い
    • 普及するまでの時間は予想よりも長引く(グラス型の普及期が長く続く)かも
トークセッションの様子
“聴講メモ:SPARKS #1 – AR/AI Glass Hands on!” の続きを読む