聴講メモ:extension DC 2025 Day2 @Sansan

昨日に引き続き、extension DC Day 2 に参加。Liquid Glass デザインの話から、ショートカット の話までさまざま。Foundation Models のプロンプトテクニックが素晴らしそうで、発表者の Fujimon さんにお話伺おうと思っていたが、筆者がすっかりお友達と話し込んでいるうちに時間が来てしまった。明日の Day 3 もいらっしゃるそうなので、チャンスがあれば。

イベントページ:https://sansan.connpass.com/event/362403/


SpeechAnalyzerによる音声文字起こしの罠

Musa さん

  • speech-to-text技術
    • SFSpeechRecognizer
      • Siri 有効化必須がデメリット
      • オンデバイス・クラウド どちらでもOK
      • 長さ制限あり
    • SFSpeechRecognizer
      • 遠距離可能
      • オンデバイスのみ
      • リアルタイム、音声ファイル 両方OK
      • 事前のモデルダウンロードが不要
      • 純正アプリで使用されている
  • 精度比較
    • SpeechAnalyzer の方が検出文字数多い
    • 音の拾いやすさ、検出精度は圧倒的に向上、文字起こし品質も向上
    • 横文字、専門用語も対応
  • SpeechAnalyzer の罠
    • リアルタイムもファイルも可能だが、リアルタイムは音の拾いやすさが致命的に悪い
      • 机の向こう側とか声も取れない
    • ファイル起こし → SpeechAnalyzer に渡すことで劇的改善
  • 現状、ネット上ではこの問題が報告されていない
  • オーディオファイルからの speech-to-text 実装紹介
    • LLM のように asyc でインクリメンタルに結果が返ってくる

Liquid GlassとAppIntentsについての考察

touyou さん

“聴講メモ:extension DC 2025 Day2 @Sansan” の続きを読む

参加メモ:DroidKaigi 2025

会場エントランス

昨日までの二日間、渋谷で開催された DroidKaigi 2025 に参加してきた。

DroidKaigi 2025

スタッフとして知り合いが複数人参加していたり、会場にも顔見知りが多くいた関係で、常に誰かと話しているような状況だった。最後話したのがいつだったかも思い出せないくらい、久しぶりに顔を見た新卒時代の同僚とも、たくさん話すことができた。
何より同僚の登壇もあったので、最前列で応援することができて良かった。

iOSDC や try! Swift とはまた違った雰囲気だったのも印象的だった。スポンサーブースはその出展数の多さから祭りのように賑やかだった。その数40越え。スポンサースタンプラリー完走はほぼ不可能のように思えた。

他にもアイスがタダでもらえたり、バリスタコーヒーも選択肢が豊富だったり、ネイルが体験できるコーナーがあったりと文化祭感。発表40分、休憩20分と計1時間が交互に繰り返される点も、キレ良くて分かりやすかった。また、国内カンファレンスの割に外国人比率が高めだったのも意外だった。

アフターパーティではマグロの解体ショーも

聴講したセッションについてはまだ内容を咀嚼しきれておらず、きちんと復習したい。ありがたいことに、ほぼ即日で全セッションの動画が配信されていた。

DroidKaigi 2025 – YouTube

個人的に印象に残ったセッション3選。


最後に、初体験だったネイルの写真。

参加メモ:新しいFoundation Modelフレームワークのアプリへの導入(ワークショップ)@Apple Japan

アップルジャパンで開かれた Foundation Models のワークショップに参加してきた。結果から言うと、知りたいこと、気になっていたことはすべて明快にでき、お話もコーディングもたくさんできて、とても充実した時間となった。

参加者が少なかったおかげで、心置きなくテクノロジーエヴァンジェリスト武石さんとお話しできたのが良かった。Foundation Models に限らず、何をお尋ねしても的確な回答をくださったのがとても心強く、今後の取り組み方にも自信を持つことができた。自学自習だけだとこうはいかない。

ワークショップ:新しいFoundation Modelフレームワークのアプリへの導入

ワークショップとはいうものの、中身は事前に告知されていた通りにもくもく会で、冒頭5〜10分 Foundation Models framework に関するイントロがあったのち、3時間ほぼほぼ質問と作業時間に費やすことができた。

このブログで長々したためている通り、筆者は「日記を Spotlight にインデクスし Foundation Models に検索させ、対話に使う」ことをテーマに取り組んでおり、そのプロジェクトを持ち込んだ。課題が山積していて、相談はおおきく以下があった。

参考:メインで対応くださった武石さんのツイート


冒頭、いくつか tips の紹介があった。(メモしている範囲で)

  • Languages
    • デフォルトのレスポンス言語は、入力(プロンプト)の言語によって決定される
      • tool calling に英語が混ざっていたら英語になる可能性があるので、instruction で言語を指示すると良い
    • プロンプトには LocalizedStringLocale.current を instruction 指定に使うのを推奨(ユーザーの言語環境に応じられる)
  • Tool calling
    • ツールを強制的に呼び出す際は、instruction に強い表現を使うこと(プロンプトテクニック)
      • ALWAYS USE *** tool to find…
      • You MUST USE *** tool
  • Handling limited token
    • 4096 token というトークン上限
      • 日本語は、CJK は1文字1token(英語は3-4文字1token)
    • トークン消費を見るためのAPIはない
      • やりとりの他にも、生成された結果もセッション内でトークンに含めて管理しているのでややこしい
      • exeededContextWindowSize エラーを捕捉して新しいセッションを作る
      • GenerationOptions.maximumResponseTokens でコントロールする
      • 長い文章を扱う場合、NLTokenizer でチャンクを作る(Natural Language framework)、パラグラフベースで文章を切ることが可能

質疑で新たに知ることができたことのメモ。事前に実験したこと、考えていたことをもとにディスカッションくださった。

  • Core Spotlight のセマンティック検索挙動について
    • 部分一致的な挙動になるのが現状の性能限界
    • Siri の改善が追いついていない
    • WWDC24 セッションで言及されたサンプルコードも現状存在しない
  • ツール呼び出しをしてくれないケースがある
    • 指示文に “must use the tool (“SearchDiaryTool”)” と書いていたところを、よりシンプルに “must use the SearchDiaryTool” とするだけで変わるかも
    • 肌感としてツールの名称定義を、動詞-名詞 (SearchDiary, GetXXX) のようにするなどすると結果が変わったりする
    • ↑ など、指示文の細かい書き方のチューニングが効果ある
    • (ツール呼び出しに限らず)日本語よりも英語の方がパフォーマンスが良い
  • ツール呼び出しの制限
    • タイムアウトは特に明言されていなく、ない認識
    • だが、ツール呼び出し周りの情報がトークンウィンドウを溢れさせて終了することはある
      • セッション自体の指示文やプロンプトだけでなく、ツール定義(指示文など)もウィンドウを占有する。複数ツールを与えるとその分オーバーヘッドが増大する
      • ツール呼び出しでツールから取得した情報もすべて、最終的なレスポンスに関わらずトークンウィンドウを占有する
    • Foundation Models にツール呼び出しをさせるよりも、Foundation Models 外で情報を事前に取得し、プロンプトとして与える方が良い(ツール呼び出しの不確実性 < プロンプトで与えた情報が使われる確実性)
      • Foundation Models は自然言語的に回答を整形するのに使うという割り切りも検討
  • RAG 実装
    • ↑ 武石さんツイートの技術的な噛み砕きや、サンプルコードをもとにした解説
    • チャンク化→ベクトル化したものを、メタデータ付きの構造体としてラップしてあげ照合することで、より豊かな検索体験が作れそう
    • ベクトル化した情報は必ずしも SQL や CoreData に永続化する必要はない(規模によってはオンメモリでも十分)
  • そのほか
    • Foundation Models の得意分野として、結局、サマリや抽出が得意
      • Writing Tools も内部的に同じモデルを使っている
      • Writing Tools では、RAGの自前実装で行わなければいけないチャンク化など内部的に勝手にやってくれるのでラク

前半は上記の質疑を中心に、後半は RAG の実装にチャレンジしていて、つまりどころはその都度質問させていただいた。その際、Apple 社内で流通しているサンプルコードを参考に見せてくださったのは、実現方法が一目瞭然でとても嬉しかった。

ということで今日いただいた情報をもとに、Core Spotlight にはいったん見切りをつけて RAG を自前実装する方向に舵きりしたいと思う。

聴講メモ:集まれSwift好き!Swift愛好会 vol.95 @ 株式会社スマートバンク

オフライン参加のつもりが予定が狂い、今回はオンライン視聴。ラストの Liquid Glass 対応に関するトークはオフライン限定ということで、残念ながら聴講できず。最後のアセットコンパイルの話で、Assets に含めた svg ファイルが、ビルドの過程で各解像度の png に変換されていると知り目から鱗。

イベントページ:https://love-swift.connpass.com/event/367730/
アーカイブ動画:https://youtube.com/live/uZpxIPIg6F0


アプリの “かわいい” を支えるアニメーションツールRiveについて

上ちょ / uetyo さん

  • Rive とは? “インタラクティブ” アニメーションツール
  • ユーザーのタップを起点にアニメーション、音声再生、Haptic も可能
  • 複数種類のアニメーションを用意したい場合
    • Lottie アニメーションは種類分の個数が必要だが、Rive はファイルは一つのみでOK
    • Rive ファイル内で分岐が完結
  • RiveViewModel: Rive ファイルに指示するプロトコルを SDK が提供(型安全)
  • riveViewModel.view() でビュー生成
  • Screen に手を加える必要なし
  • アニメーション、再生タイミング、タイマー調整… は従来、エンジニア実装、デザイナー確認のラリーが発生していたが、 Rive ファイル内でデザイナー完結するのでラク
  • アニメーションの制作方法:
    • 初期:Rive ファイルの作成をエンジニアが主導+デザイナー巻き込み
    • 現在:デザイナーで完結
    • Rive は Duolingo が最も利用している、アニメータ専門チームが存在
  • Lottie Animation との使い分け
    • Rive:パフォーマンスが高い(メモリ使用量、CPUのレンダリングコスト)
    • 銀の弾丸ではない、ループ再生は Lottie を公式が推奨する
    • カスタムフォントはキャッシュ機構が必要(メモリ使用が増大し不安定に)
  • Q&A
    • Lottie と比べて微妙な点
      • Rive が高機能すぎて作りにくい
      • Lottie は AE から直接エクスポートできるが、Rive は専用のツール (Rive Editor) が必要で学習うコストが高い
      • 前述のパフォーマンスに対する考慮が必要
    • 後発の Rive だからこそ導入時の困りごと
      • トラブル時情報が少ない(フォーラムやGitHub Issueで質問→レスポンスに時間がかかる)
      • 日本語での情報が少ない、AIの学習も進んでいない
    • 採用すべき
      • ただのローディングだけであれば慣れ親しんだLottieが良さそう
      • 画面全体で利用したい、アニメーション途中のインタラクションをさせたいケースはおすすめ
    • 両方採用はあり?
      • ワンバンクは両方利用
      • ケースによって片方に倒すのもあり

異業種からiOSエンジニアへの道のり〜iOS開発の魅力〜

hinakko さん

“聴講メモ:集まれSwift好き!Swift愛好会 vol.95 @ 株式会社スマートバンク” の続きを読む

参加メモ:A11y Tokyo Meetup オフライン交流会 #7 Beer Bash

最近アクセシビリティについて WWDC のセッション動画を中心に学んでいるが、障害当事者の方々と接する機会がないため、知識のインプットだけに終始している。

普段プロダクト開発をしながら、自社サービスが十分にアクセシブルでないことは明白。だがユーザーからのそうしたフィードバックは決して多くはない。それは使う以前に見捨てられている、という状況を示している可能性もあるし、より俯瞰してみるとそもそも競合他社含め、(携わっている)業界自体がアクセシブルに機会提供できず、諦めとして認識されているのではないか?という危機感もあった。

そう考えていた時に、元同僚が運営メンバーにいる A11yTokyo Meetup がビアバッシュイベントを開催すると知り、何かきっかけを得られればと思い参加を決めた。

イベントページ:https://a11ytyo.connpass.com/event/364520/

会場テーブルとラガービール

会場は港区のドイツビール・ドイツ料理屋。

参加メンバーは、聴覚、視覚障害をお持ちの方、車椅子利用者の方など障害当事者の参加があった。アクセシビリティへの関わり方についても、業務で主導している方だけでなく、自分のような情報収集をしている段階の方、博士課程で研究されている方と様々だった。また、ホワイトボードを介しての筆談や、手話で会話を取り交わし合う場面もあり、日常では中々意識する機会がないコミュニケーションのあり方に気づかされた。

学生時代ノートテイカーをされていた方、博士課程で弱視の方のスポーツ補助を研究されている方の話を聞けたのも良かった。

細かいことだが、手話にも方言があることを知れたのが驚き。同じ言葉もその表現は地方によって異なり、手話も言語のひとつといえば当たり前のことなのだろうが、そんなことも知らなかった。

ちなみに、筆者も片耳難聴を患っており、たまたま同じテーブルで聴覚障害の方とご一緒でき、日頃の不便を共感しあったりした。その方は北欧から仕事で来日されており、アメリカやヨーロッパにおけるアクセシビリティ対応の現状についても知ることができた。

この会はビアバッシュということでいわゆる飲み会中心の交流会だが、ミートアップ自体は隔月でLT会のようなこともされているとのことで、継続的に参加したいと思った。また、9月には千葉でアクセシビリティカンファレンスが開催されるとのことで、こちらもキャッチアップしたい。

アクセシビリティカンファレンスCHIBA2025

聴講メモ:実例から学ぶ!モバイルアプリ開発における「AIの使いどころ」

Claude、Devin をはじめとしたコーディングエージェントの利用方法、操り方について実践を経て得られた知見について、五者五様の発表。モノリポ管理であったり、コード調査であったり、実装タスクの向き不向き、デザイン連携、MCP の利用まで多岐にわたっていた。こうした業務利用から生まれたノウハウは、業務生産性向上もそうだが、無駄なトークン消費をいかに抑えるかであったり、そのための見切りポイントの参考にもなるので嬉しい。

イベントページ:https://findy.connpass.com/event/363471/

今回はオンライン聴講で、いつもであればメモを記事にするのだが、今回は移動しながら聴いていてできていない。が、どの発表もAIの業務利用に取り入れたい知見で溢れていたので、備忘録として発表スライドを並べておく。(ページ読み込みが激しく遅くなったので改ページした。)

聴講メモ:SPARKS #1 – AR/AI Glass Hands on!

MESONさん主催の新企画・XR/空間コンピューティング系ミートアップの第1弾が開催されたので参加してきた。

イベントページ:https://meson.connpass.com/event/362171/

今回特に期待していたのは、トークセッションやクリエイターLTも然ることながら、さまざまなARグラスが集結し、体験できるというハンズオンが設けられているということだった。特にここ最近はAR系の新製品が目まぐるしい勢いで登場し、それぞれが高額なのもあってまったくキャッチアップできていなかったので、大変ありがたかった。


共催4社の代表4名によるトークセッションは、AI時代におけるARデバイスのありかた、HMDとグラス型との対比に関するトピックが主軸。(以下、4名の登壇者の発言が混在しているので、どんなトピックが話されたかの参考程度)

最近注目しているグラスデバイス

  • Even G1
    • 1日中着用可能、Apple Watch をつけなくなった、食事中スマホ見なくなった
    • デフォの時計:商談中コミュニケーションが分断しない
    • 通知、時計機能メインで利用
      • マイク x AI の機能はあるが、使ってない
      • デフォルトは精度高くない、3rd Party がアプリ開発可能
    • Even G1 のような AR グラスは、カメラ相性が良さそう
      • 視界のコンテクストを共有できることが重要、言葉で説明せず指示語が使える
  • XREAL One Pro
    • ディスプレイ使用。視野角狭いことでかえって目の前の作業に集中できる
    • 映像で使うシーンがライフスタイルにない
      • これから出てきそう?
  • カメラの要不要はデバイス将来を決定づける分岐点
    • マイクスピーカーだけで良いか、映像含めたマルチモーダルか、まだ未知数
    • AIの精度を上げるためには、コンテクストとしての映像、カメラが必要
    • 気づかないものにAIが先に気づいてヒントを与えてくれる世界(ゼルダの妖精)
    • AIのパーソナル化、パーソナルアシスタントとしての機能性
      • データ量が重要、ユーザーどこでなにをしたか、AIグラス経由でスキャンできることで収集

HMD vs Glasses

  • HMD は「やるぞ」のモードが必要 → グラスは日常でカジュアルに利用可能
    • HMD:企業向け、家、仕事使い
    • グラス:日常使い
  • コンテンツの作りやすさでは HMD > グラス
  • 来年は AR グラスがますます浸透する
  • HMD とグラスとで、ユースケースが収斂し始めている
    • 技術登場当初から社会に受け入れられるまでに形態は変化する
    • 例)電話:ラジオ的な 1toN から、1to1 の受話器型へ
    • スクリーンレス、AIとの融合、へ収斂するのでは
  • 現状 AVP はディスプレイの代替になっていっている
    • 目や手の操作の快適性は企業に刺さってない
    • それよりもディスプレイの高精細さ

ビッグテックのグラス戦略

  • 「ディスプレイいらない」となりそう
  • リアルタイム性とファッション性、マルチモーダル(マイクスピーカーカメラ)の形態が普及しそう
    • その後、AR Glass「Pro」で、ディスプレイ付きが普及する?
  • 普及のしやすさで言えば、カメラなし、ディスプレイあり
  • ハードウェア側のエコシステムが整うことで、クリエイターが未来創造の速度が加速する
  • コンシューマー側は 3D を扱うための学びのハードルが高い
    • 普及するまでの時間は予想よりも長引く(グラス型の普及期が長く続く)かも
トークセッションの様子
“聴講メモ:SPARKS #1 – AR/AI Glass Hands on!” の続きを読む

聴講メモ:集まれSwift好き!Swift愛好会 vol.94 @ ウェルスナビ株式会社

Swift 愛好会に現地参加。

コーディングエージェントでの開発に関するテーマが半分。codelynx さんの発表は月初のMOSAでも聴いていたが開発事例が増えていて、スピード感がすごい。GitHub Copilot for Xcode、仕事で使っているが、エージェントモードは使ってなかったし、画像アップロードに対応しているのは知らなかった。実用性高そう。

Icon Composer は iOS 26 対応では一番取り組みやすい&効果が見えやすい部分なので、落とし穴が聞けてよかった。ユニットテストでの小数点の扱い、Apple がテストライブラリでの対応を放棄しているのが悲しい、、笑

イベントページ:https://love-swift.connpass.com/event/361053/


Icon Composer のいろいろ

Megabits_mzq さん

  • レンズをモチーフにしたアイコンを Icon Composer で再現した時に発生した課題
  • レイヤーに分ける必要がある:アートボードを分割した
  • Composer にインポートする際の問題
    • ガラス効果が見えない:svgファイルにキャンバスサイズと同じ四角が存在した、Composer がこの外周をエッジと認定
      • 解決策:svgでなくPNGで書き出すこと
      • PNGはぼやけるのでsvgがよいが、、
    • Mono モード、なんか暗い?:元の緑色の明度が暗かった
      • 解決策:Composer 上で Mono モード専用に色を調整できる
    • レイヤーが多すぎるという警告:4レイヤーのみ
      • 解決策:デザイン調整するしかない、背景は Composer で設定でき、自分でレイヤー用意する必要ないので節約できる
    • 下半分をぼかす視覚効果:iOS 26 では無理そう
      • 解決策:ぼかしをなくす
  • .icn を Assets の隣におけば表示される
  • 新しいSDKでコンパイルすれば古いOSでもこのバージョンが使われる
    • → コンパイル途中で画像に変換される(多分)

Claude Code で創る世界と壊れる世界

codelynx さん

“聴講メモ:集まれSwift好き!Swift愛好会 vol.94 @ ウェルスナビ株式会社” の続きを読む

聴講メモ:try! Swift Tokyo WWDC Recap 2025

今月何度目かわからなくなってきた、Apple Japan での Recap イベントに参加してきた。今回は、筆者も当日スタッフとして参加した try! Swift Tokyo 主催のもの。登壇は visionOS と Foundation Models のふたつとも筆者的関心の高いテーマでありがたかった。特に Foundation Models adapter training は未遂に終わっていたので、実際に触った所感を聞けたのが良かった。

タイムテーブルは筆者が確認していた限り直前まで公開されておらず、個人的に最もサプライズだったのは、 Swift Student Challenge に日本から入賞された学生さんがスピーカーとして登壇されたこと。Apple の Newsroom で取り上げられていたのを拝見していたので、すぐに分かった。入賞とひと言で言っても、世界 TOP50 に選出され WWDC に招待された上に、さらに11名だけが得られる Tim Cook へのピッチ機会も設けられた、とのこと。しかし彼のプレゼンを聞いていて、堂々とした語りと、なにより入賞した花札アプリのコンセプトが素晴らしく、これが世界レベルかと感動。ちなみに花札アプリは実際に触らせていただくこともできた。花札という古典ゲームにオリジナルの概念を盛り込んでいて、サウンドにも見た目にも細かな工夫が凝らしてあり、誰でも楽しみながら花札を覚えられるつくりとなっていた。

イベントページ:https://lu.ma/kd101ho8


visionOS 26 のアップデート内容と所感

satoshi さん

  • What’s new
    • Widget
    • instancing: メモリ効率がかなり上がった
  • 他セッション
  • 実機デモ
    • Enterprise APIでの両眼映像の取得
      • シェーダーを通したリアルタイム画像加工ができる(高速処理のためMetal使った)

Unleashing Foundation Models

shu223 さん

  • Tool calling
    • 制約:modalilty – multi-modal ではない
      • テキストのin/outのみ
      • 音声や画像の入出力はない → tool calling でやった
    • Tool calling の処理実装はなんでも実装可能
      • Speech + Image Playground
      • ツールとして渡しているだけなので、使わないという選択をモデルがすることもできる
        • → 画像生成を依頼しなければ使われない
  • Custom adapters
    • モバイルで動く小さめなモデル(Llama, Gemma の同程度のサイズのモデル)と比べてもやや劣る
    • Custom adapter で大幅に性能が向上した:すべてのベンチマークで、はるかに大きなモデルよりも優れた性能を発揮
      • GPT-4.1 や 4o を含む大規模モデルすらも超えるケースも
    • アダプター
      • 特定ケースにチューニングされた追加アダプター
        • e.g. .contentTagging
        • たくさんある?とおもっったら、general / contentTagging しかない
        • ほとんどのユースケースが、general に内包されている
          • tag, entity topic は tagging
    • 概要
      • LoRAを使用
      • ベースモデルの重みは固定し、アダプターの重みのみ更新
      • 必要なデータ量の目安
        • 単純タスク:100-1000 サンプル
        • 複雑タスク:5000サンプル以上
    • ツールキット
      • 必要なサンプルデータやコードが揃っている
      • .fmadapter ファイルがカスタムアダプターの実態
        • Xcode でプレビュー可能
    • Entitlement
      • アダプターのデプロイは、サイズがでかいのでバンドルするのではない、background assets フレームワークを使う
        • テストはアプリに組み込んでOK
    • サンプル(演劇)を使った学習結果のデモ
      • エポック(学習サイクル)を重ねるごとに、タグ構造を学習しフォーマットに沿った台本生成が可能になる(らしい)
      • 学習時間はMBPで10分程度:OSバージョンアップごとの再学習も現実的かも
  • Q&A
    • 回答のばらつきは temperature で指定可能
    • 基本メジャーバージョンごとにモデルが変わる sticky patch で上がることはない
      • 追従できなくてもアダプター自体は通るが、精度が落ちる

聴講メモ:WWDC25 Recap – Japan-\(region).swift

昨日に続き、WWDC25 Recap イベントへ @Apple Japan。全国5会場を繋いでのLT10本立てで、多岐にわたるテーマが並び充実した時間だった。各拠点の盛り上がりが映像を通して伝わったのも温もり感じられて良かった。また、Twitter でアイコンは知っているが面識なかった方々とお会いでき、懇親会含めてちゃんとお話できたのが嬉しかった。

Liquid Glass を Metal で再現するテーマで、登壇者の方がガラスルーペなるものを購入され(Apple のデザインチームと同様に)実際に見え方を自身の目で試されていたのが、非常に良かった(筆者もその場で注文した)。

あと Foundation Models について、追加学習はできないものだと思い込んでいたが、Adapter training という手法を用いることで可能なことを参加者の方に教えていただいた。これは試してみよう、、

イベントページ:https://japan-region-swift.connpass.com/event/353002/


Liquid Glass を Metal Shader で描きたいだけの人生だった…

temoki さん

  • 実際にガラスルーペ買って再現してみた
  • Alan Dyeの言葉 → それってMetalのこと?
  • 作ってみた
  • layerEffect modifier を使う
  • 光の屈折を distortion effect で実装
  • 他にも、、
    • 光の反射のハイライト
    • ガラスの種類
    • 液体のような近接形状の融合
    • 背景ブラー
  • 大変なので、Gemini CLI、liquid_glass_render に頼る
  • Metal への移植を Gemini にやってもらった
    • Metal の Geometry Functions に Liquid Glass 向けっぽい関数(物理ベースのレンダリングが必須)
    • アーキテクチャをドキュメント化してもらった
  • Demo

動画エフェクトに関する新技術の紹介

ShomaKato さん

“聴講メモ:WWDC25 Recap – Japan-\(region).swift” の続きを読む