Info for Developers of Microsoft HoloLens

HoloLens 関連イベントと情報共有に努めるブログ

[日本語訳] The Realities Show - Episode 1: HoloLens 2

HoloLens 2 に関してマイクロソフト公開情報を確認、検索したい方向けの記事です。

動画の要約

The Mixed Reality Academy 担当とHoloLens と Mixed Reality のディベロッパー エコシステム チーム プログラム マネージャーによる HoloLens 2 をメイン トピックに技術的な話や、視聴者からの質問に答えている番組です。

スピーカー陣:

スピーカー陣の概要

  • DanielNick は The Mixed Reality Academy 担当なので、Academy コンテンツ制作関連の知識はあるが、HoloLens のエコシステムや機能の詳細については Jesse に聞く構図になっている。
  • Daniel は番組のファシリテーター。進め方が上手。
  • Nick はとにかくマイクの性能が良いことに感動しているエンジニア。しゃべり方もとってもフランク。絶対良い奴。
  • Jesse は随所随所に「まあ、デモ動画は素晴らしいけれど、まだ開発中なんで」的なお断りを入れる真面目なプロジェクトマネージャー。Windows Mixed Reality Immersive headsets のことを VR headsets と言っちゃうところがチャーミング ポイント。

日本語訳(意訳)

Daniel: こんにちは、おはよう、こんばんは。The Realities Show にようこそ。私の名前はダニエル・エスクデロ。The Mixed Reality Academy のシニア テクニカル ディレクターです。
Nick: 僕はニック・クリンゲンスミス。The Mixed Reality Academy のエンジニアをやってる。
Daniel: そして、今日は我々と共にスペシャルゲストのジェシー・マカローが来てます。自己紹介をお願いできますか?
Jesse: もちろん。俺は HoloLens と Mixed Reality のディベロッパー エコシステム チームのプログラム マネージャーだ。
Daniel: ようこそ
Jesse: ありがとう
Daniel: 皆さん、このショーが何であるかということだけど、The Realities Show はカリフォルニア州サンフランシスコからお送りしている30分間のライブ ストリームで、HoloLens から Azure Mixed Reality Services、そして Mixed Reality 技術全般に関する番組です。性能や機能、推奨事項について話します。もちろん、できる限り多くの質問を実際のフィードバックから答えるようにします。それでは始めましょう。さて... おっとどうした... スライドが見れないぞ... 良かった... それでは始めるにあたり、とてもクールな動画を紹介しましょう。皆さんのほとんどは既に観たことあるでしょうが、もう一度観る価値がある動画ですよ。
動画再生
Daniel: 素晴らしい動画でしたね。
Jesse: ああ、最高だ。そう、トレバーが今朝チャットで、この動画の再生数が100万回を超えたって言ってたよ。
Daniel: それは素晴らしい。では最初の質問は「何に最も興奮したか?」かな。
Jesse: 俺が最も興奮しているのは、今日ここで開発者コミュニティのみんなとこの事について話せることさ。開発者と毎日話していることだが、マイクロソフトに入社してから、俺たちが創り上げている驚愕のテクノロジーを話せないことは辛くてね。今回の発表でようやくみんなの質問に答えられることが、俺の最も興奮していることだよ。
Nick: うん、その発表の中にあるたくさんの中で、僕がいいなって思っているのはマイクで、新しいマイクは、周りの環境音から声を拾う能力が凄いんだ。確か数値は 90デシベルだったと思う。なので、周囲の環境音が90デシベルだったとしても拾えるんだ。HoloLens 1 の問題点だったけど、デモ会場やカンファレンスなんかでは音声認識に頼ることはできなかったよね。「あー、よし、じゃあ音声認識関連は無しにしよう」みたいな感じで、ほとんどの人はリストから削除してたw でも、今回はマイクは声を拾うよ、たとえ隣で大きい雑音がしてても、今回は頼れるんだ。だから、みんなが今流行りの音声認識みたいなスピーチサービスで何をするのか、とても楽しみだよ。今の言語解析や認識は凄いからね。この新しいマイクと音声認識で、みんなが何をするのか最高に興奮しているよ。
Daniel: それに追加で、どの言語のサービスが利用可能になるか、ちょっと話そう。HoloLens 開発経験が無い人のためにいうと、HoloLens にはボイスコマンドがある。speech recognition (スピーチ レコグニション: 発話認識) がある。自然言語理解の機能もある。他にも色々あるが、いくつかは組み込みで提供され、その他のものはクラウドから提供されるね。この辺りについて何か聞けるかな?
Jesse: ああ。音声認識を内蔵しているので、プログラムやボイスコマンドで利用できる、けどこれは static (静的)だから事前に定義しておく必要があるんだ。その一方で、クラウドサービスはWeb サイト上の画面操作から開始出来て、デバイスと一緒に強力な自然言語理解機能を使えるんだ。事前にプログラミングしてなくても、理解しているしていない問わず全部記録しているから、後から学習させて改良するのにも使えるよ。Speech to Text みたいな音声認識もあるから翻訳みたいな用途にも使えるよね。だから、英語から――俺もどのくらいの言語に使えるかわらかないけど――翻訳できる。
Nick: (使える言語は)たくさんあるよ。
Jesse: ああ。とてもパワフルだ。なんか面白いことをやるんだったら俺にメッセージを送ってほしい。
Daniel: 素晴らしい。私の視点から――開発者側の観点から始めるよ、皆さん不安がある点からね――多分、視野角についてはどうだろう。視野角は、表面積が2倍なったけど、これは単純にホログラムがたくさん見えるようになったことを言ってるんではなくて、ホログラムとの interact (インタラクト: 対話, 相互に作用すること) をする方法が大きく変わることになる。インタラクションデザインに関わることで、私の情熱の領域だ。HoloLens 1 では、ホログラムを視野角内で見て Air Tap する必要があったから、ホログラムから離れる必要があった。HoloLens 2 では、幅が広くなり手を差し伸べて触れることもできる。これは本当に素晴らしいことだよ。動画の中でホログラムに対して様々な interaction (インタラクション: 対話方法,相互作用) や manipulate (マニピュレート: 操作) をしていたね、この点は私にとって最高にエキサイトした点だよ。
Nick: 確かに新しい視野角は、レンズいっぱいに広がるから本当に自然な視野角に感じるよ。
Jesse: 開発者の一人と話したんだが、彼は眼鏡を掛けている時みたいにレンズいっぱいに広がるから、レンズフレームの外側に何かが表示されることは期待しなくなったって言ってたね。レンズと導波管 (waveguide) 目いっぱいに広がるから、それより外にホログラムが見えるとは考えないんだろうな。
Daniel: 確かに。ちょっと皆さんに見てもらいたい動画がある。短い動画でインタラクションに関する奴だが最高に素敵な奴だ。
動画再生
Daniel: この動画には、HoloLens 2 における近い距離のインタラクションや、遠い距離の場合のインタラクション、ホログラムへの触れ方に関して、どのようにすればよいのか伝える affordance (アフォーダンス: オブジェクトの機能の視覚的目印となるもの)の詳細がたくさん紹介されています。ホログラムに手を差し伸べて ... おっと、戻って... ホログラムに手を差し伸べたとき、必要な時だけ、アフォーダンスが表示されるのがわかるでしょう。bounding box (バウンディングボックス: 画像、シェイプ、テキストを囲む立方体の枠線) の場合、ハンドルを掴んだり回転する際やコーナーから摘まんでスケールするときに光るのが分かると思います。このインタラクションは素晴らしいもので、HoloLens 1 でも Air Tap で同様のことはできてましたが、まるでスパイダーマンの手から出る糸ようにホログラムを掴んだり、置いたりすることが自然にできます。
動画再生終了
Jesse: ああ、そうだ。この動画で紹介されているものは、コンセプトやデザインが完成していないから、実際のデバイスで見る時とは違うかもしれないことは言っておこう。俺たちは、デザイナーや開発者達の素晴らしいチームで毎日取り組んでいて、最善の方法が何であるか追究している。アフォーダンスとバウンディングボックスのことや、どんな感じで光ったり点灯させるか開発者のように考えているよ。一方で、ユーザー視点から言えば、HoloLens のパワーユーザーではないような一般ユーザーが HoloLens を使う時のことについて考えなければいけない。俺はここが重要な点だと思うね。 instinctual interaction (インスティンクチュアル インタラクション: 直感インタラクション) について話すんであれば、事前に説明することなくユーザーが理解できるようにするべきだろう。
Daniel: まさにそうだね。デモをする際の大きな問題といえば、HoloLens ジェネレーション 1 では、Air Tap の仕方を説明しなければならなくて、我々は簡単だと思っている Air Tap がうまくいかないトラブルが発生していたね。
Jesse: 山のように間違った Air Tap のやり方があるな。正解は 3 つだけだ。
Daniel: 直感インタラクションについてだが、まあこれは、覚えやすいキャッチ―な名前ではないと思うけど、ホログラムに手を伸ばしタッチするようなインタラクション方法を見事に表現しているね。
Nick: 僕がこのことについて思うことは、手から伸びる光線が、遠くにいるときは摘まむような感じになって、オブジェクトが近いと掴むようなモーションに代わるってとこで、大きな変化ではなくて、近くにある時は掴むし、遠くにある時は摘まむ感じになることかな。
Daniel: そうだね。また、ジェスチャーとボイスコマンドを組み合わせるのも興味深い。「これをここに置いて」なんて言い始めて――これはクールなインプット方法であるアイトラッキング機能の一つにも関わってくるところだね。
Nick: 今起きていることのコンテキスト含め全部組み合わせりしてね。
Jesse: ここ大事な点なんだが、今まではシングル インプットをベースにして何をするか決めてたわけだ。Gaze ジェスチャーとボイスしか無かったから、ちょっとそれらを組み合わせるくらいだったけど、ユーザーが何を見つめているか分かるから、コントロールする信頼度が上がるわけだ。キャンパスの俺たちの開発者達がやってることをちょっと見させてもらったけど、このコンビネーションはイケてたぜ。
Nick: それに追加してマイクだよ。本当に何を言っているか分かってくれるんだ。「そこに置いて」ってね。すごいよ。
Daniel: ああ、オフィスのフロアとかでね。じゃあ次に行こうか。開発者にとって、もちろんだが、最初に知っておきたいこととして「HoloLens 2 開発をどのように始めたらいいか」ってことがあると思うんだが。
Jesse: ああ。これからの数カ月間、沢山のことが出てくる予定だ。ドキュメントだったりチュートリアルだったりね。HoloLens で開発するための様々な方法に関することだよ。基本、今公開されているものとほとんど変わりはないんだ、DirectX も Windows API に対しても直接使えるし、Unity 開発環境もある。Unity 2018.3 以上の最新版で ARM ビルドが必要なことくらいかな。新しい HoloLens 1は ARM チップだからね。あとステージで発表したように Unreal のサポートがまもなくやってくる。この詳細については今後明らかになるよ
Nick: そう、僕はゲーム開発のバックグラウンドがあるから、ステージ上にいるティム・スウィーニーが HoloLens 対応してるってアナウンスしたときは最高だった。アンチマイクロソフトのティム・スウィーニーがもう過去のもので、ティムはこっちサイドだぜってことを知った瞬間はマジ痺れたよ。
Jesse: ああ。強調したいのは、俺たちが提供できるできる限りの様々なツールと一緒にエコシステムが築かれているってことだな。ネイティブ API だろうが Unity、Unreal なんて関係ない。俺たちは開発者が使いたいツールをなんだってサポートするんだってことだ。
Daniel: そうだ。それはとてもいいことだ。では実際、どんなツールを私たちは開発者に提供しているだろうか。我々が今できる全力のコンプリート・スイートは何になるかな?
Jesse: ああ。俺たちが取り組んでいた Mixed Reality Toolkit というオープンソースのツールキットがある。オリジナル HoloLens では、HoloToolkit と呼ばれていたが、VRヘッドセット発表後に Mixed Reality Toolkit に名称を変更したんだが、去年、破壊的変更があったな。この破壊的変更で openVR に開放した形になったし、openVR でビルドすることでクロス プラットフォーム対応が効率よくできるようになった。もう自分のプロジェクトに巨大なプロジェクトを取り込む必要なんてない。
Nick: HoloLens や Microsoft Mixed Reality 用ヘッドセットだけじゃなくて、クロス プラットフォーム ツールとして両方に賭けることができるのはいいことだと思う。Vive のような openXR … openVR のような全部にね。ポイントは、とりあえず自身のプロジェクトに MRTK を付けておいて、開発に専念できるってことだよね。
Jesse: ああ。他のプラットフォームに対する開発だけじゃなく、ARKit や ARCore に対するソリューション開発をしているんだったら、ターゲット プラットフォームを変えるだけで良くて、大して壊れやしない点も良い点だ。大量のエラーも吐かないし、今まで使ってるものに似たコードを使えるぞ。他のプラットフォームに対するビルドもできるしな。
Daniel: 素晴らしい。それで、Mixed Reality Toolkit は GitHub にあるんだよね。
Jesse: そうだ。GitHub にある。aka.ms/mrtk にアクセスすれば、GitHub ページに飛んでダウンロードできる。Microsoft のチームも取り組んでるし、大きなコミュニティのみんなも関わってるぞ。みんなの協力や貢献が無ければ今日は無かったし、今後もそう望むよ。今後数ヵ月に掛けて、HoloLens 2 関連の新しいものが出てくるだろう。
Daniel: そうだ、MRTK で確認できるインプットに関するスクリーンショットがある。これについて少し話してくれないか。
Jesse: ああ。これは Microsoft のデザインチームによるサンプル シーンのひとつだな。インタラクティブ オブジェクトと呼んでいる様々なものにどういう風にインタラクトするか紹介している。コーヒーカップは実際にピックアップすると中にコーヒーが入っていて注いで消えていく様子を確認できるぞ。ピアノ キーボードもある。バルセロナのステージ上にあったものを全く同じものではないが、ピアノを弾くことができるぞ。ボタンが付いてて、押し込み具合を測ることができるような直感インタラクションが意識せずに試せる。サンプルシーンにとしてすべてのものが入っているから、まとめて遊んでみるといい。
Daniel: 手のシミュレートはどう?
Jesse: エディター上の手のシミュレートについては、俺が先週あったミーティングでの話なんだが、ミーティングに参加してない奴らを招待したところガンガン入ってきてな、何でかって、これに関してクレイジーなことが巻き起こって、チャット上でめちゃくちゃ盛り上がったんだ。「一体何が起こってるんだ!?」ってな。まあ、ともかく両手の 25 ジョイントをシミュレートできて、コントロールしてマルチ ハンド インタラクションを実現できる。ものを掴んだり、ピン止めしたり、ストレッチやマニピュレートしたりな。デバイスが手に入る前に色々なコントロールに関して楽しむことができるぞ、もちろん、デバイスが手に入ったら試すことをお勧めするが、始める良い機会になるだろう。
Daniel: デバイスが無くても出来ることは大切だね。
Nick: 開発者側で検証できるのは大事なことだよ。
Daniel: そうだな。では、次だが、観客からの質問を確認したい。私たちが答えられるものがあるかな。
Nick: みんな何を知りたいと思ってるんだろう。楽しみだ。
Daniel: まだ無いかな?
Jesse: あるぞ。「網膜トラッキングと虹彩情報に関して開発側で使えるようになるか?」だ。アイトラッキングに関してだが、ユーザーがどこを見ているかという情報と、インタラクトに使うことはできる。虹彩認識に関しては Windows Hello で使ってはいるから Windows Hello API 経由で使うことはできるだろうが、カメラから来るデータそのものへのアクセスはできないだろうな。
Nick: うん、なんというかプライバシー関係のアレで、誰かの網膜スキャンがどこかにアップロードされたりするのは望まない形で、プライバシーは僕らが気に掛けているところだね。
Jesse: ああ、私たちにとって大切なことだ。
Daniel: 基本的に、アイトラッキングは体験を向上させるためのインタラクションのためのもので、データのものではないってことだね。
Nick: そうだ。
Jesse: これについては、俺たちもまだ検証段階だから、開発者のみんながどんな素晴らしいアイディアを持っているのか見るのを非常に楽しみにしているよ。
Daniel: 素晴らしい。私からも1つ質問いいかな。
Jesse: ああ、どうぞ。
Daniel: 快適性が3倍になったってのはどう計ったんだい?(笑)
Jesse: ハハ、Mobile World Congress で発表してからというもの、その質問をよく受けるよ。なんたって、奇妙な文言だもんな、3倍快適になりました、なんてな。でも実際、俺たちは様々な計測をしたよ。動画で人々の頭をスキャンしている様子があるが、あらゆる人間の頭をスキャンして人口の 95% にフィットするデザインにしたんだ。実際行ったデザイン方法として、テーブルに座って2、3時間ほどボードゲームを遊ぶように頼んで、被験者が不快になって外すまでどのくらい時間が掛かるか計測したよ。実際、多くの人たちが被っていることを忘れてしまうことがわかったんだ。首の筋肉への緊張が起こっているから、特にそこに注力して色々調査をした。単純にこの3倍という数値を引っ張りだしたんじゃなく、多くの研究をしたうえで出てきた数値だよ。
Daniel: 驚きだな。
Jesse: 「HoloLens 2 に熱探知カメラは搭載されているか?」これはきっと赤外線カメラのことだと思うが、そうだな、HoloLens のカメラは興味深くて、RGB と赤外線カメラの両方が付いている。生データにはアクセスできないがな。いわゆるIRカメラのようなヒートセンシング用途ではなくHoloLens 1 の時と同じようにトラッキングに使っている。HoloLens 1 にやったみたいにリサーチモードが HoloLens 2 にあるかどうかは聞いてないが、もしあるならアクセスできるだろうから、分かった時に知らせるよ。
Daniel: いいね。次の質問は開発者達の共通事項だが「HoloLens 1 アプリ HoloLens 2 で動作するのか?」だ。動作させるために何をしたらいいかな。
Jesse: HoloLens 1 アプリはそのままじゃ動かない。なぜなら HoloLens 1 は x86 アーキテクチャでビルドされていて、HoloLens 2 は ARM ベースだからね。だから HoloLens アプリを持っていて HoloLens 2 で実行したい人は、最新の Unity にして MRTK v2 で実装することから始めて欲しい。その後に ARM でコンパイルしてもらうんだが、自分のアプリを ARM でコンパイルするだけでなく、サードパーティーのライブラリや独自のライブラリを使ってるなら、それらもコンパイルするか ARM 互換バージョンを見つけてほしい。この3つのことと発生したエラーをクリアできた後に、新しいインタラクション モデルの追加を進めるといい。
Nick: 基本的な Unity アプリだったら作業はそんなに難しいってわけじゃないってことだね。
Daniel: 古い HoloToolkit から MRTK への移行はどうだろう?
Jesse: この二つのプロジェクトは side-by-side でプロジェクト上に共存できるから競合はしないよ
Nick: 古い HoloToolkit と MRTK が?
Jesse: そうだ。みんな移行シナリオだけやれるってことだ。両方プロジェクトにもってきて、違う部分はゆっくり移行していけばいい。
Nick: でも新しい MRTK は古いのと比べて違うモデルってのが違うところだよね。
Jesse: ああ、そうだな。そのことについてちょっと話したいのかい?(笑)
Nick: 新しい MRTK は一から作り直されたもので、クロスプラットフォームが中心にある感じだ。それを念頭に置いて再設計されたから、シーン内のゲームオブジェクトではなく、スクリプト可能なオブジェクトが採用されてるってところが違うんだ。この設計のおかげで設定関連の変更がしやすくなっていて、マジやばいプロファイルがあって、プロファイルを変えるだけでアプリケーションの振る舞いを変えることができる。これは本当に便利だよ。
Jesse: そうだな。
Nick: MRTK で変更されたいくつかの点はとても優れているから、きっとみんな気に入ると思うな。
Jesse: チャットからもう1つ質問だ。「HoloLens アプリのリリースに関する moderation (モデレーション: 運営側によるアプリのチェック・評価など)についてチームはどう考えているのか?」追加で「ほかのプラットフォームではビッグチームで制作されたゲームしか許可しない声明が出ているが?」だ。繰り返しになるが、俺たちはステージ上で発表した1つにオープン原則がある。開発者はプラットフォームに応じた独自のストアを用意できるから Windows ストア や Steam に縛られないってことだ。
Nick: ハッシュタグ公開だ(独自ストアの比喩)
Jesse: そうだな。みんなが自分のアプリを公開するのを非常に楽しみにしている。
Daniel: 素晴らしい。社内からの質問がチャットから来ている。「Spatial Anchors と Anchor Sharing の違いは何か?」ネットワーク上でマイクと Anchor Sharing のコラボレーション体験を実施したことのある方にとってSpatial Anchors と Anchor Sharing はどう違う?
Jesse: 多分俺が答えた方が良い質問だな、それでいいかい。
Nick: 僕は Azure Spatial Anchors に知ってるが、World Anchors についてはわからなくて。
Jesse: World Anchors はオリジナル HoloLensのコンセプトだったな。開発者は、World Anchors にアタッチすることである物を永続的にあるようにすることができた。デバイス上でやっていたことで、ホログラムを World Anchor をアタッチしてどこかに配置することができるから、アプリを閉じてもう一度立ち上げた時にホログラムが戻ってくるようにできた。World Anchors をアタッチすることで、HoloLens に「このオブジェクトはここに配置しておけよ」って、伝えることができたわけだ。アプリ起動時に、ホログラムがそのまま残っているようにもできた。クラウドベースのサービスである Azure Spatial Anchors は同じ Anchor を重ね合わせることができる。しかもマルチプラットフォームだから、HoloLens、ARCore、ARKit そして今後出てくるようなプラットフォームに対しても、同様に特定の物理環境のでオブジェクトを配置することができるようになる。覚えておいてほしい点としては、データはクラウド上でシンクされるから、誰か他の奴が違う HoloLens を着けて同じアプリを使ってる場合でも、クラウドから Anchor を引っ張り出してきて、以前配置した通りにオブジェクトが見えるってことだ。例え、ARKit や ARCore のスマホやタブレットを使っていてもね。
Nick: 繰り返しになるけど、僕が思う最高のことの1つがこのクロスプラットフォームさ。僕らはここで、クロスプラットフォーム最高ってマーチングしてる感じだよね。ARCore でも ARKit もちろん HoloLens で動くし、デプスカメラは必要なくカラーカメラだけで動くのは凄いよ。ユーザーのみんなに HoloLens を用意してもらう必要なく君のアプリケーションを触ってもらえる。みんな、ARマーカーや手持ちのマーカーを持って色々やってるみんなには衝撃なんじゃないかな。今まで訳のわからないちゃちな画像であれこれやってた僕たちにとって、凄い楽しみなことだよ。
Daniel: そうだね、大きな変化が生まれそうだ。
Jesse: お、マイクにノイズキャンセリングは付いているのかう質問が来たぞ。
Nick: あー、ええっと正確にはわからないけど確か 5 方向にマイクがあって声を本当に周りの環境から良く拾うんだ。周りが90デシベルの環境でも良く拾うし、90デシベルっていったら、そう、横でフルスピードのミキサーが動いている感じで、うごくうるさくても認識してくれるんだ。
Daniel: 強力なノイズキャンセリングだね。
Jesse: 「HoloLens 2 でも HoloLens 1 の時と同様に録画するときはフレームレートが 30 に落ちるのか?」その通りだ。Mixed Reality Capture カメラは 1080p で 30fps だ。理由としては、モバイルデバイスと同様、どこにパワーとメモリーをあてがうかってことだ。ホログラムを両目用にレンダリングしながら、ほかのカメラのことも気にかけなきゃいけない状況は、分かっていると思うがトレードオフなんだ。モバイルデバイスで最高な体験ができるけどバッテリーが15分しか持たない状況がいいのか、トータルで見た時にもっと使い勝手が良いようにデザインするのかっていうのをエンジニア チームがやるべきことで、今実現できていることがこれさ。俺は動画の専門家じゃあないけど、30fps っていうのは少なくとも… スタンダートで再生中に違いは分からないよ。
Daniel: 重要なのは 1080p ということだね。
Jesse: そうだ。720p からアップグレードした部分だ。この恩恵で Mixed Reality Capture はかなり改善して、良い感じだよ。
Daniel: 素晴らしい。さて、どうやら時間のようだ。
Jesse: 質問をくれたみんなに言っておきたいことだが、俺たちは今 FAQを作成している。ここで回答できなかったものも含めて保存してドキュメンテーション サイトを作成する予定だ。だから、ガンガン質問してほしいし、俺たちはできる限り、今後のこのオンライン ショーやドキュメントで公開するつもりだよ。
Daniel: 是非 aka.ms/mr にアクセスして欲しい。HoloLens に限らず Azure Kinect DK や Spatial Anchors、MR クラウド サービスに関するすべての情報が載っているし、例えば、MRTK の今後のリリースや、皆さんが知りたい今後どんな情報が展開されるのようなタイムラインも少し掲載がある。
Nick: ニュースレターにも登録して欲しい。大事なことだよね。
Daniel: あとは、次回のショーは 4/2 5:30PM (PST) の予定だ。私の好きな、手と瞳のトラッキングについて話す予定だ。この話題に関する専門家もスペシャルゲストとして呼ぶ予定だし、かなり深いところまで紹介できると思う。最後に、ジェシー、何か皆さんに伝えたいことはあるかな。
Jesse: そうだな。One Dev Question という新しいビデオシリーズがこれから始まる。2分程度の動画で、Mixed Reality 開発者関連アカウントでソーシャルメディアに公開する。Alex Kipman やプログラム マネージャーといった、色んな奴が色々な事について話す予定で定期的に公開する。確か今日1発目が公開されて、後は毎週火曜日と木曜日、動画が無くなるまで――長い期間だと信じているが――続く。つまり、1人2分で質問に答えてる動画だよ。
Daniel: 素晴らしい。ではその動画を見てみよう。それと、4/2 にお会いしましょう。
動画再生
Alex: やあ、Mixed Reality 開発者のみんな。質問は「MWC で何を発表したか」。HoloLens 2 がいかに最も没入感のあるヘッドセッドであるか発表した。インタラクション モデルを完全に変えることで、没入度が2倍以上にしてホログラムに初めて触れる時の感覚を快適なものにしました。快適さの面では、デバイスの快適さを3倍以上にしたこと、数ヵ月掛かっていたプロセスの簡素化について話しました。Microsoft とエコシステムパートナーの一連のソリューション スイートを同時に提供することでわずか数分にまで削減できるようにします。HoloLens 2 の発表から話をして、ARKit、ARCore、HoloLens で動作するクロス プラットフォームの Mixed Reality サービスを発表によるホログラムのインターネット (IoH (Internet of Holograms): IoT に倣った造語。ホログラムのインターネット) の誕生を紹介しました。2つサービスを紹介しました。1つ目は Spatial Anchoring サービスです。2つ目は Remote Rendering サービス。Azure から始まる Mixed Reality 開発者――君のことだ――に対する私たちのオープン エコシステムへの永続的な取り組みについて紹介しました。オープン エコシステムは 3つの原則があります。1つ目の原則は、私たちのMixed Reality エコシステムにおける独自のアプリストアを開設できる自由。独自のブラウザを作成できる自由、これは Firefox が HoloLens に導入されたことに繋がります。そして最後に、HoloLensでの経験をカスタマイズするだけでなく、センサーから独自の構成セットを作成できるようにするためのオープンスタンダードのガイドと進め方についても説明しています。本当に沢山のことを紹介しました。より詳細が確認できるよう参照情報を今後提供します。ありがとう。
動画再生終了
Nick: いえーい!お疲れでした。

原文

Daniel: Hello, good morning, good evening and probably good night. Welcome to The Realities Show. my name is Daniel Escudero I am the senior technical designer for The Mixed Reality Academy.
Nick: I'm Nick Klingensmith. I am the engineer of The Mixed Reality Academy.
Daniel: And with us today we have our special guest Jesse McCullough. Could you… want to present yourself?
Jesse: Yeah I'm a program manager on the developer ecosystem team of HoloLens and Mixed Reality.
Daniel: Welcome.
Jesse: Thank you.
Daniel: So just so everybody knows what the show is about. The Realities Show is a 30 minute live stream that we doing from San Francisco California and it's all about HoloLens to Azure Mixed Reality Services and Mixed Reality tech in general. We're gonna be talking about capabilities, features, recommendations and, of course, we'll try to answer as many questions as we can that we get from the actual feeds. So to get started. Let me… oh this is gone… I can't see my slides. There we go. Okay beautiful. So to get started, of course, we're going to show you a really cool video. Most of you have probably seen it already, but I think it's worth to take a look at it again.
"video playing"
Daniel: That is an incredible video, right?
Jesse: Yeah I love watching it. Well, Trevor in the chat mentioned earlier today that just passed a million Views.
Daniel: Oh, that's an incredible. So like the first question is "what are you most excited about?"
Jesse: I am most excited that I actually get to talk about it now doing dev community relations. Like I get to talk to developers all day every day and it's been really hard, you know, ever since I've joined Microsoft not being able to talk about this amazing technology that we've been building. So the fact that we have revealed it I can finally talk about an answer questions for everybody is that's what I'm the most excited about.
Nick: Yeah, I think one of the things that that is kind of been kind of under represented in a lot of the stuff that I've seen is the the mics like the new mics have a lot of really great ability to pick out your voice from the environment around you. I think the number that I saw was 90 decibels. So it can hear you even when there's about 90 decibels of ambient audio around you. And so, this was kind of like a problem of HoloLens 1, If you had it in a demo situation or conference floor, it was just you couldn't rely on the the voice recognition and so most people just kind of crossed off of their list like "okay yeah like we're not gonna rely on this audio stuff". So now it picks out your voice I can tell even with that immensely loud noise next to you and so you can actually rely on at this time, so I'm really looking forward to seeing what people do with like some of the speech services like the speech recognition stuff has gotten so good these days. A language parsing and understanding is just incredible, so I'm really excited to see what people do with the new mics and some of the new voice recognition stuff.
Daniel: Just to add a bit on top of that so what language services are available. 'Cause you have voice commands for those who don't know about HoloLens development. There's voice commands. There's speech recognition. There's like language understanding there's a few different things. Some built-in, others as super powers from the cloud. so you want to mention some of those.
Jesse: Yes only you know as you mentioned you know we've got a voice recognition built in you can program and voice commands but they're pretty static you have to define them up front but then as you mention when you start tapping into our cloud services you can really write up with the device can do so with that natural language understanding so that you can give it what we call intense and it can understand you even if you don't use specifically pre-programmed responses and it also records anything that it doesn't understand that we can go in later and train it so they can better understand stuff. We got things like speech to text so that you can actually translate you know the spoken word in the tax and then once you do that you can start doing things like language translation. So you can translate from English I don't even know how many other languages we have.
Nick: A piles
Jesse: Yeah, and that super powerful. I want you to have an text for me you can really do a lot of other interesting things with it.
Daniel: That's really cool. And well from my point of view. Probably the most exciting, I'm gonna speak for developers first, for anxiety. Probably it is the field of view. Field of view has doubled in surface area and that's a massive deal and it's not what everyone thinks like field of view are I can see more holograms it's not because of that. It's because it changes the way how you interact with holograms and that's my passion like interaction design. So, seeing of having a bigger field of view compared to what it was for HoloLens 1 where everything seems far away and air taps were the way of interacting, because you would step away from holograms in order to see them with in the field of view. Now it's wider and you can reach out to them and you can touch and that's just incredible and that video actually shows a lot of of the interactions and how we are gonna manipulate holograms and interact with them, so that's by far to me the most like exciting part.
Nick: Yeah I think the part that I like about the new field of view is that the new field of view fills up the the lenses pretty well and so it's kind of like it feels like a natural sort of field of view.
Jesse: I was talking to one of our developers about that the other day and he was saying and that because it does fill up those lenses, it's like wearing glasses you don't expect once it's outside the frame of of the glass that you're going to see is clearly or be able to see stuff and because it fills up kind of that whole view of the plastic in the glass and the waveguide you don't actually expect there to be holograms out it, outside of it.
Daniel: Right. So actually I'm I want to show you another video. It's a short video about instructions which is really cool.
"video playing"
Daniel: These are all the instructions that you are going to start seeing in HoloLens 2. You can see there's tons of details in these videos about near interaction, far interaction, how you touch holograms, how you see you start seeing affordances that tell you what to do. And so as you reach out to a hologram… oh, let it go back … As you reach out to a hologram, You can see the affordances appear only when necessary if it has a bounding box you'll see a glow around and stand the it's an intractable object you can either grab or grasp rotate with a handle, pinch and scale from a corner. And interaction is incredible 'cause you actually still doing things that you would do on HoloLens 1 which is sort of an air tap from far away having like a Spider-Man powers and just aiming shooting array and just grabbing things and putting them very naturally.
"video end"
Jesse: Yeah and one of things we should bring up this which we show these videos and and not all of these concepts and designs are finalized yet, so what you see here may not be actually what you see exactly on the device, but we've got an awesome team of designers and developers who are working with the stuff daily. I'm trying to figure out what the best way of doing the stuff is in. You know I've gotten quite a time in the device lately and It's amazing like as developers. We think about these things about affordances and bounding boxes and how it glows and lights up, but as a user when you put it on and I put on people who are not like power users for HoloLens and they just get it you know it's not something you have to teach them or think about and I think that's the most important thing. And when we talk about instinctual interaction, it is instinctual people just understand it without you having to take explain it to him.
Daniel: That's perfect. One of my biggest problems when demoing, HoloLens generation one was having to explain air taps to people would have trouble with air tapping and you think this is very simple.
Jesse: A million wrong ways to air tap and about three right ways.
Daniel: So yes so it's an instinctual interactions I think it's not the easiest the most catchiest name but it does explain probably the way of how you all can interact with holograms and just reach out and try to touch them.
Nick: What I really like about that some of this stuff is like when you have those rays that you're shooting out of your hands to select things off in the distance like that really like when the object comes closer to you or when you come closer to that object that motion really easily turns into a grabbing sort of motion so it's not a huge change from near to far it is just kind of like get a little closer grab it, get a little further grab it.
Daniel: Exactly and also if you start mixing this with voice commands it's super interesting, because you could start saying like "I want to place this there" and that there also can imply eye tracking so that's one of the things that which is really cool about input now is eye tracking.
Nick: It can mix them all together and get a little bit of extra context from what's happening.
Jesse: I think that's gonna be super important in that context part with there's so much that we do that is based on just a single input right now, because that's all we've been really able to do with gaze gesture and voice before you could kind of combine gaze and voice a little bit so you could act on what you were looking at and now you have much more fidelity control over that. I've seen the few things that we've had our developers on campus and you guys doing and it's coming together really nicely.
Nick: That plus the new mic, it actually understand what you say, "place it there", it is awesome.
Daniel: On the factory floor. So let's move on a bit. So developers, of course, the first thing that they want to know is how can they get started with HoloLens 2 development.
Jesse: Yes so we've actually got a lot of stuff coming up over the next few months we're rolling out a lot in the documentation some new tutorials we're working on, it's all going to be around all the different ways that you can develop for HoloLens. Nothing's really changed as far as what we have available today so you can still do DirectX and work directly against the windows APIs, we've got Unity development, so that hasn't changed of it requires 2018.3 or later so that we can build the ARM because a new HoloLens, of course, has an ARM chip in it, and then we announced up onstage that Unreal support coming soon so we'll have more about that in the future coming up.
Nick: Yeah actually I come from a game development background, so seeing Tim Sweeney on the stage doing that announcement like Unreal is going to work on the HoloLens, it was kind of exciting for me. I really enjoyed that moment especially knowing like how kind of anti Microsoft Tim Sweeney has been in past. Like that was a really cool to see like he's on board this time and that works pretty well.
Jesse: Yeah I think the important thing is we want to push that we're opening up the ecosystem as many tools as we can so whether you develop with native API's or Unity or Unreal it doesn't matter we want to be able to support you with whatever tools you as a developer want to use.
Daniel: Perfect. That's really good, so and in practice out what tools are we providing for developers like what's the most complete suite that we can get right now.
Jesse: Yes so we actually have an open source tool kit called Mixed Reality Toolkit that we've been working on it actually goes all the way back to the original HoloLens and at that point it was called the HoloToolkit and then it got once we I introduced our VR headsets, we've gotta change it to Mixed Reality Toolkit and it's actually undergone a big rewrite in the last year, so with that rewrite we've opened it up to openVR, so you can build for openVR to may help make it more cross-platform we've made it more performant and made it a little bit easier to pick and choose so you don't have to pull this gigantic project into your own project.
Nick: I think that's a good thing to double down on like this is a cross platform tools like it it's not just for HoloLens or for the Microsoft Mixed Reality headsets. It's for just about everything like that we've got the the openXR... openVR stuff like the the Vive and stuff like that. That's kind of great it means you can just stick your stuff into this and just keep developing.
Jesse: Yeah not only can you develop against these other platforms, but also if you're developing a solution against things like ARKit and ARCore you can change your target platform and it won't break, it won't throw bunch errors that way you can have similar code in there that you're already using. And and build across all these other platforms.
Daniel: That's awesome, so and Mixed Reality Toolkit is on GitHub.
Jesse: Yep. It's on GitHub. If you go to aka.ms/mrtk that'll take you to the GitHub page you can download it. It's something that were we've got a team of people at Microsoft working on we also have a huge community that's been working on it. It wouldn't be where it is today without them so with them for their help and contributions and hope they continue but it's something that's evolving and you'll see more HoloLens 2 stuff come into it over the next month or so.
Daniel: So I've got a screenshot and input seeing in MRTK. Can you talk a bit about this.
Jesse: Yes so this is one of the sample scenes that are our design team at Microsoft has come up with and it's really all about like how you can interact with different things and we call these all interactive objects so we've got. The coffee cup that you can pick up and actually has coffee in it and you can pour it you can see it disappear. We've got the piano keyboard in there. It's not quite the same full one that you saw on stage in Barcelona, but you can play the piano. It got buttons that have like different amounts of like how far you can push it and it actually really changes especially when you're doing this instinctual interaction stuff like how far buttons actually be pushes is an interesting thing that you might not think about, but it's kind of fun to play with so all the stuff is in there as a sample scene and you can go in there play around with it and kind of check it all out.
Daniel: Can you simulate hands?
Jesse: Yeah, simulate hands in the editor something that actually I was in a meeting just last week and we kind of saw a video of this and in our meeting there's chats and a bunch of us started going crazy in the chat and people who were invited to the meeting but didn't attend it actually jumped in the meeting because there's so much excitement about this going on in the chat. They're like "Hey what's going on in there", I gotta come see this so, but you'll be able to simulate the hands with all 25 joints in it and be able to control those and do multi-hand interactions where you can like grab with one and then pin it and then use the other one to do stretch and manipulation or so, a lot of control so even before you get a device you'll be able to go in there and kind of play around with some of the stuff, of course, we always recommend that you test on a device when you give access to one but this will kind of help to get you started.
Daniel: Exactly without device that's the best part.
Nick: Being able to iterate in the developer is so useful and so it'll be great to see that yeah.
Daniel: Cool, so let's move on and that's open up for questions I would love to see some questions from the audience, see if we can answer.
Nick: Yeah, what do you guys thinking what do you want to know.
Daniel: So, do we have one yet?
Jesse: Yes, so there's one about retinal tracking and iris info will let be available to the devs. So the eye tracking is you'll be able to to have access to that and be able to where your users looking at interact with it things like the iris recognition that we're using for Windows Hello I think you'll be able to tap into the Windows Hello API's but I don't think you'll actually be able to access the data from the camera was doing that.
Nick: Yeah, that would be kind of a privacy concern if you could see somebody's retina scan that upload it somewhere you don't necessarily want that and privacy is something that we care about here so.
Jesse: Yeah, very important to us.
Daniel: Basically what you're saying is eye tracking is meant for interactions and to improve the experience. Not for data.
Nick: Right.
Jesse: And we're super excited to see what people do with it because we're just exploring at and I think all of our developers out there have some pretty awesome ideas, so I'm excited to see what they're able to do.
Daniel: That's awesome. Can I ask a question in the meantime.
Jesse: Yes. Go for it
Daniel: How do you exactly measure three times the comforts.
Jesse: Yeah, we get really get this question a lot since the announced up at Mobile World Congress and it seems like such a weird statement to be like we've made it three times more comfortable how do you measure that. Actually we did a lot to measure it so they showed the video of a scanning all these people's heads we scanned a whole ton of people's heads to be able to design the thing to fit like 95% of population and then once we thought we had a good design we actually went put it on people and ask them to like sit down at a table and play board games for like a couple hours and just waited to see how long it took before they either got uncomfortable and took it off or they forgot that they were wearing it and it turned out that a lot of them just forgot that they were wearing, and then we did things like we stuck centers on people's necks while they're wearing it and when they weren't so that we could test the muscle tension that's happening there so we did all kinds of studies so like we didn't just pull this three times more comfortable number I've ever had there was actually a lot of research that went on to come to that number.
Daniel: That's amazing.
Jesse: "Does HoloLens 2 have a thermic camera?" so I'm assuming this is like an infrared camera. So the cameras on the HoloLens are our kind interesting so we've got both RGB and infrared cameras on there but we don't have access to those feeds. It's not like it's a heat sensing like an IR camera it's actually use for the tracking and why not so the HoloLens 1 knows where it is in space and I don't either haven't heard whether we're gonna have research mode available for the HoloLens 2 like we did it on HoloLens 1. That will get access to that so we can check on that and get back to everybody on that.
Daniel: Okay perfect. Another question very common amongst developers is "Will HoloLens 2 run HoloLens 1 apps?" What they have to do to make them work.
Jesse: They won't naively run a HoloLens 1 apps because HoloLens 1 is built on an x86 architecture and obviously the HoloLens 2 is ARM based. So anybody, who has HoloLens apps that they want to move over to run on HoloLens 2, will have to move up to a more recent version of Unity we recommend that they start implementing MRTK v2, and then they will have to compile for ARM, so not only will they have to compile their own apps for ARM but if they have any third party libraries or their own libraries, they'll have to either compile them themselves or find an ARM compatible version. Then once you do all three of those and get passed any errors happen in there and resolve those and then you can start working on actually adding in the new interaction models.
Nick: So if you have a basic unity application that shouldn't be too too hard to to get done.
Daniel: And what about moving from Old HoloToolkit into MRTK.
Jesse: The two projects can actually live side by side within your project there's no collision so be it.
Nick: The old HoloToolkit and MRTK?
Jesse: Yep, so we make sure that that was something that people be able to do just for that porting scenario. so you'll be able to bring them both in and slowly move your different pieces of it over.
Nick: But the the new MRTK is a bit of a different model from the old one so it's a change.
Jesse: Yeah, do you want to talk about that a little bit?
Nick: It's basically kind of been rearchitected from the ground up, so like the new one because the cross-platform stuff is at the core of it. It was is redesigned with that in mind and so it's a bit different just to make that work like it has a a new system that's based on scriptable objects rather than game objects in your scene. This makes it a little bit easier to work with some of the the setting and things like that we've also got some really kick-ass profile set up so if you just want to swap out different profiles and change the way that your application behaves with the basic profile that's really convenient.
Jesse: Yeah.
Nick: I really like some of the changes that we've done to the MRTK and I think you'll like the new versions as well.
Jesse: Another question from the chat "how does the team think about moderation of apps we can ship on HoloLens?". And following that they say other platforms just announced that they're only accepting games created by big teams. Again this is one of the things that we announced up on stage with our whole open principle is that developers will have their own stores available for the platform so you won't be confined to using the Windows Store or even things like steam.
Nick: Hashtag open.
Jesse: Yeah exactly so we're really excited about that and that you guys will be able to deliver your own apps and what not to the HoloLens.
Daniel: Perfect. Have one internal question we just got on a internal chat. "Differences to Spatial Anchors and Anchor Sharing". For those who have done anchor sharing before within network and mic shared collaborative experiences. What's the difference what is Spatial Anchors versus Anchor Sharing.
Jesse: You do guys want to answer that well I go to this - do you want me to pipe in on that one.
Nick: Well so I know about the Azure Spatial Anchors but I'm not terribly familiar with World Anchors.
Jesse: Yes, World Anchors were the concept on on the original HoloLens in that. As a developer you could choose to make something persistent by attaching a world anchor to it. It was just something that happened on device so when you place your hologram somewhere you could attach world anchor to it and if you didn't do that when you exit your app you came back in your hologram would be gone. By attaching world anchor to it you are basically telling HoloLens I want you to remember this object in this particular place. you could fire up the app and your things would still be where you left them. so we double down that would have Azure special anchors in that we've made it a cloud-based service that you can attach the same anchors too. And it's multi platform so you can use it across HoloLens, ARCore, ARKit and hopefully future platforms to come but it allows you do the same thing you can place an object in a particular physical environment and ask it to be remembered and that data syncs up to the cloud that if somebody were to come by later with another HoloLens and using your app they'd be able pull that cloud anchor down and see the same thing you left there or if they come by with a phone or a tablet that's running ARKit or ARCore in your app same thing.
Nick: I think one of the, again, the wonderful thing about this is that it's cross platform. I think we're keeping the rhythm here right, "cross platform cross platform", that works on ARCore ARKit as well is the HoloLens and is it doesn't need a depth camera it just works with the color camera and that's pretty amazing so that allows you to look into people who don't necessarily have a HoloLens you can get them interacting with you your application as well and so that's going to be a big boon to a lot of people who've been using like these that poster trackers there AR markers. I'm really looking forward to get reading some of those a ugly little images that we've got hanging around.
Daniel: Yeah, it's gonna make quite a quite a difference.
Jesse: So somebody asked if the mics have noise canceling.
Nick: Well, that's kind of the the stuff that I was talking about its the it's five directed mics or something like that I'm not exactly sure but it's really good at picking out your voice as opposed to the rest of the environment. 90 decibels is about where we say it like that's where I can still hear you and so 90 decibels is pretty much like having a blender on full speed right next to you so that's really loud it can understand you even with that going on so.
Daniel: Pretty intense noise cancellation.
Jesse: "When your video recording with the HoloLens 2 will frame rate dropped to 30 like a HoloLens 1" so yeah it does. our Mixed Really Capture camera is 1080p at 30 frames per second and really the reason we have to do this is like in mobile device you're always looking at how much power and memory you're consuming and so when you're rendering holograms both to the eye and also to another camera those are considerations we always have to think you know everything's a trade off when you're on a mobile device so you can do really incredible things and have 15 minutes of battery or you can kind of bump it down and make it more useful device overall and and that's kind of some of the considerations that are designed then our engineering teams have to make which is why you see things like this where we. we bumped down the frame rate which I'm not a video expert by any means but 30 frames per second as far as… it is a standard and fairly indistinguishable during playback absolutely so.
Daniel: What's most important is the 1080p.
Jesse: Yeah, and that's an upgrade from the 720 so that's and that's quite an improvement for Mixed Reality capture and it looks really nice.
Daniel: Perfect. I think we were running out of time.
Jesse: Just a shout out to everybody who's been putting questions in the chat we're actually building an FAQ, so we're gonna capture all this and if we didn't answer it up onstage we will transfer that those will be up on our documentation site fairly soon, so keep asking questions and we'll do our best to answer as many as we can either online in future versions of the show or on our documentation.
Daniel: So just invitation to developers visit aka.ms/mr is all the information about not only HoloLens but Azure Kinect DK, spatial anchors all these MR cloud services. And also future releases of MRTK, for example, and there's a bit of a time line that way we are telling you when things are coming out which is what you guys probably want to know.
Nick: Also be sure to sign up for newsletters and stuff. That's important.
Daniel: Also an invitation to the next show which is on April 2nd at 5:30 PM Pacific time. We're gonna be talking about hands and eye tracking which is amazing like my passion. I will have a special guest like subject matter experts talking about that will dive like really deep into that one. And Jesse do you wanna talk about a video that we're going to leave people with.
Jesse: Yeah, so we've got this new series of videos out coming up called one dev question. And these are just quick like two minute videos that will be releasing out through social media by our Mixed Reality developer relations account and we've got different people all the way from Alex Kipman down through some of our program managers and everybody in between talking about various different things so we're gonna start releasing these cadence. I'm hoping that we'll get the first one out today and then it'll be every Tuesday and Thursday until we run out of these videos, so hopefully a long time from now, but they just look quick two minute throw question out there and have the person answer them.
Daniel: Perfect so awesome let's take a look at the video and we'll see you on April 2nd.
"video playing"
Alex: Hello, Mixed Reality developers and the question is "what we just announced at MWC" well first we announced HoloLens 2. We talk about how HoloLens 2 is the most immersive headset out there and how we more than doubled the immersion of the product while completely changing the interaction model making you feel for the first time what it feels like to touch a hologram on the comfort side of how is we talk about how we more than tripled the comfort of the device and on the out of box valley side of the house we talk about how we're taking processes they used to take months and we're making them down in just minutes by bringing forward a suite of solutions for Microsoft out of the box as well as a suite of solutions from our ecosystem partners. We moved from HoloLens 2 to talk about the birth of the internet of holograms by introducing a set of mixed reality services that are cross-platform as in they work with ARKit, ARCore and, of course, HoloLens and we announced two of those services to start with. the first one a spatial anchoring service. The second one being our remote rendering service. From Azure we moved to talk about our durable commitment to our ecosystem of Mixed Reality developers, that's you, which is around having an open ecosystem an open system defined by three principals. Principal one that we are going to developers are going to have the freedom to be able to create their own app stores in our Mixed Reality ecosystem, how developers will have the freedom to create their own browsers in our mixed reality eco-system, how Firefox is coming to HoloLens and finally how we will continue to guide and work on open standards that allow people to create their own set of configurations both from the sensors as well as customize experiences on HoloLens. So we announced a lot of things. We'll have a lot more links with a lot more detail. And thank you.
"video end"
Nick: All Right. Awesome.