ブログ@HoloLabInc

株式会社ホロラボのブログです

Apple iPad/iPhone搭載「LiDARスキャナ」について調べてみた (2)

Apple iPad/iPhone搭載「LiDARスキャナ」について調べてはじめてみたら分量がとんでもないことになってきたのが前回。

blog.hololab.co.jp

さて、もとの記事AppleがII-VI(ツーシック)へ440億円を拠出した話題に戻って考えると、

www.moguravr.com

「LiDARのサプライヤー」って言った場合に、このLiDARの構成部品のうちのどのサプライヤーなのかが気になった、ということでしたw 細かくてすみませんw 一応、ホロラボを作る前に半導体商社で光半導体なども扱っていたりで、この辺も関心の深いところでしてw

Apple製品におけるLiDARの構成について

2021/5の現段階において、Apple製品でLiDARが搭載されてるのが下記の大きく2製品3タイプ。

  • 2020 - iPad Pro (A12 Bionic)、iPhone 12 Pro/Max (A14 Bionic)
  • 2021 - iPad Pro (M1)

iPadって、ディスプレイのインチ数が異なると世代が違うので第〇世代ってシンプルに言えない状態なんですねw

まだiPhoneや最新M1 iPad Proの中身に関する情報は多くないので基本は2020年版iPad Pro搭載のLiDARについてですが、こんな資料があったので引用します。

System Plus社のTierdownレポートのブローシャ: https://www.systemplus.fr/wp-content/uploads/2020/06/SP20557-Apple-iPad-pro-Lidar-Module_flyer.pdf

こちらのレポート(のカタログ)によれば、主要部品は下記とのこと。

このVCSEL、SPAD、DOEのそれぞれがどんなものなのかについてや、AppleのLiDARスキャナで初めてこのサイズで実装されたdToF方式(direct Time of Flight)については、日系XTECHの記事がかなり詳しくまとまってます。関心のある人はぜひご参照ください。(要サブスク登録)

VCSELって何?

今回このブログでまず注目したいのがVCSEL、ヒカリモノの方です。たしか940nmぐらいのNIRなので肉眼では見えないけれどw

このVCSEL(ビクセル)は光デバイス、半導体レーザーの一種ですが、良い感じの特徴があるので武仙もなぜか前職から気になって覚えてました。

VCSELはVertical Cavity Surface Emitting Laserのアクロニム、頭文字語で、日本語だと「垂直共振器型面発光レーザ」と訳されます。

こちらのTweetでの「Cavity」の意味合いに関してSATOMIさんからコメントを頂いてまして、半導体レーザーでは共振(resonance)しつつ発振させるので「共・発振器」の意味合いがあるとのこと。めっちゃ勉強になる。Twitter最高。そして「穴」って覚えててすみませんw

LED/VCSEL/LASERを比べてみる

このビビビビクセル、VCSELがどういう特徴を持ってるか分かりやすい図を探したのがこちら。同じヒカリモノデバイスのLEDと、あとはいわゆる普通のレーザーとの構造的な比較。

f:id:takesenit:20210519162537p:plain
3 types of semiconductor lasers used as fiber optic sources

参照元: The FOA Reference For Fiber Optics - Fiber Optic Transmitter Sources-Lasers and LEDs

この図がめっちゃ分かりやすくて好きです。それぞれ、発光面、共・発振器の配置について書いてみる。(ここでのLASERは気体レーザーなどではなく半導体レーザー、Laser Diodeについて書いてます。)

  • LED: Light Emitting Diode 面発光、共振器を持たない
  • VCSEL: Vertical Cavity Surface Emitting Laser 面発光、共振器が垂直配置
  • LASER: Light Amplification by Stimulated Emission of Radiation 端面発光、共振器が水平配置

ここはちょっと自信のない部分で武仙の理解を書きます。間違ってたらツッコミお願いしますw

LASERとVCSELはいずれも共振構造を持っていて、エネルギーを共振させて位相の単一な(Coherent: コヒーレントというらしい)「レーザー光」を生成できます。このレーザー光は波長が急峻で高い直進性が特徴。

LEDはそもそもこの共振構造を持たずに、pn接合のバンドギャップから生まれる光エネルギーをボヤっと大き目の開口から出すw

底面は鏡面構造になってたりと発生した光をなるべく表面から出すようなデザインになってるんですが、位相がバラバラなので減衰しやすい。

波長がLASERから比べれば幅広いし、開口が広く拡散するからボヤっと光る。

それでもってVCSELは、ちょうどLASERとLEDの良いところ取りを狙ったデバイス構造。もともと先にLASERが産まれて、その後に半導体加工技術が向上した結果、共振部を垂直配置して、LED的な低電力でもレーザー光が得られるように出来たもの、、、って理解しています。

ってことで、VCSELも面発光な点はLEDと一緒ですが、Cavityで増幅された光が狭い開口から射出されるため指向性が高く遠くまで光が届く。それでいて端面発光なレーザーより圧倒的に低消費電力化が可能。

なんとこのVCSELは、日本の人が発明。知らなかった。 https://jstage.jst.go.jp/article/lsj/37/9/37_649/_pdf

1977年に伊賀健一博士(現東京工業大学長)により発案

なんだか、ちょっとうれしいw

VCSELによるアレイ化

ただこのVCSELの出す光もレーザーと同じく開口径も狭くて直進性が高いので、LiDARとして使ったとしても遠くまで届きますがそのままでは2D/3Dに距離計測が出来ません。

そのため、Appleが採用しているLiDARではいくつか指向角を広くしたり3Dにするための手法が採用されている模様です。第一回で書いた「Solid Stateで3Dにする方法」で言うと、 1) レーザーを複数にしてラインスキャン状態にする、と3) 光学的に3D LiDARにする、が採られています。

端面を切断してそこから光を取り出すLASERと異なり、VCSELはLEDと同様に、一つの半導体ウェハ上にアレイ配置が可能です。

日経XTECH記事によると、AppleのiPad Pro(2020)搭載LiDARスキャナモジュールにおいてもVCSEL素子は4x16、計64個のアレイ形状と判明しています。

VCSELの光源の4つがひとかたまりになって電極につながり、それが16列並んでいた。つまり、合計64点あった

xtech.nikkei.com

DOEにより、アレイ状のレーザー光を更に拡散

今度は「Solid Stateで3Dにする方法」における、3) 光学的に3D LiDARにする、手法で更に広い範囲にレーザー光をバラ撒いてます。

iPad Pro(2020)搭載LiDARスキャナでは、この64個のVCSELアレイの光源を回折光学素子(DOE: Diffractive Optical Element)で、9つに分散させてバラまいてる様子が日経XTECH記事で説明されてます。(ぜひ本文を契約して読んでねw

DOEは光波が持つ回折(かいせつ)効果と、その効果を持つ格子状の構造体からなる光学部品。波状の光をスリットを通して回り込ませつつ波頭の集まる場所を集約することで任意の形に光の方向をコントロール出来ます。

www.japansensor.co.jp

LiDARスキャナの中ではDOEを使って、レーザーアレイの直進光を9つに分岐させています。レーザーの指向性の関係で照射範囲が点だったものを、VCSELをアレイ化して2D面にして、更に光学素子で拡散していると考えられます。

この拡散によって比較的広い範囲にLiDARスキャナの光源を照射出来てるのが分かりますね。

VCSELとDOEによってばら撒かれたレーザー光はLiDARモジュールから放射状に広がっていきます。距離が延びればそれだけ照射範囲も広くなりますが、今度はVCSELの光が減衰するので、おおよそ信頼のおける測距結果が得られるのが5メートル程度。それぐらいの距離をこのドットパターンで覆うと、ちょうど人間の視野をカバーするぐらいになりそう。

手に持つにしても、メガネのように着用するにしても、AR利用を考えた設計になってる気がしますね。

さて、連載はまだ続きます。(次回リンク)


ホロラボではLiDARスキャナを使ったiOSアプリも開発しています。
開発のお問い合わせはこちら。

https://hololab.co.jp/#contact

また、ARKitやLiDARを使ったiOSアプリ開発者も激しく募集しています! hololab.co.jp

面白そうだなと思って頂けたら、ぜひお気軽にお問い合わせください!

Apple iPad/iPhone搭載「LiDARスキャナ」について調べてみた (1)

ホロラボ武仙です。好きなものは、赤外線です。
あ、最近は超音波とかも好きです。

ホロラボが出来る前はTMCNという3Dセンサーのコミュニティーで活動していたりもあったので、3Dセンサーのことはすごく今でも気になります。 そんな中で、こんなニュースが出ました。

www.moguravr.com

このニュースが気になってLiDARについて調べ始めたら週末の時間の相当を消費。 Twitterでも反応をたくさんいただいて関心のある人が多そうだったので、こちらのブログにも加筆しつつまとめて書いておきます。 ※そして、書き始めたら分量がとんでもないことになってきたので、たぶん3部作ぐらいになりますw


ニュース記事自体はAppleがLiDARスキャナ用部品のサプライヤーなUS企業II-VI Inc.(ツーシックス)に、4億ドル(約440億円)をAward(支給?)したとの報道。 ただ、それまでいろいろと知ってた話と総合すると「注目のLiDARのサプライヤー」って言い切ると語弊がありそうだなと思って調べ始めたのがきっかけでした。

LiDARとは何ぞや?

そもそもLiDARって何よ?って話から始めなければなりませぬ。

こちら、AppleがiPad ProへLiDARを搭載する前の2020年1月につぶやいてます。時代の先を行ってるぜアピール。 何で当時これを言ってたかと言うと、Livoxという車載用ながら当時にしては超ローコストなLiDARが発売されたから。

LiDAR(ライダー)はいわゆるアクロニム(acronym)=頭文字語で、全体を記載すると下記2つのバリエーションがあるようです。

  • LiDAR Light Detection and Ranging - 「光検出と測距」
  • LIDAR Laser Imaging Detection and Ranging - 「レーザー画像検出と測距」

ja.wikipedia.org

2文字目の「i」を大文字で書いたり小文字で書いたり、あとWikiによると軍事関係では「LADAR」と記載したりもあるようで表記ゆれが気になるところですが、光の跳ね返りを見て距離を測る技術って、ざっくり覚えてますw

ToF方式とLiDARの進化

代表的なLiDARの方法で有名なToF方式(Time of Flight)を例にしてみます。ToF方式LiDARの構成は発光部と受光部、その計測回路からなります。光源が発行した際の時間と、受光部がその光を受けた時間の差がTime of Flight、光の飛行時間?ということで、この時間差から計算することで対照物までの距離が割り出せる、という原理です。

f:id:takesenit:20210515182403p:plain
LiDARの基本的な仕組み (浜松ホトニクスウェブサイトより)
LiDAR | 浜松ホトニクス

あとこれもWikiを読んでなるほどなって思いましたが、いわゆる「レーダー:RADAR」も「Radio Detection and Ranging」のアクロニム。Radio=無線も、Light/Laser=光線もどちらも突き詰めれば「波」って観点では一緒。そう考えると、基本は「LiDAR」が表記的に正統派なのかもとかw

Appleが一番最初にLiDAR搭載を発表したのがA12 Bionicを搭載したiPad Pro2機種で、2020/3/18のことでした。世界的に、この日がLiDAR記念日ですね。(謎 www.apple.com

そしてApple製品においては必ず「LiDAR」と2文字目のiは小文字表記されているので、この場合にはLight Detection and Rangingの略である可能性が高そうです。 そしてLiDARセンサーと言わず、「LiDARスキャナ」なのですよね。


シンプルなLiDARとしての測距計

ちょっと話題がそれますが、↑の浜松ホトニクスさんのLiDAR原理をそのまま製品にした感じなのがこの辺のゴルフとかで使う測距計です。写真はニコンのページのものを参照。

f:id:takesenit:20210516094916p:plain
ニコンCOOLSHOT(測距計)・システム詳細

測距テクノロジー | テクノロジー | COOLSHOT スペシャルコンテンツ | ニコンイメージング

ただ、これは直進するレーザーの当たった1点のみしか測れないので、「スキャナ」とは言えない感じ。

それで登場するのがこういうもの。

回転式2D LiDAR

レーザーと受光素子は1つなので、それをモーターで回転させてLiDARデバイスから水平方向360度の距離データを測定します。

これはKickstarterに出てた激安2D LiDAR。動画を見て頂くと、右上のテーブルの上の黒い円筒形のブツがグルグルと120rpmぐらいで回ってるのがLiDARデバイス。左のPCモニタで可視化してるんですが、さすが激安だけあって荒かったりであんまりよく分からないですねw

一般的なLiDARはこのタイプのイメージ。

この方式だと、北陽電機LiDARはインタラクティブコンテンツの制作で使ったりなイメージで有名ですね。

www.youtube.com

これでもまだLiDARデバイスを中心にした2D平面しか取れないので、これを3Dにしたい各位がいらっしゃいます。

やっぱり一気に全部センシングしたい「3D LiDAR」

センサー仲間な光輝さんは、2D LiDARの回転平面をもう一つのモーター(Keiganモーター)で物理的に回転させて3Dにしてたり。

他によく見るのが、2D LiDARを2台直交配置して3Dにしてるケースとか。

これはポータブルな産業用スキャナNavVisの着用する3Dスキャナ。THETAで有名な「おっさんが映り込む致命的なバグ」を構造的に取り除きつつ、奥行きの点群もカラーも絶対逃さないぞっていう力強いデザインが魅力的ですw

f:id:takesenit:20210516103359p:plain
NavVis VLX: VelodyneなLiDARが頭上と手元にそれぞれ直交関係で配置されてます

www.navvis.com

Solid Stateな3D LiDAR実現のアプローチ

メカ的に回転させるのはコストが高い、耐久性が下がる、物理フットプリントがデカイ、などの様々な課題があるので、最近はグルグルと回さないで3D LiDARを実現しようとしてる動きが多くみられます。詳しくはそれ系の記事があるのでご参照いただければですが、大きく下記のアプローチとその組み合わせっぽいです。

  1. レーザーを複数にしてラインスキャン状態にする
  2. MEMSを使ってメカながらMicroに実現する
  3. 光学的に3D LiDARにする

もともと回転系LiDARを使った自動運転で著名なVelodyneのLiDARは、内部にレーザーを複数チャンネル搭載したものを回すことで限定的ながら3D LiDARを実現する特許を取得していたようで、それで有名なんですね。上記1のアプローチ。

www.youtube.com

このページが経緯については詳しいです。

www.argocorp.com

IntelもRealSenseシリーズでMEMSを使ったSolid State LiDARをリリースしています。3D LiDAR実現に関しては2のアプローチ。

www.switch-science.com

戦争の火種を内包した危険なTweet。。。

そして、肝心なAppleのLiDARスキャナでは、アプローチとしては1の「複数光源」と3つめの「光学的に3D LiDARにする」っていうアプローチを組み合わせたもの、っていう風に武仙は理解をしています。

それを実現してるのが発光素子の「VCSEL: Vertical Cavity Surface Emitting Laser」と、光学素子の「DOE: Diffractive Optical Element」

次回投稿ではその辺を詳しく見て行きたいと思います。(次回リンク)


ホロラボではLiDARスキャナを使ったiOSアプリも開発しています。
開発のお問い合わせはこちら。

https://hololab.co.jp/#contact

また、ARKitやLiDARを使ったiOSアプリ開発者も激しく募集しています! hololab.co.jp

面白そうだなと思って頂けたら、ぜひお気軽にお問い合わせください!

Touching Holograms - Microsoft Designブログから

こんにちは、ホロラボ武仙です!

2日前にMicrosoft Designのブログから発表された「Touching Holograms」について。

1 Header Sequence_Oscar_Medium.mp4 from Microsoft Design on Vimeo.

↑の動画を見て頂くと、3DCGの豆腐に手で触れて、突っついて、掴んで、、、っていうインタラクションがとても自然に見えると思います。これだけですごく楽しい動画で、SNSのリアクションを見ると「スゲー」「自然だ!」みたいな感じで受け取られていました。

ただブログ本文を読んでみたら、出来上がった成果のビデオも面白いけれど、どちらかというとそこに至る考え方と試行錯誤のプロセスが楽しかったので、自分のメモのためも含めて書き残しておきます。 ぜひ気になった方は原文をそのままだったり日本語に機械翻訳してチェック頂くことをお勧めします。

本文: medium.com

ブログポストのタイトルが和訳すると「ホログラムに触れる」

普段この「ホログラム」って言葉を使うのにすごく気を遣っているんですがw、ここは敢えて原文そのままにホログラムを使いたいと思います。いわゆる制作方法としての虹色の「ホログラム」を超えた使い方をMicrosoftは敢えてこのブログではやってるように感じてます。HoloLens 2着用者の目の前に、3Dのボリュームを持って提示されるものは「ホログラム」。

以下、メモ的に書いてます。全文訳するのもちょっと違うなと思いつつ、意訳+感想みたいな感じ。

背景: What if you could treat holograms just like real objects?

HoloLens 2のデモを初めて装着する人に体験してもらう楽しさについて書いてありますw

ホロレンジャーな皆さんもよく、デモ体験を提供するときに、初めて体験する装着者に何が起こるか詳しいことを告げずに「掴んで持ち上げて」「そっちに置いて」など、Realなものを扱うのと同じような指示をすることがあると思います。

「おぉっ!」っと、ホログラムのRealな動きに全身で驚くデモ初心者の方のリアクションを見て、ニヤニヤした経験がある人はきっと多いはずw

f:id:takesenit:20210515164211j:plain
HoloLensをはじめて体験して「オォッ!」ってなってる人のイメージ

このブログでは、「HoloLens 2におけるハンドトラッキングと視線、視野角の増加によって、インタラクションデザイナーと一般ユーザーの距離が狭まった」と表現されています。「普通の人でも、Realの動作と同じように使える」体験が作れるようになったわけですね。

最新技術は時として専門家にしか使われ得ない複雑さを伴います。しかしながらMixed Realityにおいては今回のHoloLens 2の登場によって、一般人でも特別な操作方法を学ぶことなく、普段の行動の延長として使える最新技術となってきた点がすごくステキですね。

ブログではこの、一般の人でも初見で使えるための考え方や取り組み、より魅力的にするための手法について紹介されてます。

Digital hand twin - 手の「デジタルツイン」

どのようにしてより自然なインタラクションを実現するか。 握る、押す、投げるなどの動作は下記の物理法則の組み合わせで出来上がってます。

  • momentum: 勢い
  • collision: 衝突
  • friction: 摩擦
  • gravity: 重力

これらの物理法則を実現するためにリアルタイム物理エンジンがキーとなります。ゲームなどでは、ユーザーのボタン操作などがバーチャルな物理となって、バーチャルなオブジェクト間でインタラクションを実現します。同様にMixed Realityにおいては物理的なユーザーの動きを(HoloLens 2のジェスチャーなどを介して)バーチャルなオブジェクトとインタラクションさせることで実現します。

2 Physics Intro_Oscar_Medium.mp4 from Microsoft Design on Vimeo.

このビデオで、ハンドジェスチャーで検知されたデジタルツインな手の各ポジションに球形のホログラムが表示されていますが、動きが早くなった際やホログラムのキューブとの接触により該当する箇所の球体が物理エンジンによる勢い、衝突、摩擦、重力が計算されて光っているのが分かると思います。

ただここで問題が発生します。ニュートンの運動の第三法則「作用反作用」。 現実の世界のようにインタラクションを作りたくても、ホログラムでは触覚が提示出来ないのです。

Compensating for missing senses - 失われた感覚を補完

どれだけホログラムの見た目をRealっぽく作ったとしても、現実では感じるはずの触覚がないことからユーザーはその感じることが出来ず、触っている間「ゴースト」のように感じられてしまいます。

Microsoft Designerはこの課題をデザインするため、HoloLens 2で提示可能な「vision:視覚」と「sound:聴覚」の2つの感覚に対してover-communicate: 過剰に感覚提示することで解決を試みています。

触ったり放したりの動作の時に、音を鳴らし、ホログラムは光り、ユーザーにそのホログラムの動作を強く提示します。また、作用反作用はもともと双方向なので、物理での反作用提示が出来ないホログラムは、代わりに光でその関係を演出提示します。

3 Lit Hand_Oscar_Medium.mp4 from Microsoft Design on Vimeo.

手に明るいホログラムを持った手は明るく照らされます。このちょっとしたエフェクト一つでインタラクションに奥行、近接度合い、方向などの情報を付加して、リアルさが格段に上がります。赤く光るホログラムを手に持ったユーザーは「暖かく感じた」と答えたこともあるそうです。

Bending the rules to accommodate users - ユーザー周辺の法則を捻じ曲げる

このチャプターがMixed Realityのすごく面白いところw 物理的なリアルさを追い求めた結果、面倒臭かったり不可能だったりで、求めてないバーチャルなものへのインタラクションが発生しちゃいました。

「床に落ちたオブジェクトをしゃがんで拾う」 「はるか遠くに吹っ飛んだオブジェクトを取りに行く」

せっかくバーチャルなのでこういうリアルならではの不便を「法則を曲げる」ことで解決しちゃいます。

Surface gravity

4 Surface Gravity_Oscar_Medium.mp4 from Microsoft Design on Vimeo.

落下する対象が近くにある場合には重力が働きますが、無い場合には宇宙ステーションのように宙を漂う、重力の法則を曲げたインタラクション。

重ねたキューブの倒れた先にテーブルがない場合には落ち切らずに倒れ掛かった状態でふわふわ宙に浮かんでる様子とか面白いですw

surface gravityを適用したオブジェクトを高く、手の届かない距離まで放り投げたユーザーがいて、そのオブジェクトを不安定なストールに乗って物理的なリスクをユーザーが冒して回収するケースがあったようです。

それをバカバカしいと感じて、次のインタラクションが産まれました。

“telekinesis” gesture

5 Telekinesis_Oscar_Medium from Microsoft Design on Vimeo.

このtehekinesisはアイトラッキングとジェスチャーの組み合わせで、見つめてるバーチャルオブジェクトに対して掴んだり引っ張ったりなジェスチャーを実施するとフワっと手元に飛んできたり、動かしたりが出来ます。勢い、衝突、摩擦、重力などの物理法則を複合的に曲げて実現するインタラクション。

リアルな世界にはこの物理法則はありませんが、みんなスターウォーズのフォースなどで慣れ親しんだインタラクションなので、恐らく少し練習したらすぐに慣れて使えるようになりそうです。

Emergent interactions - 新しく生まれるインタラクション

ふたつのインタラクションによって実現したビデオのようなリアリスティックな体験はあくまでtangible Mixed Reality interactionの1例で、物理法則を注意深くシミュレートしたデジタル体験においてもっと多様な可能性がある、とのことで、このブログは結ばれます。

いくつか例示されてるなかで、音源のオーナーシップについて「インタラクション表現が変わることによってそのオーナーシップ(所有しているという)感覚にどのような影響を与えるか」っていうケースがすごく興味深い。

How could the feeling of ownership change if you could hold a music album in your hands, put it on your shelf, throw it to your speaker to play, or burn a mixtape and hand it to a friend?

今のデジタル音源の購入はスマホのアプリで決済ボタンを押すだけだし、味気ないプレイリストDBに1行データが増えるだけに感じられます。

これが、街中で掛かってる音源を気に入ったらtelekinesisでドーナッツ盤?を手繰り寄せて、サンプルプレイを楽しんで決済。自分のバーチャルな鞄にドーナッツ盤が挟まって、、、気に入ったらハイファイカセットにお気に入りの他の曲と一緒に吹き込んで友達に投げつけて、、、。

バーチャルで便利になるのはもちろんですが、デジタル体験一つ一つに物理法則を注意深く観察して、Mixed Realityで出来ることや出来ない事を踏まえた新しいインタラクションを考えて、作ってみてっていう試行錯誤をたくさん実施することが重要、なんですね。

ブログの冒頭も、こうやって書いてありました。

The honest answer was, “I don’t know, but try it.”


ホロラボは、XRの可能性や魅力に憑りつかれたたくさんのホロレンジャーが日々Tryしてたくさん失敗?しているエキサイティングな職場ですw

各職種で積極採用をしていますので、こういう新しい体験をたくさんの実験から生み出すことに関心のある方はぜひお気軽にご応募ください。

https://hololab.co.jp/recruit/

f:id:takesenit:20210515162915j:plain
ホロラボのホロレンジャーたち

また、もっとくわしくホロラボのことが知りたい方は6/4に開催される「xR合同転職相談会」を視聴してみて下さい。他のXR系の会社さんも出るので色々と聞けて面白そうです!

f:id:takesenit:20210515163009p:plain
xR転職合同相談会
https://www.youtube.com/watch?v=bwO4TCHY8O0

ということで、Mixed RealityでたくさんTry!して、新しい体験を作っていきましょ~!

「スキルアップ週間」という名の「モブワーク」をやってみました

中村です。

今週はメンバー間の技術共有、4月になって受託開発案件が落ち着いたこと、連休前の気分転換などから「スキルアップ週間」と称して「モブワーク」のイベントをやってみました。

speakerdeck.com

目的は基本スキル向上と共有(実践練習の場)とし、お題に対する感性を目的としない、さまざまな技術やツール、日ごろ勉強している内容の実践の場と定義しました。完成を目的としないことで、実験のしやすさや、注力するポイントを変えるなど、チームの興味に柔軟に対応できるようにしています。このあたりは Coderetreat の思想を取り入れています。

参加メンバーには1日~3日の時間をとってもらい、チーム編成、アプリ開発(2時間 x 3スプリント)を行いました。毎日作るものは同じでゼロから作るようにしています。これはアプリを作るうえでよくある「作り直したい」を仕組みとしていれているのと、同じことを繰り返すことで内部の洗練を目的にしています。また、毎日最初から始めることで、1日だけの参加者にも入りやすいようにしています。

「毎日ゼロから作る」、「チームを毎日変える」、「全チーム、全日同じテーマで作る」あたりは変数なので、いろいろ変えてみてもおもしろそうです。

f:id:kaorun55:20210430165340p:plain

f:id:kaorun55:20210430165347p:plain

初日は作ることにフォーカスをするチームが多く「まずはやってみる」から始まり、2日目は設計・テストへの興味、3日はUI/UXへの取り組みと、同じことを繰り返すためより全体を見通して考えられるようになったように感じました。

ホロラボも30人を超えてきて、フルリモートワークということでメンバー間同士のつながりも意識的にしないといけないということでの今回の取り組み、参加メンバーからは「普段は話さない人と話せた」、「知識の共有ができた」、「個々人で考えてること、意識の疎通は難しい」などのコメントがもらえたので、今後も継続してやってみようと思います。

(オンラインだと、わいわいやってる様子の写真が取れないので、楽しさを伝えきれないのが悩ましいですw)

mixpace Remote Renderingの紹介セッションに登壇しました

中村です。

4/27に日本マイクロソフト主催の「『Azure Remote Renderingを活用して超重量級CAD/BIMを扱う「mixpace Remote Rendering」のご紹介』」に登壇しました。

1時間ほどで内容は下記になっており、HoloLensの概要からAzure Remote Renderingの概要、活用事例まで広く情報を得ることができます。

アーカイブの公開もありますので是非ご覧ください。

  • HoloLens 2、 Azure Remote Rendering 概要(日本マイクロソフト 鈴木あつしさん)
  • mixpace概要(SB C6S 遠藤さん)
  • mixpace Remote Rendering概要(中村)
  • mixpace Remote Rendering + BIM 360事例(東急建設 橋口さん)

URL

サイト

special.nikkeibp.co.jp

アーカイブ配信はこちら(要申し込み)

sbb.smktg.jp

スライドはこちら

speakerdeck.com

mixpace Remote Renderingについて

prtimes.jp

合わせて読みたい

mixpace Remote Renderingは国土交通省 関東地方整備局さまでも活用いただいており、その概要をPTC社のセミナーでも紹介しております。

こちらも要登録ではありますが、ぜひご覧ください。

prtimes.jp

blog.hololab.co.jp