前記事でDepthセンサー界隈の最近の事情について書きました。
今回はさまざまなメーカーがDepthセンサーに取り組み、コンピューターに内蔵されることで起こる変化について書いてみます。
Depthセンサーの内蔵化がもたらすもの
現在内蔵化の予定があるのはIntel RealSenseのみです。しかしGoogleはProject Tangoを、AppleはPrimeSenseを買収し、Structure SensorがiOS対応していますので、そのあたり含めて考えてみます。
- ユーザーの増加
- ケーブルからの解放
- データの変化
- タッチパネルとのコンビネーション
ユーザーの増加
一番の変化はこれでしょう。携帯電話にカメラが搭載され、今の世の中、写真はスマフォで撮るという方が大半かと思います。これがDepthセンサーにも起こる可能性があります。ユーザー増えれば、Depthセンサーを使ったアプリの需要も増えます。新機能ということで、さまざまなアプリが登場するでしょう。その玉石混交の中で新しいアプリケーション、新しい使い方が見えてくると考えています。
ケーブルからの解放
Structure Sensorは初めてのiOS対応Depthセンサーという面が大きいですが、初めてのタブレットへ付属できるDepthセンサーでもあります。これまではKinectやXtionのようにセンサーは台などに置き、USB(場合によっては電源ケーブル)でPCに接続します。
これに対してStructure Sensorはタブレットにほぼ同化する形で利用します。完全な内蔵ではありませんが、内蔵されたDepthセンサーを疑似体験するには十分です。ここからわかることは、Depthセンサーの内蔵化はケーブルからの解放である。ということを感じます。これまでのセンサーは上記のように台に置くことが前提となっていますので、USBゲーブルの取り回しが課題になります(もちろん無理やりタブレットに装着することもできますが、あまりスマートではないでしょう)。これに対して、Structure SensorはiPadと一体になっているので、普段iPadを持ち歩くのと同じように、Depthセンサーを持ち歩くことができます。これによって、Depthセンサーがセンシングできる範囲の自由度が飛躍的に増します。
データの変化
データにも変化が起こります。いままでのRGB(Red,Green,Blue)のみのデータにDepth(距離)が加わったRGB-Dのデータになります。これによって、写真などの色データに距離データを付与することができます。すると、背景除去や合成写真などが、より簡単に作れるようになります。3次元的に点群を持っていれば、点同士の距離を測ることもできます。たとえば、写真に映ったモノのサイズを後で測れるようなイメージでしょうか。
タッチパネルとのコンビネーション
DepthセンサーをNUIの文脈で話した時に比較に挙げられることが多いタッチパネル。Depthセンサーが内蔵されたとき、特にリア側への配置の際にはタッチパネルがDepthセンサーアプリケーションのインタフェースになります。タッチ操作とDepthセンサー。この組み合わせも考えてみる価値がありそうです。
デメリット
メリットだけというのは怪しいので、デメリットも考えてみました。
まず内蔵化されること、利用場面がコンピューターの大きさに制限されます。
これは、ケーブルからの解放と裏表になりますが、内蔵されることによりセンサーの設置自由度が減り、それによってアイデアが制限されます。外付けれあれば、ケーブルで取り回す、センサー自体を加工するなどさまざまな方法を採ることができますが、内蔵されると逆にこれらができなくなります。
いまはOculus Riftに載せてみたり、模型に載せてみたりとこれらの自由度が制限されます。現行どおり外付けのセンサーが発売されれば、この限りではありません。
まとめ
モバイル端末やタブレットPCにDepthセンサーが搭載されてどう変わるか。より具体的な使い方は3Dスキャンなど出てきていますが、少し抽象的な視点で考えてみると、また違った見方ができそうですね。