<< 前のエントリ合通ロジのトップページへ次のエントリ >>
2020年11月11日

【流 通】東京工業大学 胸装着型小型カメラ1台によるモーションキャプチャ技術開発


東京工業大学情報理工学院情報工学系の小池英樹教授らの研究グループは、胸装着型の小型超魚眼カメラ(※1)で撮影した映像を深層学習ネットワーク(※2)で学習することで、利用者の身体形状を正確に推定するモーションキャプチャ技術を開発した。さらに、身体形状と同時に頭部の向きを推定し、一人称視点映像を合成することを可能にした。

従来の光学式モーションキャプチャでは、複数台の高性能カメラを部屋の天井や壁に固定し、利用者はマーカー付きスーツを着用して計測する必要があるため、利用者の運動範囲は狭い空間内に制限された。また、一人称視点映像の合成には頭部にカメラを別途装着する必要があった。今回開発した手法では、運動範囲の制限がないため、スポーツ科学、医療、アニメーション制作などの分野でのモーションキャプチャの利便性が高まると期待される。さらに、使用機材が小型カメラ1台のみであるため、コストダウンも可能である。

※1 超魚眼カメラ
超魚眼レンズを搭載したカメラ。一般的な魚眼レンズは画角が180 度程度だが、使用した超魚眼レンズは画角280 度

※2 深層学習ネットワーク
人間の神経細胞の仕組みをモデルとしたニューラルネットワークを多層化した機械学習システム

※ 製品名および会社名は、各社の商標または登録商標です

投稿者:gotsuat 09:40| 流通