手の姿勢検出を元に変化する霧の形状を推定し,投影される映像と実際の霧スクリーンの流れが自然に一致することを目指したフォグディスプレイを開発しました。2017年3月に情報処理学会インタラクション2017にてデモンストレーション発表を行いました。2017年11月にACM SIGGRAPH Asia 2017にてポスター発表を行いました。Virtual Reality系の研究を取り上げるSeamless様に記事を掲載して頂きました。宇都宮大学 山本先生監修の「空中ディスプレイの開発と応用展開」にて分担執筆させて頂きました。
Conventional fog displays realized interesting interaction focusing on touching motion to aerial images, there is no expression explicitly taking advantage of the relationship between the physical flow of the screen and a projected image associated with it. Mistform [Tokuda et al. 2017] proposed to predict the shape of the screen. However, it also does not detect the physically deformed shape of the screen by user's action explicitly. We propose a feed-forward approach to create pseudosynchronized image contents with the deformation by users. In the proposed method, a sense of natural synchronization between the shape-changing screen and the projected image is provided by using hand gesture detection and a physical simulation of collision between falling particles and user's hands.