2012年3月28日水曜日

指のどの部分で押されたかを検知できる新技術「TapSence」


いまスマートフォンで、何だかんだで問題となっているものは何でしょう?







そう、指の話。
やっぱり操作しづらいですよね。"タップする"という直感的な操作が
可能になる分、いろいろ機能が限定されてきてしまいます。

そんな"指"の問題を解決しよう!と作られた新技術の話です...............





記事トップの画像をもう一回よく見てみましょうか。



タッチしている場所に●と文字が表示されているようです。
が、みんな違う文字が表示されてますよね?

Nail→爪 Tip→指先 Knuckle→関節 Pad→腹

もうお気づきですよね?
実はこれ、タップする指の部位を画面が検知して、それぞれ異なる文字
や異なる色の●を表示してくれているんです。


この新技術は、アメリカのカーネギーメロン大学の研究チームが開発して
去年の10月頃に発表したもので、「TapSence」と呼ばれています。

これ、一体どういう仕組みになっていると思いますか?
タッチパネルのタッチされる部分が判定しているのではありません。
あくまでそこは触られた座標のみを判定しています。
どうやって指の部位を判定しているかというと....なんと高性能なマイクで
音を拾って、それで判定を行っているんです!
爪だったらカチッという音しますし、腹だったらぽんって音しますからね。


「そんなんで本当に動くのかよ......」と思った方。
以下の映像をご覧ください。研究チームが作成したものです。






こちらはiPod touchを用いて、実際にその機能を実装したアプリを
動作させている映像になります。
パソコンで言う右クリックを関節タップに割り当ててみたり、英数字
キーボードを簡略化してみたり.....可能性はいくらでも広がりそうです!



Appleがこの機能をAPI段階で実装してくれると、きっと上の動画の
ようなアプリが続々と出てくるんでしょうね。

複雑な操作が可能になる分、ビューをシンプルに実装できるのは、
かなり大きな魅力なのではないかな、と僕は思います。
スクリーンキーボードなんかいい例ですよね。

0 コメント:

コメントを投稿