2008年03月03日

ユーザのコンテキストを認識!

GPS、加速度センサ、生体センサを使って
人の状態を認識して情報提示だって。

眼鏡型ディスプレイにタイムリーな情報配信 オリンパスと中央大が実験 - ITmedia News

うちでももう似たようなことをやってるけど
こっちの方が実用性が高そうで、ちょっと感心した。
50人で実験ってのもすごい力の入れよう。

うちの研究室のアレは
「通勤・通学時に使おう」→「電車にも乗る」→「GPSは使えない」
「画面表示はモバイル端末で」→「歩いてるときは使えないな」
となってる一方、こちらはどっちも使えるシチュエーション。


あと、HMD「モバイルEye-Trek」がすごく使いやすそう。
ワイヤレスだし視界が暗くならないみたい。
半透過鏡を使わないでも光学型シースルーって実現できるのか。
こんなHMDがもっと気軽に使えれば
もっと実用的なARの話が出てくるんだろうなぁ。

うちの研究室の研究ってどれも最先端のものと比べると
一歩か二歩は出遅れてる感が否めない。
テーマが分散してるせいなのか、
調査不足なまま研究を始めるからなのか。
posted by ひで at 01:38| Comment(0) | TrackBack(0) | 研究 | このブログの読者になる | 更新情報をチェックする
この記事へのコメント
コメントを書く
お名前: [必須入力]

メールアドレス:

ホームページアドレス:

コメント: [必須入力]

認証コード: [必須入力]


※画像の中の文字を半角で入力してください。

この記事へのトラックバック
×

この広告は1年以上新しい記事の投稿がないブログに表示されております。