VC業界も長くつらい時期が続いているが、そろそろ前向きな話も増えてきたよう今日この頃だ。そんな中、近未来のITの話が目にとまったので紹介しよう。コンピューターのユーザインタフェースの話だ。
コンピューターはますます高機能になっているが、その高度な処理能力によってユーザインタフェースはユーザフレンドリーな方向に向かっている。これからのコンピューターは、もう面倒な操作は不要だ。
QWERTYキーボードの配列を知らなくたって、マニュアルなんか読まなくたって、ダブルクリックをできなくたって(今となれば懐かしい話だがWindows95が出たばかりの頃はこれで苦労した方が少なくなかった)、コンピューターを操作できるようになる。
代表的なところではAppleのタッチスクリーンがそうだし、Google Voiceを筆頭に巷で動き出した音声認識系のサービスもしかり、任天堂Wiiのコントローラーもしかり。近いうちに登場しそうなMicrosoft XboxのProject NATALも身振り手振りでゲームを操作できるものとして注目だ。このように「コンピューターが人間に合わせる」時代が来つつある。
この分野の研究開発はさらに先に進んでいる。Microsoft Researchでの取り組みを紹介した下記の記事を見てみよう。
引用: Speech, touchscreen — been there, done that. What’s the user interface of tomorrow?
Venture Beat 2009/9/2
... A muscle-computer interface would allow users to interact with their computers even if their hands are occupied with other objects (e.g., carrying a briefcase, holding a phone or a cup of coffee, etc).
近未来のインタフェースとして最初に挙げられている例はマッスル・コンピュータ。「筋肉センサー」とでも訳そうか。人間の筋肉の動きを読み取ってコンピューターを操作するための入力装置のようで、コンピューターの操作を手足の動作で行えるようになるということのようだ。そういえば、日本のロボットベンチャーで実際に商品にしているところがあったような気もするが。。。
Tongue-based interaction could enable users who are paralyzed but still have control of their eyes, jaw and tongue to use tongue gestures to control a computer. The idea is to use infrared optical sensors embedded in a retainer inside the user’s mouth to sense tongue movement.
次は舌を使うインタフェースだ。障害のある方などに有効かも知れない。
The bionic contact lens project allows contact lenses to continuously perform blood tests on an individual by sampling the fluid on the surface of the cornea and without having to collect a blood sample. The lens could eventually analyze the fluid and send that analysis wirelessly as part of a healthcare monitoring program.
興味深いのは「バイオ・コンタクトレンズ」。このコンタクトレンズは、眼球に接しながら血液検査と同じような分析を常時行い、その情報をワイヤレスで発信してくれるらしい。いわばリアルタイム血液検査装置といったところか。糖尿病患者の多いアメリカならではの発想だ。
なんだか人間とコンピュータが「合体」しそうな勢いだ。少し前に「ウェアラブル・コンピューター」という言葉があったが、考え方はそれに近い。
ここに挙げられたものは、世界中で取り組まれているプロジェクトのほんの一部に過ぎない。人間がコンピューターに振り回されるのでなく、コンピューターが人間にやさしくなる時代がやってきている。まだまだITでやれることは多い。
最近のコメント