2015-06-28

-face

mac book airの液晶が壊れて久しい。
最近はnexus 9でネットをすることも多いが、
やはりマルチタスクでないのが不便なときもある。

surface 3を導入することも検討しているが、
一先ずwindows10が出るのを待つかというところ。

現状、入力インターフェイスとしては、
・キーボード
・マウス
・タッチパネル
・音声
等が挙げられるが、先日のコミュニケーションの話からの
連想でいくと、視覚による入力インターフェイスは
この3つには含まれていない。
(あるいは、マウスやタッチパネルは視覚的とも
呼べるかもしれないが。)
瞳の動きをカメラで読み取って視線を追跡する技術は
あるようだが、あれを入力に用いるのは果たして使いやすいのだろうか。
脳から電気信号で直接入力するような案もそうだが、
意図しない入力を如何にフィルタリングするかが
かなり難しいと思う。

音声入力というのも、どの程度高速化できるのかはかなり疑問だ。
音声認識、自然言語処理がどれだけ高速化したとしても、
音声入力が伝言ゲームであることに変わりはない。
検索等は本質的に伝言ゲームであるから、音声入力とよくマッチするが、
ワープロのようなものが音声入力で済ませられる気がしない。


人間へのインプットのスピードを考えると、
情報量が少ないうちは音声>文字であり、
情報量が多くなるにつれて文字>>音声へと発散していく。
多分それは、コンテクストから得られる情報量の差のためであろう。

入力時にいかにコンピュータに対して与えるコンテクストの情報量を
増やせるか。
そこを突き詰めない限り、キーボードを手放せる日は来ないだろう。

No comments:

Post a Comment