2015-06-09

hIE

長谷敏司のBEATLESSを読み始めた。
これはかなり面白そうだ。

ただ、100年後の、実用化されてしばらくたったであろうAIが、
設定通りの行動パターンしかとれないなどということがあるだろうか。
あるとしたら、それは政治的等の何らかの理由で制限されている場合だけだ。
いや、そうあって欲しい。

ディープラーニングの力は凄まじい。
一度AIがあのレベルで実用化されたとしたら、
データの収集は加速度的に速まり、驚くべき速度で学習が進むだろう。

各アンドロイドには学習済みのデータがインストールされ、
サーバにはそのアンドロイド達から時々刻々新たなデータが送られてくる。
アンドロイドの内蔵データは定期的に最新の学習データに更新される。
膨大な計算が必要なのはサーバサイドのみであるから、
クライアントサイドには今のスマートフォン程度の性能で足りるだろう。
現状大きく不足しているのは通信部分かもしれない。
安定していて、高速で、あらゆる場所で有効な無線通信網が整備される必要がある。

あとは、利用者が適切に学習させてくれればよいが、
そこは利用者の利益に敵う部分であるすれば、
悪意をもって学習データを破壊しようとしない限りは
大きく逸れることはないだろう。


そこまで到達したとき、果たしてAIは学習の基準に疑問をもつことが
できるだろうか。

善人のように振る舞うためには善人とはどういうものかという基準がいる。
それはつまり、ある行動が善人のものか否かという判断の積み重ねだ。
その判断基準に疑問をもつことは、ディープラーニングの枠組みの中だけで
可能だろうか。

演繹は入れ子にする意味に乏しいが、帰納は入れ子にすることで新たな意味を獲得する。
おそらく、再帰構造の中にしか、人間は人間性を見出せない。

No comments:

Post a Comment