以前から予想されていたように活性値と重みが二値しか取らないニューラルネットでも学習でき、精度は正則化の効果もあって同じレベルが達成できることが示された。計算コストも劇的に減らせるし特殊ハードの利用も検討できる。https://t.co/0LzlbseiIK— 岡野原 大輔 (@hillbig) 2016, 2月 10
脳が物理的に再現できるかもしれない、ということか。
この論文もちゃんと理解したいが、いかんせん背景知識が
不足しすぎている。。。
途中で出てきた、
As a result, most of the 32-bit floating point multiplicationsという文が強烈だ。
are replaced by 1-bit XNOR operations.
XORやXNORのような、入力された2値が同値か否かを判定するゲートが
重要になってくるのはしっくりくる。
何を同一とみなすかが抽象能力には必須になるわけだから。
これに対して@kazunori_279さんがFPGAくるか、という反応をしていて、
FPGAなるものを初めて知った。
百年シリーズだったかWシリーズだったかで、森博嗣がソフトとハードの
境目がなくなった世界を描いていたが、FPGAみたいなものがソフトと
ハードの境目を取り除く役目を果たすんだろう。
学習して自ら組み換わっていく回路ってまさに脳じゃないか。
そういう意味では、CPUやGPUに学習させているうちは、
人工知能による逆襲みたいなストーリィはあまり現実味がないけど、
FPGAみたいなもので学習を始めたら恐怖感が増すのかもしれない。
もはや思考回路までわからなくなってしまうわけだから。
No comments:
Post a Comment