電子工作で作りたいものを思い付いたのでとりあえずメモ。
自宅に引き戸があるのだが、これを自動ドアにする。
・機械的に開く仕組みを作る
端的に言えば、ラジコンカーが作れればよい。
しかも一軸方向のみの移動なので前進と後退だけである。
測距計をつけておけば自分の位置も取得できる。
・制御
WiFiかBluetoothにつなげればスマートフォンやPCのアプリで
操作可能になる。画面のスライダーで引き戸が動かせたらクールだ。
扉にタッチセンサを付けたり、お店の自動ドアのように測距モジュールを
天井に設置するんでもよい。
「すべてがFになる」の真賀田研究所では人間を静電容量をもった
物体として検出するという設定だったが、同じような仕組みでセンサを
作れないだろうか。
これなんかどうだろう。最大で24インチと書かれている。
同じような話だが、自宅には開き戸が2つある。
引き戸に比べると開き戸は自動ドア化が難しい。
蝶番に何か仕込めないだろうか。
出入口に関しては施錠システムを作りたい。
既にスマートロックとしていろいろと商品化はされているが
まだまだ実用的ではなさそうだ。
2016-01-31
言語変化
@
21:40
30年後の日本語はどの程度変わっているだろうか。
Wikipediaの「を」の項を参照すると、
奈良時代には「お」と「を」で音韻にも明確な区別があったものが、
平安時代に入り混用が始まるとある。
詳しくは当該項目に譲るが、発音自体はどちらも「wo」だったり
どちらも「o」だったりと時代によっていろいろで、
戦後に現代仮名遣いに移行した際に、「お・を」もほとんどが統一されたが、
助詞の「は」「へ」「を」については使用頻度の高さのため残されたようだ。
「こんにちは」を「こんにちわ」と書くのと同じように、
「東京から青森えの最終列車わたくさんの乗客お乗せて出発した」
のように変化していくだろうか。
現代人からみると「てにをは」の類はパッと見た時の目印になるため、
それが「てにおわ」になってしまうと読みづらくてしょうがないが、
これは現代仮名遣いに変わった時も同様だったはずなので
慣れの問題でどうにでもなるだろう。
しかし日本語の自然言語処理がますます難しくなる。
その前に英語のように空白で単語あるいは文節を区切るような文化が
浸透しない限りは置き換えは難しいだろう。
発音の点では、「wo」が「o」になったのと同じく、「wa」が「a」になることで
「わ」行が消え去るという可能性はないだろうか。
「わたしはね」→「あたしゃね」のように、一度口をすぼめる必要がある「wa」の
音では「w」が落ちやすい。
「すみません」が「すいません」の変化も「m」の子音を経由するという
手間の省略だから構造としては同じだろう。
イ音便、促音便、撥音便等も発音のしやすさからの変化だが、
「歩きて」→「歩いて」→「歩うて(歩ーて)」
「酔ひて」→「酔って」→「酔おて(酔ーて)」
「進みて」→「進んで」→「進うて(進ーて)」
のように、さらに簡略化される可能性もあるだろう(関西弁に近い)。
どんどん口元が緩くても済むように発音が変化していっているんだろうか。
そう考えると、どちらかというと聞き手側よりは話し手側の利便性によって
言語表記が変化していくのかもしれない。
だとすれば、発声機構が機械化されると言語の変化の仕方もまた変化するだろう。
口を動かす代わりにタイピングをするんであれば打鍵の手間に応じて
言語は変化するだろうし、信号のようなものを直接生成するのであれば、
信号の波の形状によって脱落する子音や統合される母音が出てくるのかもしれない。
まあ、30歳年上の人と対して違う言語をしゃべってはいないし、
30年では身体の機械化が進むとも思わないので、そこまでの変化はないだろうし、
寿命が延びるに従って話者の入れ替わりが緩慢になるため、
変化のスパンはどんどん長くなっていく。
150年くらい先の日本語は聞いてみたい。
Wikipediaの「を」の項を参照すると、
奈良時代には「お」と「を」で音韻にも明確な区別があったものが、
平安時代に入り混用が始まるとある。
詳しくは当該項目に譲るが、発音自体はどちらも「wo」だったり
どちらも「o」だったりと時代によっていろいろで、
戦後に現代仮名遣いに移行した際に、「お・を」もほとんどが統一されたが、
助詞の「は」「へ」「を」については使用頻度の高さのため残されたようだ。
「こんにちは」を「こんにちわ」と書くのと同じように、
「東京から青森えの最終列車わたくさんの乗客お乗せて出発した」
のように変化していくだろうか。
現代人からみると「てにをは」の類はパッと見た時の目印になるため、
それが「てにおわ」になってしまうと読みづらくてしょうがないが、
これは現代仮名遣いに変わった時も同様だったはずなので
慣れの問題でどうにでもなるだろう。
しかし日本語の自然言語処理がますます難しくなる。
その前に英語のように空白で単語あるいは文節を区切るような文化が
浸透しない限りは置き換えは難しいだろう。
発音の点では、「wo」が「o」になったのと同じく、「wa」が「a」になることで
「わ」行が消え去るという可能性はないだろうか。
「わたしはね」→「あたしゃね」のように、一度口をすぼめる必要がある「wa」の
音では「w」が落ちやすい。
「すみません」が「すいません」の変化も「m」の子音を経由するという
手間の省略だから構造としては同じだろう。
イ音便、促音便、撥音便等も発音のしやすさからの変化だが、
「歩きて」→「歩いて」→「歩うて(歩ーて)」
「酔ひて」→「酔って」→「酔おて(酔ーて)」
「進みて」→「進んで」→「進うて(進ーて)」
のように、さらに簡略化される可能性もあるだろう(関西弁に近い)。
どんどん口元が緩くても済むように発音が変化していっているんだろうか。
そう考えると、どちらかというと聞き手側よりは話し手側の利便性によって
言語表記が変化していくのかもしれない。
だとすれば、発声機構が機械化されると言語の変化の仕方もまた変化するだろう。
口を動かす代わりにタイピングをするんであれば打鍵の手間に応じて
言語は変化するだろうし、信号のようなものを直接生成するのであれば、
信号の波の形状によって脱落する子音や統合される母音が出てくるのかもしれない。
まあ、30歳年上の人と対して違う言語をしゃべってはいないし、
30年では身体の機械化が進むとも思わないので、そこまでの変化はないだろうし、
寿命が延びるに従って話者の入れ替わりが緩慢になるため、
変化のスパンはどんどん長くなっていく。
150年くらい先の日本語は聞いてみたい。
音声合成
Raspberry PiやArduinoみたいなシングルボードコンピュータを
使って何かつくろうかと思っているが、たいていのことは
スマートフォンでもできるのであまりいい用途が思いつかない。
とりあえず、合成音声の出力はしたいなーと思い、
いろいろと探してみると、フリーでもよさそうなものが出てくる。
・rospeex
NICTが開発しているらしい。
杉浦孔明さんという方が関わっているようで、
http://rospeex.ucri.jgn-x.jp/nauth_json/jsServices/VoiceTraSS
にPOSTすると合成されたデータが返ってくるようだ(デモ)。
Python + クラウド音声合成 で高品質なアニメ声読み上げを参考に
スクリプトを起こしてみるとうまくいった。
pythonではpyaudioを使うとwavの再生もでき、再生部分も含めるとこんな感じになる。
アニメ声なのが、場面によってはやや使いづらい。
・VoiceTextAPI
こちらはHOYAが開発していて、無料登録するとAPIが使える。
いろいろな言語のライブラリが用意されていたので、
golangのものを使ってみた。github/yosssi/go-voicetext
VoiceTextAPIのバックエンドにもgolangが使われているらしい(スライド)。
ファイルに書かれた内容を句読点等で区切りながら読み上げるサンプル。
splitの実装は句読点を残すために場当たり的実装になっているので要注意。
合成音声の出来はかなりいい感じである。
最近はARM用のパッケージもgolang公式で配布されるようになったので
Raspberry Piなんかでも動かせるのだろう。
使って何かつくろうかと思っているが、たいていのことは
スマートフォンでもできるのであまりいい用途が思いつかない。
とりあえず、合成音声の出力はしたいなーと思い、
いろいろと探してみると、フリーでもよさそうなものが出てくる。
・rospeex
NICTが開発しているらしい。
杉浦孔明さんという方が関わっているようで、
http://rospeex.ucri.jgn-x.jp/nauth_json/jsServices/VoiceTraSS
にPOSTすると合成されたデータが返ってくるようだ(デモ)。
Python + クラウド音声合成 で高品質なアニメ声読み上げを参考に
スクリプトを起こしてみるとうまくいった。
pythonではpyaudioを使うとwavの再生もでき、再生部分も含めるとこんな感じになる。
アニメ声なのが、場面によってはやや使いづらい。
# -*- coding: utf-8 -*-
import sys
import base64
import urllib2
import json
import wave
import time
import pyaudio
tts_url ='http://rospeex.ucri.jgn-x.jp/nauth_json/jsServices/VoiceTraSS'
if __name__=='__main__':
message = sys.argv[1]
# command
tts_command = { 'method':'speak',
'params':['1.1',
{'language':'ja','text':message,'voiceType':"*",'audioType':"audio/x-wav"}]}
obj_command = json.dumps(tts_command)
req = urllib2.Request(tts_url, obj_command)
received = urllib2.urlopen(req).read()
# extract wav file
obj_received = json.loads(received)
tmp = obj_received['result']['audio'] # extract result->audio
speech = base64.decodestring(tmp.encode('utf-8'))
f = open ("tmp.wav",'wb')
f.write(speech)
f.close
w = wave.open("tmp.wav",'rb')
p = pyaudio.PyAudio()
def callback(in_data, frame_count, time_info, status):
data = w.readframes(frame_count)
return (data, pyaudio.paContinue)
stream = p.open(format=p.get_format_from_width(w.getsampwidth()),
channels=w.getnchannels(),
rate=w.getframerate(),
output=True,
stream_callback=callback)
stream.start_stream()
while stream.is_active():
time.sleep(0.1)
stream.stop_stream()
stream.close()
・VoiceTextAPI
こちらはHOYAが開発していて、無料登録するとAPIが使える。
いろいろな言語のライブラリが用意されていたので、
golangのものを使ってみた。github/yosssi/go-voicetext
VoiceTextAPIのバックエンドにもgolangが使われているらしい(スライド)。
ファイルに書かれた内容を句読点等で区切りながら読み上げるサンプル。
splitの実装は句読点を残すために場当たり的実装になっているので要注意。
合成音声の出来はかなりいい感じである。
最近はARM用のパッケージもgolang公式で配布されるようになったので
Raspberry Piなんかでも動かせるのだろう。
package main
import (
"bufio"
"fmt"
"os"
"os/exec"
"strings"
"time"
"unicode/utf8"
"github.com/yosssi/go-voicetext"
)
const (
APIKEY = "0000000000000" // 無料登録して取得したAPIキー
)
func main() {
c := voicetext.NewClient(APIKEY, nil)
var message string
var cmd *exec.Cmd
var period bool
var scanner *bufio.Scanner
if len(os.Args) >= 2 {
f, err := os.Open(os.Args[1])
if err != nil {
os.Exit(1)
}
scanner = bufio.NewScanner(f)
} else {
scanner = bufio.NewScanner(os.Stdin)
}
isBreak := func(r rune) bool {
switch r {
case '、', '。', ',', '.', '「':
return true
default:
return false
}
}
split := func(data []byte, atEOF bool) (advance int, token []byte, err error) {
start := 0
for width := 0; start < len(data); start += width {
var r rune
r, width = utf8.DecodeRune(data[start:])
if !isBreak(r) {
break
}
}
for width, i := 0, start; i < len(data); i+= width {
var r rune
r, width = utf8.DecodeRune(data[i:])
if isBreak(r) {
return i + width, data[start:i+3], nil
}
}
if atEOF && len(data) > start {
return len(data), data[start:], nil
}
return start, nil, nil
}
scanner.Split(split)
for scanner.Scan() {
message = scanner.Text()
result, err := c.TTS(message, &voicetext.TTSOptions{
Speaker: voicetext.SpeakerHikari,
Pitch: 80,
Speed: 115,
Volume: 150,
})
if err != nil {
os.Exit(1)
}
if result.ErrMsg != nil {
fmt.Println(result.ErrMsg)
os.Exit(1)
}
if cmd != nil {
cmd.Wait()
os.Remove("tmp.wav")
if period {
time.Sleep(1000*time.Millisecond)
} else {
time.Sleep(400*time.Millisecond)
}
}
if strings.HasSuffix(message, "。") || strings.HasSuffix(message, ".") {
period = true
} else {
period = false
}
f, err := os.Create("tmp.wav")
if err != nil {
os.Exit(1)
}
defer f.Close()
if _, err := f.Write(result.Sound); err != nil {
os.Exit(1)
}
cmd = exec.Command("aplay", "tmp.wav")
err = cmd.Start()
if err != nil {
os.Exit(1)
}
}
if err := scanner.Err(); err != nil {
os.Exit(1)
}
if cmd != nil {
cmd.Wait()
os.Remove("tmp.wav")
}
}
2016-01-30
移動
@
19:15
空飛ぶ自動車なんていうものがSFにはよく出てくるが、現実にはそれが普及する未来は来ないだろう。もちろん、技術的には小型の浮遊体は実現可能だろうし、実際にそういった製品が発売される可能性はあるだろうが、自動車のようなかたちで普及する前に人間が移動する機会が減っていく。
30年前に比べると仕事のあり方の多様性はかなり広がっただろう。もちろん職種によるところが大きいが、自宅作業が可能な職種も多いし、Skype等を利用することで、わざわざ出張せずとも、電話や手紙よりも情報量の多い通信が可能になった。この後30年間で、情報の方を移動させることで人間を移動させずに済ませるという傾向はさらに進むだろう。これはコストの問題だ。人間と人間が直接合わないと通信できないという時代は、言語を発明した時点から終わり始め、近年の益々広がる遠距離通信による伝達可能情報量によりそれは加速されている。合理化を図ろうと思うと、輸送業等の移動自体が仕事である業種を除き、仕事に伴う移動は減らすべきである。社内ではそれを推し進めることは簡単だろうが、社外に対しては相互理解が一つの壁になるだろう。お互い移動にはコストが伴うことを承知の上で、まさにそのために直接伺うことが誠意の表明になるという悪しき風習を断ち切るのにどれだけの時間がかかるかだ。
日常での移動はどうなるだろうか。保育園の送り迎え、通学等の教育に関係する部分については、仕事との関連も大きい。現状のように、仕事自体が一箇所に人を集めて管理することで成り立っている場合には、教育もまた一箇所に人を集めて行うことになるはずだ。
仕事の方が変わってくると、教育も学校のような施設ではなく、家庭等のより小さい単位での実施にシフトしてくるだろう。これも技術的には現在でもできるわけだから、社会システムの方が変わるかどうかにかかっている。買い物については価格と速度を考えればネット通販が普及する。Amazon Nowの仕組みは要はおつかいである。ネット通販は長らく、ほとんど何でも注文できるが時間はかかるという世界だったものが、日用品等は1時間あまりで届くということになってしまうと、小売店には勝ち目がない。店頭販売にはどうしても接客が発生するし、商品の陳列効率も倉庫に比べると圧倒的に劣る。接客と陳列にかけるコストを配送に振り分ければ、日本の大部分をカバーする販売網が形成できるのではないだろうか。
自動運転技術が確立された後では、都市圏の車両と夜間に走行する車両は自動運転に限るという運用がされるかもしれない。すべてが自動運転車になれば、自動車同士の事故は非常にまれになるだろう。また、交通状況もかなり正確に予測されるため、日本の鉄道並に自動車移動が時間に正確になる。最近でも痛ましい事故があったが、夜間走行車両こそ自動化の恩恵が得られる最大の領域だ。それが常識になった後では、かつて人がハンドルをにぎっていたなんていう恐ろしい時代があったんだと思い起こされるだろう。
さて、どんなに移動のコストが意識される時代になっても減らないと思われるのが余暇のための移動だ。これはまさに移動のための移動だからである。環境を変えたいという欲求のある程度は環境制御技術の発達で解消されるかもしれないが、何かを見たいというような、直接性を得るための移動は何をもっても代えがたい。
結局は仕事の場合もそうだが、この直接性の神話への信仰と移動のコストを天秤にかけることで移動の要否が決まってくる。現状、GoogleやAmazonを始めとした情報分野の大企業が、VRやAR、AI等の開発で直接性の神話を切り崩すとともに、人間が移動しないことによるコストを切り下げている。30年後も、東京で大雪が降ったり大地震が起きると、駅が人で溢れかえる様子が見られるだろうか。
教育
@
14:35
そして二人だけになったの教育に関する話を読んでいて、
魔法の色を知っているか?でラジオを使ってSOSを発信する
シーンを思い出した。
教育とは、受信側のスイッチが入っていることと、
発信した信号が受信可能であることを期待して
発信する以外にないという勅使河原の話が、
もはやラジオが廃れた世界で、ごくまれなアマチュア無線家の
存在を信じてSOSを発信したシーンに重なる。
昨今流行りのディープラーニングでは、
データセットから特徴を抽出し、プログラム自身が
判断のルールを決めていく。
プログラムに抽象が可能になったわけだ。
ここに至るともはや教育とはデータを与える行為に収束していく。
Wシリーズの描く二世紀先の世界では、
教育という幻想が崩れているという様を、
ラジオによる通信の難しさに重ね合わせたのかもしれないと思った。
2016年現在、GoogleやAmazonは無料無制限のかざりをぶら下げて
世界中のユーザを教師にすることで、人工知能の教育に邁進している。
教師というよりも環境や入力あたりの言葉が近いかもしれないが。
一方で、日本の教育現場では学習指導要領の変遷(ゆとり教育から脱ゆとり)、
モンスターペアレントの誕生、学習塾の普及等、もはや家庭と学校の役割とは
何なのかがよくわかならくなってきている。
何のために教育をするのか。
さらによい教育を受けるため?
その先には収入の高い職業が待っている?
その収入でまた自分の子によい教育を受けさせる?
自分では教育もせずに?
30年後に、家庭や学校という仕組みはどの程度残っているだろうか。
魔法の色を知っているか?でラジオを使ってSOSを発信する
シーンを思い出した。
教育とは、受信側のスイッチが入っていることと、
発信した信号が受信可能であることを期待して
発信する以外にないという勅使河原の話が、
もはやラジオが廃れた世界で、ごくまれなアマチュア無線家の
存在を信じてSOSを発信したシーンに重なる。
昨今流行りのディープラーニングでは、
データセットから特徴を抽出し、プログラム自身が
判断のルールを決めていく。
プログラムに抽象が可能になったわけだ。
ここに至るともはや教育とはデータを与える行為に収束していく。
Wシリーズの描く二世紀先の世界では、
教育という幻想が崩れているという様を、
ラジオによる通信の難しさに重ね合わせたのかもしれないと思った。
2016年現在、GoogleやAmazonは無料無制限のかざりをぶら下げて
世界中のユーザを教師にすることで、人工知能の教育に邁進している。
教師というよりも環境や入力あたりの言葉が近いかもしれないが。
一方で、日本の教育現場では学習指導要領の変遷(ゆとり教育から脱ゆとり)、
モンスターペアレントの誕生、学習塾の普及等、もはや家庭と学校の役割とは
何なのかがよくわかならくなってきている。
何のために教育をするのか。
さらによい教育を受けるため?
その先には収入の高い職業が待っている?
その収入でまた自分の子によい教育を受けさせる?
自分では教育もせずに?
30年後に、家庭や学校という仕組みはどの程度残っているだろうか。
そして二人だけになった
森博嗣の新シリーズと四季シリーズの間に
百年シリーズがあるのだが、未読であった。
まずは同じ新潮文庫から出ている
「そして二人だけになった」を読んだ。
明石海峡大橋と大成建設が出てくる。
そして建築構造の話が盛りだくさんだ。
力学がわかる人間であればある程度フォローできるだろうが、
完全にはフォローできなくても何かすごそうな感じがするだけでも
よいのかもしれない。
あえてディテールをはぶけば、勅使河原潤サイドと森島有佳サイドの
ストーリィが交互に展開される。
各章とも、奇数節が勅使河原サイド、偶数節が森島サイドであり、
アスタリスクでそれ以外のストーリィが挿入される。
まるで量子力学のようなストーリィ展開だったと言えば伝わるだろうか。
分離していたと思っていたものは一つになり、
一つだと思っていたものは離別する。
小説の前半は古典力学だ。
観測者も観測対象も確固たるものとして把握される。
それが終盤での量子力学の発見によって、
実は世界が重ね合わさった複数の可能性だったものとして捉え直される。
読み終えた段階で読者はこの小説を観測できただろうか。
いや、最後の最後まで現象は収束することなく、
シュレーディンガーの猫は古典的な意味で生きても死んでもいない。
奥付に初出は平成十一年六月とあるから、まだ二十世紀のころの作品だ。
兵庫県南部地震が平成七年、
明石海峡大橋の竣工が平成十年、
NYの同時多発テロ事件が平成十三年、
福島の原発事故が平成二十三年。
物語の終盤で、明石海峡大橋が竣工した後にH県南西部地震が
発生しており、特定の周波数で共振するような設計になっていたという
話はなるほどと思ったが、実際には応答解析をチェックすれば判明するだろう。
それよりも、
「これからの大規模構造物の設計でもっとも大きく、確率の高い外力はテロである」
といった話や、原子力発電の是非について勅使河原がインタビューを受ける話は、
世間(というよりもマスコミか)が五年後十年後に躍起になって取り上げた
話題をうまく挟んであり、改めて森博嗣が好きになった。
そう、この小説ではアスタリスクの節が一番好きなシーンだった。
百年シリーズがあるのだが、未読であった。
まずは同じ新潮文庫から出ている
「そして二人だけになった」を読んだ。
明石海峡大橋と大成建設が出てくる。
そして建築構造の話が盛りだくさんだ。
力学がわかる人間であればある程度フォローできるだろうが、
完全にはフォローできなくても何かすごそうな感じがするだけでも
よいのかもしれない。
あえてディテールをはぶけば、勅使河原潤サイドと森島有佳サイドの
ストーリィが交互に展開される。
各章とも、奇数節が勅使河原サイド、偶数節が森島サイドであり、
アスタリスクでそれ以外のストーリィが挿入される。
まるで量子力学のようなストーリィ展開だったと言えば伝わるだろうか。
分離していたと思っていたものは一つになり、
一つだと思っていたものは離別する。
小説の前半は古典力学だ。
観測者も観測対象も確固たるものとして把握される。
それが終盤での量子力学の発見によって、
実は世界が重ね合わさった複数の可能性だったものとして捉え直される。
読み終えた段階で読者はこの小説を観測できただろうか。
いや、最後の最後まで現象は収束することなく、
シュレーディンガーの猫は古典的な意味で生きても死んでもいない。
奥付に初出は平成十一年六月とあるから、まだ二十世紀のころの作品だ。
兵庫県南部地震が平成七年、
明石海峡大橋の竣工が平成十年、
NYの同時多発テロ事件が平成十三年、
福島の原発事故が平成二十三年。
物語の終盤で、明石海峡大橋が竣工した後にH県南西部地震が
発生しており、特定の周波数で共振するような設計になっていたという
話はなるほどと思ったが、実際には応答解析をチェックすれば判明するだろう。
それよりも、
「これからの大規模構造物の設計でもっとも大きく、確率の高い外力はテロである」
といった話や、原子力発電の是非について勅使河原がインタビューを受ける話は、
世間(というよりもマスコミか)が五年後十年後に躍起になって取り上げた
話題をうまく挟んであり、改めて森博嗣が好きになった。
そう、この小説ではアスタリスクの節が一番好きなシーンだった。
自分の意見を一つに絞ろうとする必要はないと思います
そもそも自然とは何か、という問題が一番難しい
仕事を持っている、というのは、自分でシャツを着ることができる、くらいの価値かな
教育なんていう行為が、はたして本当に存在するのでしょうか
いつでもどんなときでも正しいことってあるのでしょうか
2016-01-28
電子書籍2
電子書籍についてその2。
森博嗣の新シリーズ「彼女は一人で歩くのか?」には
「熊の生態」という本が出てくる。
主人公のハギリはロシア語が読めないので
翻訳機を兼ねたスコープを通して読むのだが、
その途中で真賀田四季からのメッセージが一時的に挿入される。
ここではスコープの側がクラッキングされたということに
なっていたが、紙の本でなければ書籍の側を操作することも可能だ。
「彼女は一人で歩くのか?」の電子書籍版では是非そういった
仕掛けをやってほしいが、おそらくそうはなっていないだろう。
そもそもreader(リーダと読者)側がそういうことを想定していない。
漫画、映画、アニメ、演劇、音楽、朗読、ゲームその他諸々のいずれとも違う、
まぎれもない本という形式でありながら電子化による紙媒体との
差別化は如何にして図れるだろうか。
季節、時間帯、あるいはセンサによる入力等に応じて
表示する文章を変えたとき、その作品はもはやスタティックな
本としてではなく、ダイナミックなストーリィとして受け取られる。
小説では、人称を自由に行き来するような表現もできるだろうか。
ページをめくるたびに文字数が少なくなることで緊張感の高まりを表したり、
めくってもめくっても文字が出てこない、あるいは逆に、
めくってもめくっても「失敗した失敗した失敗した」のような、
富豪的プログラミングならぬ富豪的ライティングだって可能なはずだ。
それも、予め決められたページ数ではなく、例えばページのめくり方に応じた
終了条件も可能なはずだ(10ページ以上めくった段階で1秒以上めくらなかった
場合に次に進む、等のように)。
円城塔あたりがこういうことに興味をもってやらないだろうか。
この本は電子書籍で読まないとわからない、
というような本が出てくることを切に願う。
森博嗣の新シリーズ「彼女は一人で歩くのか?」には
「熊の生態」という本が出てくる。
主人公のハギリはロシア語が読めないので
翻訳機を兼ねたスコープを通して読むのだが、
その途中で真賀田四季からのメッセージが一時的に挿入される。
ここではスコープの側がクラッキングされたということに
なっていたが、紙の本でなければ書籍の側を操作することも可能だ。
「彼女は一人で歩くのか?」の電子書籍版では是非そういった
仕掛けをやってほしいが、おそらくそうはなっていないだろう。
そもそもreader(リーダと読者)側がそういうことを想定していない。
漫画、映画、アニメ、演劇、音楽、朗読、ゲームその他諸々のいずれとも違う、
まぎれもない本という形式でありながら電子化による紙媒体との
差別化は如何にして図れるだろうか。
季節、時間帯、あるいはセンサによる入力等に応じて
表示する文章を変えたとき、その作品はもはやスタティックな
本としてではなく、ダイナミックなストーリィとして受け取られる。
小説では、人称を自由に行き来するような表現もできるだろうか。
ページをめくるたびに文字数が少なくなることで緊張感の高まりを表したり、
めくってもめくっても文字が出てこない、あるいは逆に、
めくってもめくっても「失敗した失敗した失敗した」のような、
富豪的プログラミングならぬ富豪的ライティングだって可能なはずだ。
それも、予め決められたページ数ではなく、例えばページのめくり方に応じた
終了条件も可能なはずだ(10ページ以上めくった段階で1秒以上めくらなかった
場合に次に進む、等のように)。
円城塔あたりがこういうことに興味をもってやらないだろうか。
この本は電子書籍で読まないとわからない、
というような本が出てくることを切に願う。
Subscribe to:
Posts (Atom)