視覚障害者がWebサイトを閲覧しやすいように、音声読み上げソフトが内容を認識しやすい
サイト構成のガイドラインを作るとか、なんかそんな話をネットで見かけたのでした。
で、実際に視覚障害者がWebサーフィンしている姿を想像したりして、
『音声情報だと、リンクとかを全部読み上げないといかんから、内容把握に時間が掛かるなあ』
とか、考えていました。
音声情報は、時間と平行しているシーケンシャルな情報だから、情報の取得に
必ず一定量の時間が必要になるのだな、とか、考えていました。
でも、光と音はどっちも波だな、目と耳はどちらも2つあるし、じゃあ、
条件同じなんじゃないか? とか、思いました。
モニタと類似の理屈で、音声情報を発声させてみたらどうだろうか、
例えば、リンク文字列を違う声色で全部同時に喋らせてみるとか。
聞き手に聖徳太子ばりの能力が要求されますが、まあ、訓練するとかで、どうにかなるかも。
視覚が聴覚において優れている点が、いくつかあるのだなと。
赤、緑、青の3種の波長に独立した感覚を持っているので、情報の容量が大きくなっていること。
発生源の位置感覚が精微なため、片目で2次元の情報を時間に依存せず取得できる事。
だから、音だけだと情報伝達が大変なんだなあ、とか、思ったのでした。


なんで あなたは 三角定規なのー♪
良かったです。茶の味