日常化するセカイカメラ感覚(を身をもって体験中という日記)

脳に直接、膨大な数のマイクロマシンを注入し、神経細胞とマイクロマシンを結合させ、電気信号をやりとりすることで、マイクロマシン経由で脳と外部世界を直接接続する技術。これによって、ロボットなどのメカニックを直接操作したり、電脳ネット(作中におけるインターネットのようなもの)などのネットワークと直接接続したりできる。その結果、あらゆる情報がリアルタイムで検索・共有可能になり、完璧なユビキタスネットワークを構築した。可視化されたネットワーク上にあたかも自分が入り込んだかのように様々なネットワークを自由に行き来できるようになる。

これはWikipedia日本語版の「電脳化(攻殻機動隊)」の記述の一部です。現在、セカイカメラのアルファを持ってフィールドテストしているのですが、なんとなく(本当に、なんとなくというレベルで)ここで語られている様な感覚が分かる様な気がします。

たとえば、その場その場の周辺情報をカメラビューを通じて把握しながら行動していると、なんとなくそれがあるのが当然の様な気がしてきます。考えてみれば自分が存在している場所の自分を軸にした環境把握には、その場所場所に応じて大きな違いがあります(ということに気づいたと言いますか)。

つまり、よく知っている生活圏の場合は当たり前に「ぐるっと見渡した範囲」に何があるのか分かっています。ところが初めて訪れる場所やなじみの無い場所の場合はその感覚的な環境把握がありません。ですから、セカイカメラで情報を見渡しながら移動をしていると「なるほどこういう場所だったのか」という感じを強く受けます。

グーグルマップスでも同じ様なことが感じ取れそうですが、実はそこには大きな違いがある事が使ってみると良く分かります。なぜかというと、地図というのは空間を二次元的に写像したある種のメタファーなので感覚的に環境を把握するという状態に脳内を構成するにはある程度の「現実→抽象→現実」の変換作用が必要です。

地図を読むという言い方があるのは全く当然で、それを読んでイマジネーションしない限りは地図というのは非常に抽象的、記号的な代物なのです。あと、セカイカメラが世界像をリアルに想起させる作用を起こし易いのには、セルフタギングした場所情報が一人称視点内に他の情報と混じって表示されるので、「なるほどあの場所とこの場所は同じ方向にあるのか」という納得を得やすいからだと思いました。

つまり知っている場所が目の前に無くてもタギングしておいた既知の場所との相対的な位置関係でなんとなく分かった気になりやすいと言いますか。それは、ちょうど犬がおしっこでマーキングする感覚に似ているのかもしれません。

・・というようなことを書いていると随分開発が進んでいる様ですが、改めて本当にこれは難しい技術だと思います(つまりもの凄く苦労しているという事です)。

単純に言って現実世界の映像とエアタグとの親和性、主観的な納得感の醸造、それも単に見栄えだけではなく触った感じや操作した時の相互作用とも絡んだ見え方、エアタグの振る舞いといったものが、どのくらいリアルにユーザーに響くのか?の部分は正直気が遠くなるほど道のりが険しいと感じています(って単純じゃない!)。
そもそも測位の精度が測位地点でまったく違うので(数メートルから数百メートルの幅でブレますから)そこで取得出来るタグ情報の精密さがロケーション毎に全く違ってくる訳です。

さらに言えば、セカイカメラを通じて覗く場所の情報密度も当然まったく異なりますから(一般的には測位の精度と情報密度は比例していそうな気がしますが)、通常のカメラに於ける「被写界深度」のような概念が必要になってきそうな気がしています。つまりレンズがフォーカス出来るレンジをシームレスに操作出来る様な(場合によっては、自動的に可視化するゾーンを設定出来るようなチューニングも考えられます)機能が不可欠なのかもしれません。また、逆に情報過疎の状況に対してはエアタグを自動的に周囲から吸い寄せるサーチライトあるいは情報マグネットのような機能が求められるように思います。

そして、現実に東京をあちこち移動しながら使っていると、実はすぐにでもエアタグでまっくろになってしまいそうな予感がしています。なにしろ、これだけ簡単にタギング出来るとなると(恐らく本能的な衝動が喚起される)ペタペタタグを貼る事はとても自然な、日常的な行為になるだろうと思えてくるのです。