クラウド×クラウド

iPhoneで現実をタギングするという表現を最初に用いたのは、確か TechCrunch の Erick Schonfeld だと思いますが、この表現はシンプルでとてもいいと思います。しかもセカイカメラのソーシャル属性を適切に言い表しています。
セカイカメラが拡張現実アプリだと評される事にはとても抵抗がありまして(※1しかもARバブルの心配までされている!)、そもそもアーギュメンテッドリアリティという概念を知ったのはずっと後になってからのことですし、ダグ・エンゲルバートが彼のコンピューティング思想を語った論文の名称は「Augmenting Human Intellect: A Conceptual Framework」です。
これはパーソナルコンピューティングが本来的に知性の拡張を志向していた事の明確な表明、証左だと思います。

そもそもリアルワールドのソーシャルタギング環境を、より厳格な意味でのAR技術にすべて収納してしまうことは不可能です(※2)。デジタルレイヤーで現実空間を拡張することは情報操作のアプローチとしては非常に有効です。ただ、それをアンビエントとして(=社会活動の一環として)あまねく利用可能な状態に拡張しようとした場合、デバイスオリエンテッドなフロントエンド技術だけで実現するのは困難です(センシングやインタラクションは手段であって目的ではない※3)。
それと同じ意味でロケーションウェアとしてセカイカメラを語ってしまうのにも抵抗があります。なぜなら人の社会行動には場所以外に時間や状況など、より多層的なコンテキストが存在するからです。

セカイカメラをオープンプラットフォームにしたいというのは上の様な考え方がベーシックにあります。フロントエンドとしてのセカイカメラばかり見ていては見えない部分、バックエンドのクラウド領域は重要です。
ユーザーの社会的活動というクラウド(ソーシャルネットの束)と、インターネット側の多様なマッシュアップを実現するクラウドとの掛け合わせこそがセカイカメラの対象領域だと思います。

※1:プレスリリースに堂々と「拡張現実インターフェイス」と書かれていましたね。あれは「現実拡張インターフェイス( Reality Augmenting Interface )」にするべきだとずっと主張していたのですが、それでは分かりにくいと却下されたのでした。クリッカブルワールドとかクリッカブルアンビエントといった呼び方が広まると良いのですが。

※2:あちらこちらで画像認識の必要性に付いて触れられているのですが、実は昨年の6月時点では「特徴点認識を用いてカメラビューをポリゴンとして把握する」プロトタイプが手元にありました。
ただ、有視界内の対象物を一通り扱おうとした場合、フレームあたりの処理に数分かかりました。恐らくこういった問題はデバイスの処理速度とセンサーの能力、アルゴリズムの向上等で飛躍的に解消されていくと思っています。ただ、現状の iPhoneiPhone SDK の範疇では実用的なサービス提供は困難だと考えます。

※3:そもそもiPhone SDKではリアルビューにアクセスする事が認められていません。コンパス非搭載だけでなく、こういった面でもiPhoneAndroidに対するディスアドバンテージがあります。徐々に改善されて行く事を期待しています。逆に言うとコンパス内蔵+画像へのアクセスで相当パワフルな環境に進化し得るということです。


model: kamiya sayaka