ラベル UX の投稿を表示しています。 すべての投稿を表示
ラベル UX の投稿を表示しています。 すべての投稿を表示

2012年3月31日土曜日

未来の発明は順調か?その3.3

その3その3.1その3.2と入力された情報をリアルタイムに加工して出力する技術を紹介してきたんですが、今回はそもそもの入力から変えていこう、という話からスタートします。まずはこちら、撮影した後で画像の被写界深度を変更できるカメラ、Lytroです。


動画撮影に対応していないようなので、焦点を合わせる際にCCDに入力される、さまざまな被写界深度の画像をすべて保存しておくことで、被写界深度コントロールを実現しているようですね。その威力はこちらのLytroを利用して撮影された画像ギャラリーでご覧ください。


お次はNikonが2012/02/07に発表したフラッグシップモデルD800、というかD800に搭載されたCMOSセンサー。なんと36.3Mピクセルの解像度。1080iの画面がざっくり2Mピクセルですから18倍の画素数ですね。要するに、普通に撮影しても1080iの画面じゃ18倍ズームしないとピクセル等価にならないという代物です。New iPadのRetina Displayだと9倍までですね。



LytroにD800のCMOS積む(逆でもいいんですが)と、撮影時はぼさーっとしてても、後でどうとでも画像を編集できるようになっちゃうわけです。

もう一つおまけに中田さん紹介のgoogle researchが発表したCalibration-Free Rolling Shutter Removal論文。撮影時のゆがみを補正するアルゴリズムについて紹介されています。もちろんgoogleらしく分散処理前提の設計になっていて静止画だろうが動画だろうがお構いなしに補正してくれるそうです。この技術のなにが良いかって、意図せずアオリの入った映像を撮影してしまっても、googleのこの技術があれば自然な形に後から補正できるわけです。

つまり、Lytro+D800のCMOSセンサーで被写界深度とズーミングの自由度が手に入ったところに、このgoogleの技術を組み合わせると、カメラアングルも適当でおけ、となってしまうわけです。こうなってくるとプロカメラマンのやるべきことって、決定的瞬間に決定的な場所に居合わせること、になっちゃうかもしれません。


で、とどめはこちら。稲葉所長ご紹介のLuxRenderを利用すると、単なる写真をまるでレイトレーシングされた仮想空間であるかのように書き換える事ができます。




さて、ここで紹介してきた技術で作成された映像って容量が大きいですから、その6.1++で扱った協調分散ディスプレイなどで部分的に切り出して表示してもいいわけですよね。さまざまなチャレンジが同時進行していて面白いですね。^-^
Read more

2012年3月12日月曜日

未来の発明は順調か?その10

vison2019の2012年版1:48-2:02に短いけれども、とても印象的な決済サービス利用シーンがあります。地下鉄の駅でデジタルサイネージ内でパフォーマンスを披露している老人のコンテンツを購入する場面なんですが驚いたことに駅プラットフォームで購入動作をしている男性の方にパフォーマーの老人が目を合わせて会釈するんです。



3.1で紹介したような技術を使っている可能性もありますが、デジタルサイネージの位置に対して購入行動をとっている男性がどの方向に居るのかシステムは理解していることが前提になります。地下空間の場面ですから、高精度GPS/GISを前提にするわけにはいきませんので、決済端末(カード型のスマートフォン)位置を複数の基地局アンテナで測位して判定しているか、デジタルサイネージ画面にカメラ等のセンサーが仕込まれているのでしょう。(他にも方法はあるかもしれませんが)




決済場面も面白い仕組みを想定しています。一見NFCを使っているだけのように思えますがNFCの通信距離は10cm程度です。ここでは見たところ1m程度は離れた状態でデジタルサイネージに端末をかざして端末上にパフォーマのコンテンツがプレビューしていますから、端末側のカメラやモーションセンサーが連携してターゲットを判定した上でBluetoothなりWiFiなり他の伝送手段を併用して決済しているようです。金額は支払い側が決定しているので一種の投げ銭システムにもなっているようですね。

実は私もIndexに在籍していた頃、たしか2004-2006年あたりだったと思いますがFeliCaが2.0になると双方向通信が可能になると聞いて、携帯電話をPOSレジにしようとか色々考えていたんですが、とある会合で「青山表参道あたりで自作絞り染めTシャツなど売っているお兄ちゃんたちに現金以外の決済手段を提供できる」とぶち上げたら、彼らは所得捕捉されたくないから乗ってこないだろうと一蹴された記憶があります。

ところで、この映像はその問題も解決していますように見えます。パフォーマはネットを介して複数のデジタルサイネージに同時に出演することで収益機会を高めることができるようです。これがもしかしたら彼ら実演家が所得捕捉されてでもオンネットのステージを活動の場として選ぶインセンティブになっているのかもしれません。

もちろん、ストリートパフォーマの社会的地位が今後10年程度で劇的向上しているとは想定しにくいので、パフォーマの獲得する投げ銭で賄える程度までネットワーク化されたデジタルサイネージの利用コストが下がっているのでしょう。

今年のMWCでは今回取り扱っているようなケースの原型となるNFC搭載スマートフォンをリーダ・ライタとして利用する提案が多数ありましたが、私としては昨年11月にAndroid向けアプリのv3でNFCまたはBumpによる個人口座間の資金移動機能を提供し、MWC会期中にキャリアペイメント分野への参入を表明し、リアル店舗での決済サービス提供にも乗り出したPayPalが現時点ではvision2019で表現されたこの場面の担い手として最短距離にいるのではないかと考えています。
Read more

2012年3月6日火曜日

未来の発明は順調か?その6.1+

その6で3Dミクのデモを見ていただいているので、この記事は補遺にあたるのですが、船井さんが見つけてこられたiPad3のデモの完成度がすごいのでご紹介。というのは冗談でこの映像を作成したのはサンフランシスコのAsuma Sutudio。こんなんだったらええなぁ、という妄想の産物なんですが考証がしっかりしていることは請け合いますよ。



ここでデモされている複数のiPadをマルチディスプレイとして連携させる技術は、おそらく協調分散(日本にも研究者いますよ)を利用していると想定されているはずで、この延長線上に私が大好きな自律協調分散とかの世界が広がっています。

次にミクの例でおなじみの3Dディスプレイを利用したゲームのシーンがありますね。こちらはvison2019でも様々なところで利用されています。私のお気に入りは教科書で使われているシーンです。



これ、すごく普通に使っているところが好きです。普通に使ってる、といえば、2007年発表のiPhoneなどですでにおなじみのマルチタッチがありますが、iPhone以前は商用製品では使われていなかった技術なんですよね。いまやマルチタッチが無いタッチインターフェースなんて想像もつきませんが....。

3D技術もマルチタッチのように普通に使われる日常の一部になっていくんでしょうね。

ちなみにマルチタッチが始めて発表されたのは2006年のTED(今年は東京でも開催ですね、楽しみ)でJeff Hanという人が独自に開発したものでした。これを見て極秘でiPhone開発していたApple社は大変あわてたそうです。(このあたりの経緯、以前まとめたんですが紛失してしまって...。すいません)





2011年6月に2007年にAppleが出願したマルチタッチ特許が認められたとの報道があったとき、2006年に公知となっている技術でなぜ成立するんだろうと疑問に思ったものです。(あとで調べなおしときます)

ともあれ、日本でも公開されたMicrosoftのSurface2等々、ビジネスモデルまで変容させるようなインタラクションを実現する技術がどんどん出てきていますから、新しいサービスを考えるのが楽しくてしょうがないです。




そうそう、最後になってしまいましたが、どうも本物らしいiPad3のケースの映像(リーク)はこちらです。実物発表されたら比較してみたいですね。Asuma Studioのデモを見て額縁無くなるんだぁ、と期待していたので少々がっかりしてます。




2012/3/8追記。Appleは結局新製品に3とかHDとか付けずに単にNew iPadとして発表しましたね。発表された実物は上記リーク映像と同一のようです。Asuma Studioが思い描いた未来は今しばらくお預けのようですがその日は一段と近づいていますね。(リーク映像と実物のケース比較上のリンクからApple公式サイトの映像を見たほうがわかりやすいです)下の映像は米国で公開されているCMです。






Read more

2012年3月3日土曜日

未来の発明は順調か?その3.2

Vision2019の冒頭シーンで子供たちが言語の垣根を越えてグループ学習しているシーンや出張先でナビの支援を得ながら到着連絡をしているビジネスマンのシーンで表現されていたリアルタイム翻訳の技術は現時点でどの程度の水準にあるのか、google translateを常用している人なら昔よりはましだけど、とてもじゃないけど丸投げできる水準じゃないな、と思っておられることでしょう。




ゆえに、API(!)を介してプロの翻訳者に翻訳発注できるmygengo(これはマジで使えます。ワークフォースサービスのAmazon Mechanical Turkを翻訳専門にしたものですね)のようなサービスが成立するわけです。

とはいえ、英語頑張らなきゃなぁと思いつつ明日から、と着手順延を続けてきたあなたや私の場合、今夜の会食前までに2019年の子供たちのような支援機能が欲しいのも事実です。

TechCrunchが紹介しているスマートフォン上で動作する音声認識翻訳ソフトVocreは2012年初頭時点で手に入る音声入力型の翻訳支援ソフトとしてはなかなかよくできています。1996年にIBMが当時日本で販売していたPC、Aptivaに搭載して販売していたVoiceType Dictation技術の子孫にあたる技術で、音声入力をすると、まず音声をテキストに変換してくれます。このテキストを他の言語に翻訳して、発声してくれるわけです。ビジネスモデルは新たに検討中のことで、現在iPhoneアプリは無償提供中です。物は試しで実際に試してごらんになることをお勧めします。なかなか面白いですよ。


またも話は逸れるんですが、この音声メモをテキスト化する機能だけでも、通話中に電話番号メモ取るときとか便利っちゃ便利なので、切り離して使えるようにならないかな。

Read more

2012年3月1日木曜日

未来の発明は順調か?進捗チェックその2

MicrosoftがWindows 8 Consumer Previewを公開しました。architect noteでも紹介している顔認識とアドレス連携(タグ紐付けですね)や関連コンテンツのリンケージ、インフォメーションビジュアライゼーションや、画像加工、GIS、GPS連携にコミュニケーション機能の統合などなど、たった1:05の尺によくぞこれだけ詰め込んだものだ、というくらい大量の機能を紹介しているデモ映像をまずはご覧あれ。着実に未来の発明は進捗しているようです。



ちなみに、映像中、なぜからWordPressと並んで中国の人人のロゴが見えたのがちょっと興味深かったですね。
Read more

未来の発明は順調か?その2.1

その2でBBCのThe Joy of StatsとRosling先生の奮闘をご紹介しましたが、こちらはデータライブラリ公開ではBBCより先行していたThe Guardianが推進しているContents APIを擁するOpen Platformプレゼン資料。Phil Wills氏によるプレゼンテーションはこちらで見られます。その7でコンテンツの一方の極が徹底したアンバンドル化を志向する可能性に言及しましたが、その萌芽がこのOpne Platformのチャレンジじゃないかと思ってます。



Read more

未来の発明は順調か?その3.1

これは谷脇さんがTwitterで紹介されていたカメラアプリ、scalado。その3で紹介したWorld Lensがカメラ入力映像をリアルタイムにOCR解析して文字部分を他の言語にフォント形状まで近いもので書き換える機能を提供しているのに対して、scaladoでは、撮影モードに入った途端にキャッシュに録画しつつ顔認識を実行、シャッターを押す=保存するタイムスライスを決定するとキャッシュから差し替え可能な候補を抽出して選ばせてくれるという代物です。



GPS連携、OCR連携した画像合成にタイムシフトデータを利用した画像合成と来て次は何が出てくるだろう?同じscaladoの下のデモは背景からの人物消去のケース。


写真という語が写し取られた真実を表さないようになるのか、それとも改変されていないことを保証する証明書が付与された映像にだけ写真という語が使われるようになるのか?興味津々です。
Read more