【重要】A Successful Failure移転のお知らせ

突然の告知となりますが、この度拙blog"A Successful Failure"は、はてなダイアリーからライブドアブログに移転することとなりました。新URLは次のとおりとなります。ブックマークやRSSリーダの設定の修正の方、よろしくお願い致します。

早速第一弾エントリとして次を掲載している。是非ご確認いただきたい。

移転の理由としては、ライブドアが主催するブロガー支援制度である「第一期 ブログ奨学金」の受給対象に選定されたからである(プレスリリース)。応募総数1,721の中から、 特待生(300万円)1名、第2種(60万円)5名、第3種(30万円)20名が選抜され、それぞれのブログには月々、返還不要の奨学金が支給される。Twitterでは多くの人にお祝いのお言葉を頂いた。この場を借りて改めて感謝申し上げたい。また、世の中に役立つ良質なブログメディアを支援するという目的で、このような奨学金制度を設立したライブドアの心意気は大変素晴らしいもので、その第一期に拙blogを選定いただいたことはとてもありがたいことだ。

さて、このブログ奨学金ライブドアのコンテンツ囲い込みの側面もあり、受給資格として「ライブドアブログへの引越し」が含まれている。受給を受けるためにはライブドアブログに引っ越さなければならないのだ。そのメリットとデメリットに関しては、同じく奨学金に選ばれた二十歳街道まっしぐらさんが『【重要なお知らせ】私がFC2ブログからライブドアブログに移転する理由いろいろ』というエントリで記載しているとおりで、筆者にもおおよそ当てはまるものばかりだ。

ライブドアブログに移転するデメリット

筆者に取っての移転のデメリットをあげると次のとおりだ。

URLおよびフィード(RSS)が変わる

本blogを見ていただいている方にはお手数をお掛けしますが、ブックマークやRSSリーダの設定変更をお願いいたします。

過去ログに関しては、様々なところからのPermalinkを保存する目的においてもそのまま置いておくことが適切であろうと考えている。ただし、ライブドアが駄目だ、リンクが切れても移せと言う場合も考えられる。できれば、そんな狭量なことは言わないで欲しい(と、ここで牽制しておきたい)。

PageRankや被はてブ数が0からに

本blogはPageRankが4となっており、Googleの検索結果においても比較的上位にランクされていた。そのため、全く更新のない日でもコンスタントに1,500〜2,000程度のPVがあったわけだが、それが全く無くなる。全くの0からのスタートとなるわけだ。

ちなみに奨学金は月払となり、筆者の場合、第2種なので月々5万円の受給となるわけだが、1ヶ月のPVが10,000を超えなければ支給されない。0からのスタートで10,000PVはそれなりに高いハードルで、拙blogのように月2,3回の更新ではちょっと無理がある。ゆくゆくは奨学金に応募したいと考えている人がいれば、注意すべき点だろう。

また、被はてブ数の方も15,000を超え、TopHatenarでも全体で189位と、密かなモチベーションとなっていたわけだが、これもまた0からのスタートとなる。これも今まで積み上げてきたものを放り出さないといけないわけで、残念に思う。

更新方法が変わる

はてなダイアリーに慣れていた点もあって、ライブドアブログはてな記法も使えないし、エントリページから直接編集できないし、テンプレートやCSSはどこ触っていいかわからないし、いろいろ使いにくい(多くは慣れの問題だと思う)。特にはてな記法が使えない点は大きなデメリットであり、はてな記法が使えるという一点だけでもはてなダイアリーを使う意味があると個人的には思う*1

ライブドアブログに限らず一般的なブログのインタフェースを見ると、簡単にテキストを書いてWYSIWYGで編集することを目的としたインタフェースとなっており、拙blogのように様々な写真や図表をレイアウトする凝った使い方をするようには出来ていない。この点は解決策を模索していくこととなるだろう。

ライブドアブログに移転するメリット

今のところ正直言ってあまりない。はてなの容量が足りないこともなく、限度を超えて落ちやすいということもない。ヤフー村八分にもなってないし、ブラック企業に転職するという予定もない。移転の理由については、奨学金の受給条件に移転があったからという一点に尽きる。メリットを強いてあげれば、ライブドアブログの方がJavascriptなどが自由に使えるというところになるだろうか。

移転する理由

それでも、望外にも金銭面でサポートをいただけることとなり、また、それ以外にも、ライブドアより運用支援や技術サポートをいただける(きっと上述のデメリットも解決策が示されるだろう)──そんなチャンスは滅多に無いわけで、拙blog、ひいては筆者自身にも何かよい変化が起こるかもしれない、そう考えて移転することとした。

かかる事情のため、読者の方々にはご迷惑をおかけ致しますが、何卒ご理解の上、今後とも拙blogをよろしくお願い致します。また、しばらくはアクセスもあまり集まらないと思いますので、是非新サイトの支援の方、よろしくお願い致します。

*1:筆者は脚注を多用するのだが、これをライブドアブログでどう実現すればよいのか不明だ。

妄想×リアリティで垣間見た妄想と現実の境界


8月29日に工学ナビの橋本先生([twitter:@kougaku])、明治大学の福地先生([twitter:@kentarofukuchi])のお二人を司会として、AR勉強会である妄想×リアリティが開催された。ARの第一線の開発者、功労者等が妄想全開で語る研究会は、大盛り上がりで幕を下ろした。本エントリではその一部を紹介したい。

非日常に覆われた会場

会場はお台場のTOKYO CULTURE CULTUREだったわけだが、そこはすでに妄想という名の非日常に覆われていたと言っても過言ではない。




なぜか水着姿の女性が溢れかえっている会場周辺。一体何事かと参加者からも戸惑いのTWがポストされる。

ネタを明かせば、会場の階下であるZepp TokyoGACKTツアーが開催されており、ファイナルの当日は、「水着着用限定で、水着はビキニでヘソ出し、お腹出しマスト!!」というドレスコードが設けられたため、会場には2500人におよぶ水着姿のファンが集まったということらしい。研究会は階下から響くGACKTサウンドの振動の中、波乱の幕開けを迎えたのだった。

AR関係者トークショウ

第一部はAR関係者トークショウが開催された。登壇者は、ARを活用したパフォーマンスで知られるAR三兄弟、ARの代表的なライブラリであるARToolKitの開発者である奈良先端加藤博一教授、派生ライブラリであるNyARToolkit開発者nyatla氏([twitter:@nyatla_st2])、FLARToolKit開発者Saqoosha氏([twitter:@saqoosha])、そして工学ナビの橋本先生と錚々たる顔ぶれだ。司会は福地先生。

トピックスを抜き出すと次のとおりだ。

  • AR三兄弟、漢字マーカーを用いたカンジブルコンピューティング*1を披露するも、続く加藤教授の講演で、加藤教授が10年前に同様のコンセプトを実現していたことが判明。
  • ARToolKit開発の思い出話を語る加藤教授だったが、ARToolKitをブレイクさせるきっかけとなった初音ミク動画*2は講義にも利用しており感謝しているとのこと。
  • さらに、加藤教授も「実は僕も初音ミク大好き」と告白。「ミクちゃんと呼びかけるとコンピュータとのやりとりをにやってくれるARコンシェルジェになって欲しい」と、ミクを使った妄想を披露。家でもモニタにミクを出しているが、嫁さんと子供には内緒にしているらしい。このエントリがご家族の目に触れないことを願っております。
  • ARの神様のような人が「ミクちゃーん、と呼ぶとミクが手のひらにでてくるの」とかミクちゃん連呼する様子を見て、ショックを受ける橋本先生。
  • 橋本先生はそろそろ視覚は良いので「触りたい、ぷにぷにしたい」と告白。一体何を触りたいのか、と食い下がる福地先生*3。結局押し切られ、「いや……その……胸とか……」と告白する橋本先生。「あずにゃんをぺろぺろしたい」とかそういうリビドーで技術は進化するのだとまとめる司会二人。議論はどんどんやばい方向へ。
  • nyatla氏はRealityOSという資料を用意されていたようだが、時間の都合上紹介されず。もったいない。

楽屋ネタ

日本のARは、間違いなく彼らの手によって支えられているのです。

デモセッション

今回のAR研究会の目玉として、実際に複数のデモを体験できる機会が設けられた点が挙げられる。

人間椅子

江戸川乱歩の『人間椅子』に着想を得、椅子の中に人間が隠れその上に座る人の感触を楽しむことを目的として制作された椅子。潜伏椅子と安座椅子の2つの椅子がネットワークで接続されており、潜伏椅子に座った被験者は、安座椅子に人が座った感覚を、まるで自分の太ももの上に座られたかのような感覚を力覚フィードバックにより体験できる。なぜそのような体験をしたいのかは個人的にはよく分からない。

Meta Cookie

プレーンなクッキーに、ARでチョコレートなどのテクスチャを重畳、同時に被験者がかぶるデバイスからチョコレートの香りを出すことで、あたかもチョコレートクッキーを食べているような錯覚を生む味覚拡張。人間の味覚は結構いい加減で、視覚と嗅覚を制御することで認識を変化させることができる。デモではレモン味やピーナッツ味など様々な種類への変化を実現していた。ちなみにクッキーは森永製菓提供とのこと。




ARカプセル

頭につけたピコプロジェクタから再帰性反射材で作られた筒状の物体に、リアルタイムでキャラクタを投射することによって、裸眼で見ることができるキャラクタを実現したもの。こっち向いてというとこっちを向いてくれる。



Twinkle

懐中電灯のようなプロジェクタで物体を照らすと、カメラに追ってその物体の色や形状を認識し、それにあわせて、仮想的なキャラクタ(こと細かなプロフィールが設定された妖精)をリアルタイムに重畳表示するシステム。ユーザはプロジェクタを操作して、ホワイトボード上の絵の上を歩かせたり、手で遮ったりすることができる。キャラクタに様々な動きを付けるために200枚以上のアニメーションを描いたそうだ。



妄想具現化大喜利

最後は@nifty:デイリーポータルZから林雄司氏([twitter:@yaginome])、そしてべつやくれい氏([twitter:@betsuyaku])を迎え(以下デイリー組とする)、橋本先生と福地先生(以下研究者組とする)の4人で、参加者から「中2」「誰得」「超能力」「コミュニケーション」というキーワードで寄せられた様々な妄想を、如何にして実現するかという議論が交わされた。研究者組の2人はどうやって技術的に解決するのか光学的アプローチで攻めるのに対し、デイリー組の2人はそれとは異なるアプローチを取る。例えば林氏はコンピュータを使わないARを実現することで有名とのことで、いくつかその実例が紹介された。

研究者がバグと戦って実装に四苦八苦しているのを尻目に、研究者が普段囚われている既成概念から解き放たれた方法で、現実を拡張する林氏。べつやく氏も他を圧倒する行動力を有しており、デイリー組は妄想の具現化において、研究者を凌駕する実力を有している。

お題その1:「出会い頭の衝突をナビゲートしてくれる食パン」

少女漫画でお約束とされる、パンを加えながら走ったらカッコいい男の子と衝突して、後に恋に落ちるシーン、これを実現するパンが欲しいという話。研究者組はいかにして好みの相手にナビゲートさせるかに頭を悩ませる。基本はラブゲッティのようにマッチングさせ、GPSかなにかで誘導するのだろうが、人を誘導するのには、『人間を意のままにコントロールする人間リモコン』で取り上げたGVSを利用すればよいのだろうか……

一方のデイリー組。林氏が用意した回答は、口にくわえたパンをおかんが持って意中の人に引っ張っていくというものだった。おかん公認の人ターゲットロックオン。さらに光学迷彩で透明化すれば完璧だと(光学迷彩用のプロジェクタはおとんが持って走る)。べつやく氏の回答は中に人が入った巨大な食パンがやはり意中の相手を襲うというもので、最初から圧倒的な戦力差を見せつけられた思いだった。

お題その2:「女子更衣室のロッカーに隠れている感覚を味わいたい」

バッチリ見えるのではなく、見えそうで見えないような、もしかしたらバレるようなそんな感覚を味わいたいらしい。研究者組はデモにあった人間椅子のように、ロッカーの中の閉塞感を再現するテレイグジスタンス(Telexistence)的な解決策を模索した。

続いてデイリー組。林氏が用意した回答は、再度おかん登場で、ロッカーの中が普通の家になっていて、家族ごと住んでいるというもの。仮に見つかったとしても、開けたほうがスミマセンと謝るようなそんな超絶ソリューションを提示した。べつやく氏は、お気に入りのDVDを映すモニタの前面に、ロッカーの扉の窓部分を貼り合わせるというさらにシンプルな回答を提示。DVDさえ入れ替えれば、様々なシチュエーションが再現可能とした。

さて、こんな話をマイクを使ってガンガン話している最中に、外ではGACKTライブが終了したようで、再度水着の女性が溢れる状況になっていた。窓側に向かった多面スクリーンには煌々とエロ妄想のお題が大写しになって、外から丸見えの状況で一線を踏み越えるトークを続行。彼女たちの目には一体どのように写ったのか、大変興味深い。




お題その3:「エライ人が分かるオーラ」

懇親会とかで知らない人に会って、あとからエライ人だったとわかって慌てるミス*4を防ぐために、エライ人にはオーラが出るようにして欲しいというアイデアだ。エライ人が目に見えるオーラーを出して近づいてきたら、いろいろ対処の仕様もあるというものだ。

コミュニケーション支援関係の研究は結構あって、研究分野では、懇親会等で相手の所属や自分との共通の知人などを重畳表示するようなシステムなどが提案されている。研究者組はどうやってエライ人を判別するか、どんな人がエライのか?というところで、胸の張り具合や顎の上がり具合を計測するとか、会場内の個々の挨拶を監視してソーシャルグラフを作るとか、様々なアイデアが検討された。

さて、デイリー組。林氏のアイデアは、この人はエライと思ったら、相手の胸ポケットあたりの余白に正の字を一本付け足すというもので、みんながエライと思うと正の字が増えていくのでエライと分かるというものだった。べつやく氏は、可視化の例としてエライ人ほどヒゲが伸びるというアイデアを披露、ちなみにエロイ人は鼻血が伸びるらしい。

お題その4:「攻めて欲しいところの予測支援AR」

Googleの乗換案内のようにターゲットを決めて、入力するとナビゲーションしてくれるというもの(「もしかして太もも」とか)。この辺りの議論、関係者の名誉のために割愛。結論的には、Googleが個々人の私生活を監視して事細かにDB化、Google Body検索サービスとして提供するというものだった。

お題その5:「歩くところを日陰にしてくれるサービス」

暑いので直射日光の下に出たくない。影をコントロールできたら、それで絵をかくこともできるだろうし、面白いだろうというアイデア。途中、横断歩道の白い部分からはみ出たら死ぬという遊び(マグマを避けて外出しよう参照。)との関連性も指摘され、研究者組はAR的に影を重畳表示してしまえばいいんじゃない?(当初の目的を忘れている)という方向となったが、デイリー林氏の出した答えは、「メガネを黒く塗る」だった(やっぱり忘れている)。

こんな風に終始研究者側が圧倒される結果となった大喜利。ちょっと視線を変えてみると、新たな突破口が見えてくるかも知れない。そんな印象を持った議論だった。

まとめ

最後は、筆者と発起人の橋本先生との対話で締めたい。

掛け値なしに面白いイベントだった。運営に携われた方々には、こうした機会を設けていただいて感謝している。このような取り組みを通してARが発展し、日常生活においてなくてはならないようなサービスに進歩することを期待したい。

関連書籍

AR三兄弟の企画書

AR三兄弟の企画書

AR〈拡張現実〉入門 (アスキー新書)

AR〈拡張現実〉入門 (アスキー新書)

*1:もちろん、MIT石井先生([twitter:@ishii_mit])のtangible bitsからの命名

*2:ARToolKitを用いた初音ミクの実装はシリーズ化されており、集大成となる最新版ARToolKitで初音ミク Act2-8:星間飛行には着実な進化が見て取れる。

*3:福地先生は、去年の第二回AR研究会でπR: 盛り上がるディスプレイ PhotoelasticTouchを発表したことで、それから1年間さんざんネタにされ、未だ傷が癒えないと言う。πRとは女体を象った透明なゲル状物質を液晶ディスプレイに貼ることで、実際に触れるディスプレイである。「変態に技術を与えた結果がこれだよ!」タグが付くのも致し方ない。

*4:林氏は常務に向かって「お名前は?」と尋ねたことがあるらしい。

議論するならTwitterより2ちゃんねるのほうが向いている

最近のTwitter人気は衰えを知らず、今日も多くのTLで議論が交わされている。しかし、多くの人が感じているように、Twitterはあまり議論に適したサービスではない。むしろ、議論を積み重ねるという観点から見れば、便所の落書きとも揶揄される2ちゃんねるの方が適している部分も多い。本エントリでは、2ちゃんねるTwitterアーキテクチャの違いに着目し、その違いが有用な議論を行なう上でどのような効果をもたらすのかについて考えてみたい。

濱野氏は著書『アーキテクチャの生態系――情報環境はいかに設計されてきたか』において、ローレンス・レッシグの提唱した概念『アーキテクチャ』に依拠した上で、ソーシャルウェアを場とみなす立場をとっている。

ここで、アーキテクチャは次のような概念だ。

  1. 任意の行為の可能性を「物理的」に封じてしまうため、ルールや価値観を被規制者の側に内面化させるプロセスを必要としない。
  2. その規制(者)の存在を気づかせることなく、被規制者が「無意識」のうちに規制を働きかけることが可能。

たとえば、前者の例としては、飲酒運転を禁止するために、自動車にアルコール検知機能を設置し、呼気にアルコールが検出された場合にはエンジンがかからないようにすることが挙げられる。ユーザはアーキテクチャにより物理的に縛られるため、飲酒運転禁止というルールを破ることが出来ない。

後者の例としては、ファーストフード店の椅子の堅さ、BGMの大きさ、冷房の強さといった例が挙げられる。店側はこれらを巧妙にコントロールすることで、あまり客に長居させず、回転率を上げるようにしている。客は無意識のうちに店側のルールに誘導されているわけだ。これもアーキテクチャのひとつの形だ。

2ちゃんねるTwitterアーキテクチャは、ユーザにいったいどのような働きかけをしているのだろうか。


【告知】[twitter:@LunarModule7]でつぶやいています。
興味のあるかたはフォローください。

2ちゃんねるアーキテクチャ

2ちゃんねるは独特の雰囲気、匿名文化もあり、まともな議論が出来ないと切って捨てる人も散見される。しかし、アーキテクチャに着目すると、不特定多数による議論を成立させるための力学が確かに存在することが分かる*1

2ちゃんねるアーキテクチャの大きな特徴として各スレッドは1,000レスで強制的に打ち切られ、閲覧不能になるという点が挙げられる。これは実は非常に大きな効果をもつアーキテクチャだ。1,000レスで打ち切られるため、議論参加者にはスレストまでに議論を収束させようという意識が働く。また、次のスレに移ったときに、今までの議論を無にしないために、議論の内容をまとめ、次のスレの先頭に記載するという文化が自然発生的に生まれた。これが議論の結果を凝縮したテンプレだ。



2ちゃんねるにおいて議論が引き継がれる仕組み

各スレでは、終盤が近づくと今までの議論を集約し、合議によってテンプレの作成・改定作業が行われる。このテンプレの存在によって、今まで議論に参加していなかったユーザも、無理なく議論に参加することができ、何度も同じ議論を繰り返すということを防ぐことができる。1,000レスで打ち切るという2ちゃんねるアーキテクチャは、テンプレという形で議論が積み重なり、受け継がれていく仕組みを作った

さらにテンプレが肥大化してくると、まとめサイトが作成されることも多く、有用な知の集積所となっている。ユーザはいつ何時でも、テンプレやまとめサイトを見て、今までの議論の結果を吸収し、新たな議論に参加することができるのだ。これは2ちゃんねるアーキテクチャが生んだ貴重な文化だと言える。

Twitterアーキテクチャ

一方、Twitterソーシャルグラフに結びついた顕名性によって、2ちゃんねるに比べて、有意義な議論ができる場と見做される場合が多い。しかし、そのアーキテクチャは必ずしも議論に適しているとは言えない。

Twitter2ちゃんねるのような不特定多数による議論を行う枠組みとしてハッシュが利用可能だ。しかしハッシュは通常特定のイベントに応じて作成されるものであり、イベントが終わればハッシュも自然消滅する。所望のトピックに適合するアクティブなハッシュがいつも存在するとは限らず、また存在したとしてもそのハッシュを見つけ出すことは現状では困難である。

仮にハッシュが見つかったとしても、多くのユーザが参加するTLに途中から参加することは多くの場合難しい。大部分のクライアントは最新200までのTweetの取得しかサポートしておらず、議論を最初まで遡ることは困難な場合が多いし、取得できたTLも大部分は情報量の無いRTで埋め尽くされていたりする。各ユーザが見るTLにはタイムラグがあり、2ちゃんねるのような引用記号も用意されていないので、話をつなげるためには非公式RTによる引用が不可欠だが、140字制限が邪魔をする。2ちゃんねるのスレストのような、明確な区切りも存在しないため、議論を進め、結論を導き出すモチベーションにも欠ける。結果としてハッシュを使った不特定多数の議論はうまく機能しない場合が多い。

これはTwitterアーキテクチャが、ユーザがつぶやく為に設計されているからだ。ツィートの文字数は最大140字に制限され、各ツィートの関連性も他人のツィートへの返答(in-reply-to)以外には用意せず、複数のツィートをまたがる長文を記述出来ないようになっている。これは、つぶやくことに対する心理的負荷を下げ、毛づくろい(グルーミング)的なコミュニケーションを活性化させるという効果を生んでいるが、議論を行うという観点では逆効果だ。個々の発言は分断され、不特定多数の発言が入り交じるハッシュTLの中では、各ユーザの一連の発言を把握することを特に困難にしている。ハッシュはあくまでも各個人個人のつぶやきを集めて雰囲気を共有するためのアーキテクチャであって、議論の場を提供するものではない。

Twitterで議論が機能する場合は、むしろ一人か二人のキーマンを中心とした特定少数の議論である。こうした議論は後日Togetterにまとめられることが多く、リアルタイムに議論に参加しなかったユーザも後からそのTLを追うことができるようになっている。Togetterには日々有用なまとめが追加されており、やはりひとつの知の集積所となっている*2



Togetterによるまとめは積み重ならない

ただ、Togetterにも欠点がある。Togetterは簡単に有用な発言を抜き出してまとめることができるツールだが、基本的には一人が編集を行うものであり作為的な編集が行われることで問題になるケースも散見される。また、あくまでも各ツィートを時系列に並べただけなので、2ちゃんねるのテンプレと比べると、冗長で内容を把握するのに時間がかかってしまう。

そして、最大の欠点は、せっかくTogetterなどにまとめられても、それがTwitter上の別のTLで行われる議論に引き継がれるケースはほとんどないということだ(これはTogetter自体の問題とは言えないが)。2ちゃんねるにはテンプレがあり、前スレ、まとめサイトへの誘導がある。しかし、Twitterにおいてはそのようなものは存在せず、過去の議論の成果が新たな議論において役立てられる機会が少ない。結果として、Twitterにおいて議論は散発的に分散して発生し、個々の議論は基本的に積み重なることがない。こうして、Twitterでは何度も同じ議論が繰り返されることになってしまう。この観点では2ちゃんねるよりも不効率と言えるだろう。

まとめ

以上見てきたように、元来特定のトピックに対する不特定多数による議論を行うことを目的として設計された掲示板である2ちゃんねるは、匿名性というハンデを背負いながらも、効率的に知の集積を続けている。一方で、つぶやきツールとして設計されたTwitterはそもそも議論に向いていない。議論は分散しがちで、2ちゃんねるに比べて知の集積の効率は悪い。議論をするのであれば、議論をするために設計されたアーキテクチャを有するサービスを使うべきなのは明らかだ。

とはいえ、匿名文化の2ちゃんねるはあまりに殺伐としすぎており、まともな議論が行える環境にないと考える人も多い(そして、それはある程度正しい)。うまくTwitterが有するソーシャルグラフを、2ちゃんねる型の掲示板におけるアカウントに結び付けられるような仕組みがあれば良いのかも知れない*3

議論によって生み出された貴重な成果を広く共有するために、工夫できることはきっとまだたくさんあるはずだ。欠点を克服した新たなサービスの登場に期待したい。

参考文献

*1:デジモノに埋もれる日々: 慣習が生み出す情報連鎖 - 2ちゃんねる型スレッド管理のしくみにおいて、2ちゃんねるスレッドの仕組みについて大変わかり易くまとめられている。本エントリを作成する上でも大いに参考にさせて頂いた。ckom氏の有用なエントリに感謝したい。

*2:本エントリに関連するTogetterまとめとしてはTwitterはなぜ2ちゃんねるに比べて使いづらいか?のまとめがある。議論をまとめたものではなく、[twitter:@bobcoffee]氏の一連の考察ツィートをまとめたものであるがやはり非常に参考になった。感謝申し上げたい

*3:TweetShareは、TwitterIDでログインし、定められたテーマに対してディスカッションができるサービスだ。二十歳街道まっしぐらさんが日本語の紹介記事を書いているので参考にしていただきたい。しかし残念なことにほとんど使われていないようだ。また、Twitterの140字制限も残っており、必ずしも議論に最適化されたサービスとは言えない。

英語の時制シーケンスまとめ

英語文法において時制は最も厄介なルールの一つだ。特に複数の出来事の前後関係を含意するシーケンスは、正確に使うには訓練が必要だろう。"Sequence of Verb Tenses"では、そのルールをロジカルに一覧にしている。とても有用な表なので、以下に紹介したい。

主節の動詞が過去形もしくは過去完了形以外の場合には、従属節の動詞の時制は何でも利用することができて、その時制の通りの意味を表す。しかし、主節の動詞が過去形もしくは過去完了形の場合には、従属節の動詞は、過去形もしくは過去完了形でなくてはならない。例外は従属節が一般的真実として広く知られていることを表現するときである。

  • In the 1950s, English teachers still believed that a background in Latin is essential for an understanding of English.
  • Columbus somehow knew that the world is round.
  • Slaveowners widely understood that literacy among oppressed people is a dangerous thing.

次の表は時間が重要となる一連の節の正しい時制の関係を示したものである。

独立節の時制従属節の目的/従属節の時制
単純現在同時に起こるアクションを示すときには、現在形を使う。I am eager to go to the concert because I love the Wallflowers.
過去に起こったアクションを示すときには、過去形を使う。I know that I made the right choice.
過去のある時点から現在まで続く期間を示すときには、現在完了形を使う。They believe that they have elected the right candidate.
これから起こるアクションを示すときには、未来形を使うThe President says that he will veto the bill.
単純過去別の完結した過去のアクションを示すときには、過去形を使う。I wanted to go home because I missed my parents.
過去の時点よりもさらに前のアクションを示すときには、過去完了形を使う。She knew she had made the right choice.
一般的真実を述べるときには、現在形を使う。The Deists believed that the universe is like a giant clock.
現在完了
or
過去完了
どんな場合でも過去形を使う。She has grown a foot since she turned nine.
The crowd had turned nasty before the sheriff returned.
未来同時に起こるアクションを示すときには、現在形を使う。I will be so happy if they fix my car today.
過去のアクションを示すときには、過去形を使う。You will surely pass this exam if you studied hard.
未来だが、独立節のアクションよりは時間的に前のアクションを示すときには、現在完了形を使う。The college will probably close its doors next summer if enrollments have not increased.
未来完了どんな場合でも現在形ないしは現在完了形を使う。Most students will have taken sixty credits by the time they graduate.
Most students will have taken sixty credits by the time they have graduated.

不定詞(infinitives)

動詞と同様に不定詞構文も時間に関する情報を表現できる。そのため、不定詞構文を利用する際にも、正しい時制に関して注意しなければならない。

不定詞の時制不定詞の役割
現在時制の不定
(to see)

動詞と同時もしくは動詞よりも後のアクションを示す。
Coach Espinoza is eager to try out her new drills.
[熱意(eagerness)は今。使ってみる(try out)のはこれから後。]
She would have liked to see more veterans returning.
[現在時制の不定詞であるto seeは、過去時制のwould have likedと同時。]
完了不定
(to have seen)

動詞よりも以前のアクションを示す。
The fans would like to have seen some improvement this year.
["would like"は現在の状態を示している。"to have seen"はその時よりも時間的に前の事象を表す。]
They consider the team to have been coached very well.
[完了不定to have been coachedは、動詞considerよりも時間的に前であることを示す。]

分詞(participles)

同様に分詞構文も時間に関する情報を表現できる。そのため、分詞構文を利用する際にも、正しい時制に関して注意しなければならない。

分詞の時制分詞の役割
現在分詞
(seeing)

動詞のアクションと同時に起こっているアクションを示す。
Working on the fundamentals, the team slowly began to improve. [beganで表現されているアクションは過去に起こった。同時にworkingも起こった。]
過去分詞もしくは完了分詞
動詞のアクションよりも以前に起こったアクションを示す。
Prepared by last year's experience, the coach knows not to expect too much.
[knowsで表現されているアクションは現在のことである。preparedはその時よりも以前の時間を表現する。]
Having experimented with several game plans, the coaching staff devised a master strategy.
[完了分詞having experimentedは、過去形の動詞であるdevisedよりも時間的に前であることを示している。

融けるような視点移動効果を実現する三次元再構築手法 Ambient Point Clouds

いよいよ今年もSIGGRAPHが始まる時期となった。本エントリでは、ダルムシュタット工科大学 (TUD) とマイクロソフトの合同チームによる、"Ambient Point Clouds for View Interpolation"と題されたtechnical paperから魔法のような視点補間技術を紹介したい。

まず、デモビデオをご覧いただくのが良いだろう。最初の方は既存手法の説明となっているが、目的は複数の写真をシームレスにつないで、破綻なく別視点に移動できる3次元モデルを再構築することである。02:44あたりから手法の適用結果が示されているので、まずそこを御覧頂きたい。これは、たとえばFlickrから集めてきた写真(当然カメラ位置も不明)から一切人の手を経ず全自動で生成されるのだ。




以下、論文*1に従って本手法の概要について説明を行う。本エントリで扱う図表は論文からの引用である。例によって詳細は、論文を参照願いたい。


【告知】[twitter:@LunarModule7]でつぶやいています。
興味のあるかたはフォローください。

概要

90年代半ばから視点補完技術やIBR(Image-based rendering)技術は長足の進歩を遂げているが、これらの技術では3Dモデル再構築の際に、精度不足やデータ不足などの要因によって、実際には存在しないゴーストや、モデルが欠けるホールやクラック等の不整合を生じる場合が多い。

本研究では、位置や距離などソースが持つ様々な不確かな情報を許容し、先の視覚的不整合を和らげた3Dモデルを再構築することを目的としている。本システムでは、不確かな領域はそれぞれのピクセルの視線光線上の半透明の3Dセグメントとして描画される。結果として、視点間のカメラの移動に伴い、不確かな領域はピクセル移動方向のストリーク(筋)に融けて、移動先の視点に近づくにつれて、再びリアルな質感を取り戻すように描画される(文章で記述するとややこしいが動画を見れば分かるはず)。

現在の実装では、これらのセグメントやストリークはランダムにサンプリングされた色付点として描写され、Ambient point cloud(周辺点状雲とでも訳すのか?)と名付けられている。これにより、精度の低い距離値が原因のゴーストが低減され、ホールやクラック等がAmbient point cloudによって埋められる。ただし、精度高く3Dモデルが再構築できる部分は、くっきりとした表示を行うべきであり、本システムは従来手法の応用による3D再構築手法にAmbient point cloudを加えて全体として最適な表現が行えるように工夫されている。

Ambient point cloud



図1:不確かな距離値を伴うエピポーラ幾何

図1を参照しつつ、基本的な考え方について説明する。仮にシーン上の点Pが2つの視点C1C2から正確に再構築されていたとすると、任意の視点CMから一切の破綻なしに完全に描画することができる(図1(a))。

しかし仮に2つの視点C1C2からの距離が若干の誤差を含みP'P''として構築されている場合には(図1(b))、ベクトルC1C2上の視点CMからの点Pはエピポーラ線上の2点に2重にマッピングされてしまう。これがゴーストの原因となる。もし、カメラが十分に高密度に配置されC1C2間の距離が小さければ、ゴーストの発生は抑えられるし、Pが均一な領域にあれば、ノイズは目立たない。しかし、小さなノイズでも積もり積もって大きな破綻を生んでしまう。

そこで、距離情報がアテにならないと考えると、2つの視点C1C2からその視線上に点Pが存在するということだけが確かな情報となる(図1(c))。緑と青で記した線上のどこかに点Pは存在する。この2本の線は、エピポーラ幾何学により、ベクトルC1C2上の視点CMから見た際には、1本に重なって見える。

視点C1からC2への遷移を考えると、まず点Pは視点C1からのオリジナルのビューを用いて描画される。その後、移動にともなって、線に分解され、視点C2に近づくにつれて、1点に集約してゆき、最終的には視点C2からのオリジナルのビューによる描写となる。2つの視点に基づく線が遷移中に重なるため、スムーズな遷移が実現するのだ。

Ambient point cloudはそれぞれの視点から見たdepth mapに対して、複数の点からなるクラウドを生成し展開することによって構築される。ここでは上記の各線上にいくつかの点を配置し、ぞれを全体に展開することで点描画のようにクラウドを生成している。これは誤差に起因する描画の破綻を和らげる効果がある。遷移の際に、点は一旦複数の点からなる線に分解され、その後線から一点に集約するように動く。

データ再構築

データ再構築にあたっては一般的な手法を組み合わせて利用している。まず入力画像は頑強なStructure-from-Motion (SfM)アルゴリズム*2によって、シーン形状や視点の動きを算出する。その後MVS(multi-view stereo)システム*3に基づいて各視点からの距離を表すdepth mapを生成する。depth mapは視点から各ピクセルまでの距離とその信頼度から構成される。

本手法では、この入力画像とdepth mapに基づき、次の3つのデータを生成する。1つは各視点から見える信頼性のある位置を表すPer-view depth map、もう1つは不確かな距離が雲状に分散されたAmbient point cloud、最後はシーン全体のコンテキストを表すGlobal point cloudである。それぞれに付いて以下に概要を説明する。

Per-view depth map



図2:depth map

図2はデータセットのひとつの入力画像(左)とそれに対応する生のdepth map(中)と、最終的に補正後のdepth map(右)を示したものである。MVSから得られる生のdepth mapは細かな凸凹まで表現されているが、小さな孤立したクラスタや中程度の孔などの異常値を除外したほうが良い描画結果が得られるので、前処理でそうした値を除外する。最終的に残った値は信頼できるdepth値として扱う(後過程でくっきりと描画される)。一方、全ての除外された値は再構築され補間された位置の95%の距離に直交するimpostor planeに描画される。このプレーンより後ろに位置する全てのピクセルはこのプレーン上に固定される。このimpostor planeは遷移の最初の5%と最後の5%の間だけ描画される。

Ambient point cloud

再構築も補間もされなかった信頼性の低い、depth map上のそれぞれのピクセルに対して、視線方向の線上に5つの点を分散して配置する。この点の集合がAmbient point cloudを生成する。Ambient point cloudを構成する各点は各depth mapの最小値の0.8倍から最大値の1.5倍までの間に分散される。補間視点CMC1ないしC2に接近すると、点がノイズとなって目立つので、視線方向に僅かなジッタを加えることで、ノイズの発生を回避している。

Global point cloud

全てのdepth mapにおける再構築された3次元点の集合は、点ベースの全体モデルを構成する。扱いに都合がいい大きさのモデルを得るために、すべての点からランダムにサンプリングしてGlobal point cloudを得る。このGlobal point cloudは2つの入力ソースの視野から外れた部分の形状に対するヒントを表示する為に利用される。

レンダリング



図3:レンダリングパイプライン

レンダリングにおいて、各depth mapはテクスチャの貼られた三角形メッシュに変換される。遷移の間、補間視点CMの位置と方向とその視界はリニアに補間される。CMの流れるような動きを生成するために、リニアな時間tではなく、緩やかな1次元ベジエ曲線を描くp(t)を用いている。以下、図3を参照しつつ全体のレンダリング処理について説明する。

Global point cloud

まず、補間視点CMから見た、細かな点の集まりで構成されたGlobal point cloud(GP)を直接フレームバッファに書き込む(図3(a))。これは全体的な背景モデルを提供すると共に、大きな遷移を行う際に全体の流れを把握する際に役に立つ。

Ambient point clouds

次に遷移開始点と終了点の2点からみたAmbient point cloud(AP1、AP2)から補間視点CMから見たAmbient point cloudを生成する(図3(b))。ここでは、リニアな遷移時間tに応じた重みに応じて、各視点のAmbient point cloudにおける各点の色を合成し、最終的なAmbient point cloudを生成している。生成されたAmbient point cloudをフレームバッファに書き込む(図3(c))。

Per-view depth maps

次に遷移開始点と終了点の信頼できるdepth値を有するテクスチャ付きのdepth map(DM1、DM2)から、遷移時間tにおける補間視点CMの視野を生成する(図3(d))。ノイズの原因となる不連続部分を削除した上で、フレームバッファに追記しすべてを合成する(GP, APs, DMs)。それぞれのピクセルは、depth map由来のくっきりとした描画か、point cloud由来のぼんやりした描画か、何も描画されないかのいずれかになる。遷移の間、遷移開始点と終了点のdepth map合成の際のそれぞれの重みはp(t)によって制御される。遷移の最初と最後の5%にはimpostor planeが描画される。

結果

ここでは、ピサの斜塔データセット(画像1103枚)、タウンスクエアデータセット(画像289枚)、そしてFlickrからダウンロードした教会データセット(画像100枚)を用いている。全てのデータセットは、一切のユーザ介在を伴わず全自動で再構築されている。その結果に関しては上記に示した動画を今一度参照してもらいたい。



図4:ピサの斜塔

図4はピサの斜塔の50%移動時の様子を示したものである。左は遷移開始点と終了点それぞれのdepth mapを重ねあわせたものである。真ん中はglobal point cloudとともに合成して描画したものであり、右はさらにambient point cloudを追加したものである。移動効果が違和感なく追加されていることが分かる。



図5:タウンスクエア

図5はタウンスクエアのデータセットを示したものである。左上はdepth map由来の確かな位置情報に基づく描画だけを抽出したものであり、右上はそれにglobal point cloudのみを追加したものである。左下はambient point cloudのみを追加したものであり、右下はすべてを追加したものだ。それぞれが応じてうまく補間しあって、画面を作っている様子が分かるだろう。



図6:教会(障害物の除去)

図6は教会データセットにおいて人物が写っており、建物を遮蔽している様子を示している。左が最初の遷移開始点、中が30%、右が50%遷移した時の描画を示している。教会を遮蔽している人物が自然に消えて、その後ろに生じるはずのホールがうまく埋められていることが分かるだろう。



図7:教会(大幅な色の変化)

図7は教会データセットにおいて照明の様子が全く異なる2枚の写真間の遷移を示している。上列はそれぞれ0%、50%、100%の遷移時刻を示しており、下列は50%の遷移時刻における教会の一部を拡大したものだ。下列左はソフトZバッファとアルファ正規化を有効にした例、中はソフトZバッファを無効に、右はアルファ正規化を無効にした例である。テクスチャのブレンディングがソフトZバッファとアルファ正規化によって自然に実現出来ている。



図8:教会(長距離跳躍)

図8は非常に大きな距離の視線移動を行った例である。こうした視線移動は既存の再構築手法では破綻してしまうのだが、global point cloudとambient point cloudがうまく遮蔽領域を埋めて、全体として良い3Dシーンを演出している。前面の障害物は遷移の際にスムーズに融けて見えなくなってしまう。

まとめ

本研究はPhotosynthを提供するマイクロソフトによるものであり、早晩Webの写真共有サイトは同様の再構築サービスを提供するようになると期待される。 Web上の膨大な写真からローマを1日で構築する方法で示した、街全体を対象とするような再構築もより高いクオリティで実現できるはずだ。

多くの人がカメラを持ち、その一瞬一瞬を切り取っていくことで、その一瞬を後からより高い自由度と臨場感をもっていつでも再体験することができる時代がまさに明けようとしている。

*1:Michael Goesele, Jens Ackermann, Simon Fuhrmann, Carsten Haubold, Ronny Klowsky, Drew Steedly, Richard Szeliski: "Ambient Point Clouds for View Interpolation", In: ACM Transactions on Graphics (Proceedings of ACM SIGGRAPH 2010), Los Angeles, USA, July 25-29, ACM, New York, 2010, to appear.

*2:SNAVELY, N., SEITZ, S. M., AND SZELISKI, R. 2008. Skeletal graphs for ef?cient structure from motion. In Proc. CVPR.

*3:GOESELE, M., SNAVELY, N., CURLESS, B., HOPPE, H., AND SEITZ, S. M. 2007. Multi-view stereo for community photo collections. In Proc. ICCV.

水滴が作り出す多層2.5次元ディスプレイ

今年もSIGGRAPHの開催時期となった。この先、いくつか紹介したいと思うが、まず一番目は水滴をボクセル(voxel)として利用した多層2.5次元ディスプレイについてとりあげたい*1。例によって本エントリで用いる図表は論文からの引用である。


(a)動画(b)テキスト
(c)ゲーム(d)画像
図1:水滴により構成された各レイヤに静的/動的コンテンツを独立して描画できる2.5次元多層ディスプレイ


【告知】[twitter:@LunarModule7]でつぶやいています。
興味のあるかたはフォローください。

水滴は投射された光の大半を反射し、素晴らしい広視野角のレンズとなることができる。研究グループは、厳密に制御された多支管バルブ機構により生成された水滴の一滴一滴の位置をカメラでリアルタイムにトラッキングし、プロジェクタで一滴一滴に色を投影することで、動画やゲームなど様々なビジュアルコンテンツを描写できる水滴ディスプレイを開発した。開発されたプロトタイプシステムは、50孔の多支管から60Hzで生成された水滴からなるレイヤが4つ連なった多層ディスプレイである。このディスプレイの有効解像度は50×プロジェクタの垂直解像度×レイヤ数となる。

ミストにより構成されたウォータースクリーンに高解像度の映像を投影する技術は、アミューズメントパークなどのエンタテインメント分野で頻繁に利用されている。それらのシステムでは、ミストはトラッキングされないので、多層化は難しくそれぞれのスクリーンに別のプロジェクタを用意する必要がある。また、たとえばディズニーのWorld of Colorでは、投射するミスト/水流の制御を行い、インタラクティブで大規模な効果を演出しているが、特定の演出に特化して設計された大がかりな舞台装置を必要とする。

魅力的でカラフルな水滴ディスプレイを作るためには、水滴の位置か、投射する光の少なくとも一方を制御する必要がある。いくつかの先行研究*2ではそれらを組み合わせて利用ししており、制御されていない水滴の位置をリアルタイムにトラッキングし、個々の水滴にプロジェクタから光を投影するシステムが提案されている。しかし、システムの処理時間から一度に検出可能な水滴は数個に限られている。アイデアとしてはミスト一滴一滴をレーザーで測定し、リアルタイムに3D画像を投影するコンセプトも発表されてはいるが*3、それが本当に可能か、どうやって実装するのかは不明だ。

リアルタイムに水滴をトラッキングする代わりに、水滴の生成制御を精密に行い、同期したプロジェクションを行うことで、3Dディスプレイを生成する研究*4 *5もあるが、16x16x8の低解像度のイメージが7.5Hzで描画できるに過ぎない。

一方本研究では、同期制御された多支管バルブ機構-カメラ-プロジェクタシステムにより、各水滴の位置を精密に制御、トラッキングし、リアルタイムに光を乗せることで、高解像度の多層ディスプレイを実現している。利用するのは水滴なので直接手で触れることができ、まったく新たなインタラクティブシステムの可能性を開くものだ。今現在は複数のレイヤからなる2.5次元ディスプレイだが、レイヤ数を増やせれば高解像度3Dディスプレイに拡張することも可能だろう。

システム概要



図2:システム概観

図2は本システムの動きを示している。左側はプロジェクタとカメラと水滴を生成する多支管(manifolods)の配置を示した側面図と上面図である。右側はカメラの少し後方から撮影した実システムの写真である。多支管により生成された水滴はSONY VPL-HS51A 3LCDプロジェクタにより照らされる。それぞれの多支管は直線に配置された50の噴出孔を有し、ソレノイドバルブによって精密制御される。バルブは最大60Hzで開閉されるので、各レイヤごとに1秒あたり3,000滴の水滴を生成することができる。水滴は裸眼には一見連なって見えるが、プロジェクタの視点から見れば他の水滴の影に隠れてしまう水滴はない。

N個の多支管をSHzで動作させたとき、生成される水滴全てに一台のプロジェクタで色を投影する為に必要なプロジェクタのリフレッシュレートPは最低でもSN以上となる。たとえば60Hzのプロジェクタならば、1秒あたり5層のレイヤの12個の水滴、2層レイヤの30個の水滴に着色することができる(より厳密な計算はAppendix.Aにある)。



図3:フローチャート

あらゆるタイミングで水滴の位置を決定し、各水滴に適切な光を照射するためには、精密な設計、同期、制御が必要となる。図3に示すフローチャートでは、本システムの各コンポーネント間をやり取りされるタイミング信号とデータの流れを示している。まずグラフィックカードがVsyncタイミングパルスをプロジェクタとパルスジェネレータに送る。同時にプロジェクタはイメージの表示を始め、パルスジェネレータはバルブコントローラに最初の多支管から水滴を生成し始めるように信号を送ることができる。プロジェクタ、カメラ、バルブは全て同期しているので、プロジェクタのリフレッシュサイクル全体において水滴の存在しうる位置はP/Sパタンに限定される。そのため、カメラによりそのP/Sパタンの画像を取得し、プロジェクタの基準フレームに適合させると、それぞれの瞬間でプロジェクタのどのピクセルが、どの水滴に対応するかが分かる。これらの位置は正確に分かるので、プロジェクタでそれらに光を照射することは容易い。

水滴の精密な生成

水滴が大きすぎれば複数の小さな水滴に分裂してしまうし、水滴が小さすぎるとノズルに付着したり、水滴同士がくっついたりしてしまう。本システムでは扱いの容易さと水滴の安定性のバランスを考慮して、およそ直径2mmの水滴を採用している。



図4:多支管

図4は水滴を生成する多支管の構造を示している。多支管には高圧の純水が充填されており、単一のソレノイドバルブによって制御される。Type304ステンレス製多支管の各孔の内径は1.27mmとなっており、制御された整った水滴を高速に生成することが可能だ。図5の2枚の写真は1/30秒離れた4ミリ秒露出写真である。図4の多支管は30Hzで動作していたので、上下の水滴の間は1/30秒だけ空いていることになる。水滴は完璧な水平線を描いてはいないが、それぞれのラインはほぼ一致している。



図5:多支管から生成された水滴の様子(2つの写真の時間間隔は1/30秒)

多支管の各孔にかかる水圧の差を最小化するためには、パイプの直径をなるべく大きくし、各孔の間の距離をなるべく小さくすることが有効である。そこで本システムではパイプの直径を19mm、孔間距離を2.5mmとしている。ソレノイドバルブはミリ秒単位の精度で開閉制御され、均一な水滴生成を実現している。

プロジェクタ照射の時空間分割

ユーザが水滴ディスプレイの各レイヤに「描画」すべきソースを指定すると、システムは自動的にプロジェクタ制御を行うので、それ以上のユーザ入力は必要ない。ここではまず、カメラの視線とプロジェクタの視線の対応関係が計算される。次に、瞬間瞬間に各レイヤにおいて水滴がどの位置にあるのかカメラが認識を行う。最後に検出された画像位置に基づき、プロジェクタは全てのレイヤに画像を表示するようにリアルタイムに制御される。



図6:水滴ディスプレイの処理手順

バルブ、綿密に位置あわせされたカメラとプロジェクタは同期されているので、ディスプレイは図6に示すように生成される。たとえば、ここで単一の多支管が30Hzで水滴を生成し、60Hzで動作するプロジェクタが水滴に投影する場合を考える。水滴の状態は1/30秒ごとに繰り返され、その間に2枚のイメージが投影される。60Hzで動作するカメラが投影すべき対象の水滴の位置を特定する(Camera masks)。その位置はプロジェクタの座標系に変換され(Projector masks)、投射イメージ(Projector images)を作成する為に利用される。投射イメージはプロジェクタの座標系にあわせて変換され、マスクされる。投射イメージはリアルタイムに生成されるため、ユーザは画像を変えることができるし、各レイヤをインタラクティブタッチスクリーンとして利用することさえできる。

動作デモ



実際の動作の様子は次のビデオを見てもらうのが早いだろう。プロトタイプは4層のレイヤから構成され、各レイヤは50の水滴列から構成されている。プロジェクタの解像度は1024x768である。実際には水滴の間には空隙があるが、人間の眼には幾分かのフリッカがあるものの隙間がないように見える。多支管は60Hzで水滴を生成することができるものの、知覚されるフリッカは15Hzより上で小さくなることが分かった。

最初に登場する2層に「DROP DISPLAY」「SIGGRAPH 2010」とテキスト描画した例(図1(b))では明るい環境下においても文字が問題なく視認できるほど十分明るいことが分かるだろう。赤-緑-青の3つのレイヤを10Hzで描画したRed-Green-Blue(図1(d))では、角度によってディスプレイがどう見えるかを示している。正面からが最も明るくなるが、かなり側面に回り込んでも視認可能であることが分かる。

水槽を描写したAquarium simulatorではリアルタイムに生成した3Dポリゴンの魚や海藻の様子を示している。また最後には3層からなる2.5Dテトリスの様子を示している(図1(c))。この2.5Dテトリスでは一度に1つのブロックしか落ちてこないが、プレイヤは3つの層を交互に行き来してブロックを落とす場所を決めることができる(腕が未熟なのか、そもそも無理なのかゲームにはなっていない)。

プロジェクタの周波数を上げればレイヤの数はもっと増やすことができるだろう。しかし、真の3Dディスプレイを作るためにはより精密な水滴制御が必要となる。そのための有望な技術候補はいくつか上げることができるが、環境中に散布する制御された水滴の数を一気に増やすことができれば、高密度3Dディスプレイ、もしかすると、没入型の水滴ディスプレイが実現するかも知れない。

*1:P. C. Barnum, S. G. Narasimhan, and T. Kanade: "A Multi-Layered Display with Water Drops", In SIGGRAPH 2010.

*2:BARNUM, P. C., NARASIMHAN, S. G., AND KANADE, T. 2009. A projector-camera system for creating a display with water drops. In IEEE International Workshop on Projector-Camera Systems.

*3:PERLIN, K., AND HAN, J. Y. 2006. US Patent 6,997,558: Volu-metric display with dust as the participating medium.

*4:EITOKU, S., TANIKAWA, T., AND SUZUKI, Y. 2006. Display composed of water drops for ?lling space with materialized vir-tual three-dimensional objects. In IEEE conference on Virtual Reality.

*5:EITOKU, S., NISHIMURA, K., TANIKAWA, T., AND HIROSE, M. 2009. Study on design of controllable particle display using wa-ter drops suitable for light environment. In ACM Symposium on Virtual Reality Software and Technology.

我田引水な日本新聞協会の報告書を容赦なく添削してみた

日本新聞協会は『2009年全国メディア接触・評価調査』を発表し、新聞に接触している人は全体の91.3%で、日常生活に欠かせない基幹メディアであることがあらためて確認されたと報告した。新聞各紙は挙って本報告書の内容を報じ、新聞の重要性を強調した。たとえば朝日新聞は次のように報じている(強調はLM-7による)。

 日本新聞協会(http://www.pressnet.or.jp/adarc)は7日、「2009年全国メディア接触・評価調査」の結果を発表した。

 調査は09年10〜11月、全国6千人に聞き、有効回答率は61.4%だった。このうち、91.3%が「新聞を読む」と答え、1週間の平均接触日数は5.2日だった。いずれも07年の前回調査から大きな変化はなかった。

 新聞は「地域や地元の事がよく分かる」は52.6%、「情報源として欠かせない」は50.2%だった。同協会は「新聞離れが指摘されるなか、新聞が以前と変わらず、日常生活に欠かせないメディアであることが確認された」と話す。

http://www.asahi.com/national/update/0608/TKY201006070380.html


【告知】[twitter:@LunarModule7]でつぶやいています。
興味のあるかたはフォローください。

妙な結論が出るカラク

さて、新聞離れが指摘されているのになぜこのような結果が出るのだろう?この結果は新聞に接触していると回答した割合を算出したものだが、P42には新聞閲読頻度が掲載されている。これを見ると、新聞を読んでいないものが全体の9.1%、週に1日未満のものが5.2%となっており、この2つを足しあわせただけで、14.3%となる。新聞に接触していると答えた91.3%には週に1日未満しか接触しないものも含まれるようだ。些か乱暴といえるのでは無いだろうか*1



そこで過去の調査報告書を遡って、2001年以降、毎日読んでいる人の割合、週に3日以上読んでいる人の割合、週に一瞬でも接触した人の割合、全く未読の人の割合をプロットしたのが次のグラフである。



このグラフを見ると一目瞭然だが、確かに週に一瞬でも新聞に接触した人は日本新聞協会の主張するように依然として9割を越えている。しかし、新聞を毎日読む人は2001年に69.6%だったのが、2009年には62.7%に、週に3日以上読む人は同86.1%から78.8%へと、それぞれ7ポイント程度低下している。逆に新聞を全く読まない人は5%から9.1%へと倍増しており、着実に新聞は読まれなくなってきていることが分かる。この数字を見て「新聞が以前と変わらず読まれている」という結論を出すのは、利害関係者だけだ*2

数値の底上げのカラク

ところがこの接触率、これでも実情よりも高い値が出ている可能性が大きい。

新聞というメディアの特性を考えれば分かるように、新聞の接触率は高年齢層ほど高くなる。実際P22に記載の新聞に接触している人の割合によれば、15-19歳の接触率は76.2%なのに対し、60歳代の接触率は96.3%にも達している。つまり仮に回答者に高年齢層が多ければ、接触率は実際よりも大きい値が出るわけだ。

調査報告P2に母集団の構成・標本の構成が掲載されている。次の表はその抜粋だが、母集団に比べて標本では高年齢層の割合が明らかに大きくなっていることが分かる。たとえば20歳代は母集団では16.4%なのに対し標本では11.8%に過ぎない。一方、60歳代は母集団では18.3%なのに対し、標本では23.2%にもふくれあがっている。30歳代以下は母集団の割合よりも低く、40歳代以上は母集団の割合よりも大きくなっている*3



この事実を考慮すると、2009年調査における新聞の接触率は、高年齢層の回答に引っ張られて、数%程度大きく算出されていることが想像できる。

一方、念のため2001年調査における標本の構成を確認してみる。こちらは母集団との対比が無く、標本構成しか掲載されていないが、2009年調査と比較して15〜19歳、20歳台の割合が大きく、60歳代が小さいことが分かる。つまり2001年調査当時の方が新聞を読まない低年齢層の意見が反映されやすかった訳だ。



つまり2009年調査においては、母集団の構成の差から新聞の接触率が高めに出るようになっていたにも関わらず、週に3日以上新聞を読む人の割合は、2001年度の調査に比べて7ポイント低下したのだ。落ち込みの実態は数字以上に深刻であることは容易に想像できる。

誰が新聞を読んでいるのか

さらに深刻なのはその内訳だ。次のグラフは新聞を毎日読む人の年代ごとの割合(朝刊)を2001年2009年の調査から抜粋したものだ。このグラフが如実に示すように、8年経って新聞を読む人の年代が1つ上にシフトしただけであることが分かる。



若者の新聞離れと良く非難されるが、離れている訳ではなく最初から近づいてさえいないということだ(例のAA)。歳を取っても新聞を読むようにはならず、新聞の購読者層が毎年1年ずつ上がっていくとすれば、10年後には無惨な結果が待っているだろう。

それにしてもこの調査結果を、業界の危機を指摘して奮起を促すためではなく、危機を隠蔽しさも安泰であるかのように報告するのはどういう了見なのか。事実から目を反らしても何も問題は解決しない。

  • 謝辞

本エントリを作成するに当たって、[twitter:@ketsp]さんの指摘が大変参考になった。感謝いたします。

*1:お気づきの方もおられると思うが、以前取り上げたM1・F1総研の分析レポートと同じ手法である

*2:P23には「毎日接触している人の割合(図16)でも、新聞は62.7%で、経年では減少傾向にあるものの、2番目であることに変わりはありません。」と記されている。

*3:標本構成が高年齢ほど高くなっているのは、若者の回答率が低いことが原因だろうが、計画標本の段階で微妙に高年齢層が大きくなるように配分されているのは単なる誤差だろうか。