最初に結論から書きますが、面白い、興味深いニュースがまわってきたらそれがいつ起こった事なのかを見てみましょう。明確になければ元記事を調べましょう。いま受け取ったニュースは本当にニュースでしょうか?
ニュースとは文字通り、最新の出来事や報道の事です。
今世の中でどんな事が起こっているのか?
最新の状況はどうか?
日々そうした状況を得る事によって多くの人は「これからどうなっていくのか」を考えながれ生きていくわけです。
Web上、とりわけTwitterやSNSでは日々様々な情報が流れていくわけですが、その中には「ニュース」と言えないものも数多く混じっています。
例えば2014年5月27日にこの記事を数多くの方がシェア/リツイートしています。
「プラスチックごみを石油に変える装置を日本人が発明!!これで世界は変わる!?世界が注目!」
http://buzznews.asia/?p=27343
これはプラスチックを集め、それを石油に戻す事で再使用をしようという試み。
しかし、その話題は実は新しくありません、過去に何度も見た記憶があります。
この記事は翻訳記事ですので、参照元を見てみます。
参照元の記事は非常に小さく書かれていますが、こちらです。
Plastic to Oil Fantastic
http://ourworld.unu.edu/en/plastic-to-oil-fantastic
これは2010年8月27日に書かれた記事です。
しかも、元記事は2009年4月19日の記事を引用しています。
プラスチックを石油に変えるという試みそのものは素晴らしく、十分に安いコストでそれが行えるなら多くの国や自治体などで活用されるでしょうし、応援する価値のある内容です。しかし、これは確実に「発明した」というニュースではなく「世界は変わる?」という見出しをつけるのに適切な内容でもありません。この記事に必要なのは、2009年から今までにこの装置を利用してどんな活動が行われて来たのか、現在どの程度普及しているのか、世界はどの程度変わったのかという情報です。
「応援しよう」とポジティブに書かれていますが、2009年に話題になった装置で2014年現在世界中で使われているようには見えませんから、応援するなら何かしらの具体的な支援が必要なのは明らかです。
つまりこの記事は、過去の記事を発掘して今まさに起こっているかのように日時の情報をあえて削り、ポジティブな未来を読者に予感させて少し良い気分にさせ、注目を集めるためだけに書かれているわけです。
こういった記事は実はネットに溢れています。
インドで斜め上な「水運び機」が発明され世界中がナマステ
http://www.yukawanet.com/archives/4670768.html
書かれたのは2014年5月6日、しかしこれは2012年のニュースです。
http://wellowater.org/the-waterwheel/
これも内容そのものには広めるべき価値があるかも知れません。
しかし、少なくともシェアやリツイートの対象となるのはこのニュースサイトの記事ではなく、元の方です。
ネット上でインパクトのある話題はすぐに広がりますが、しばらく経つと忘れられてしまいます。しかし、一度話題になったものはまた話題になるポテンシャルを持っているので、数年前に一度話題になったものを拾ってきて最新のものであるかのように広めれば再び話題になるわけです。
・過去ニュースにタダ乗り
・時系列を意図的に誤解させる
・シェアしましょう/RTしましょうという文言を入れる
多くのお手軽な似非ニュースサイトの常套手段です。
それでも内容が良ければ良いだろうと思う方もいらっしゃるかも知れませんが、もし本当に広めるべきと思うなら、少し手間をかけて元サイトを読めば本当に広めるべき情報や、自分がすべき応援の仕方がわかるわけです。それすら億劫ならそれはそもそも広めたいと思うほどのものではないのではないでしょうか。
もう一度書きますが、話題になっている、初めて聞いた、画期的だ、すごい、と思うようなニュースを受け取ったらまずそれがいつのものなのか調べましょう。
そのニュース、本当にニュースでしょうか?
2014年5月30日金曜日
2014年5月28日水曜日
誰もUnityを使っていない研究室でゼロからUnityを学ぶ簡単なやり方
学校でUnity教えたい、でもUnity教えられる教員がいない、という相談をよく受けます。
私自身、ある程度Unityは使えるけれども教えられるか、と言われるとなかなか微妙な線、これまで自分がやった事のある内容なら教えられるかなという程度です。
が、別に誰一人Unityを使えなくてもUnityを学ぶ会は開催出来ます。
ドットインストールを使いましょう!
http://dotinstall.com/lessons/basic_unity
ドットインストールは映像を使ってプログラムに関する様々な事を学ぶためのサイトです。近頃はドットインストールを使って個人でUnityを憶えた、という方もだいぶ増えていますが、「ではセミナーまでにそれぞれドットインストールを使ってUnityの使い方を学習してきてね」と言っても、それなりの敷居はあるわけです。
そこで、ドットインストールを使ったUnity講習会を開けば良いわけです。
・会場を適当に用意
・ドットインストールの画面をプロジェクタでスクリーンに投影
・レッスン#01から順番に再生し、自分でも同じ事をしてみる
・出来たら回りを見てうまく出来ていない人をサポート
・全員出来たら次に進む
この繰り返しです。
1回分の映像は3分です。仮に毎回その内容を終えるのに10分かかったとしても、90分時間を取れば5回〜6回分の学習は可能です。
これを5回〜6回繰り返せばドットインストールでの学習は完了します。
セミナーという場を用意することによって始めるモチベーションを持つ事が出来る、互いに助け合う事によって詰まってしまう事を防ぐ、というメリットがあります。
Unityのスタッフは、ハンズオンセミナーなどを全国で開いていますが、本当に基礎の基礎を学ぶだけなら上記のようなやり方である程度習得出来ます。その状態で初心者よりは少し上のハンズオンセミナーに参加したり、もしくは実際作ったものに対してUnityのエヴァンジェリストがアドバイスをするというようなセミナーを開いた方が、より機会を有効活用出来ます。
是非、教員の方も学生さんも一緒になってUnityを学んでみて下さい。
私自身、ある程度Unityは使えるけれども教えられるか、と言われるとなかなか微妙な線、これまで自分がやった事のある内容なら教えられるかなという程度です。
が、別に誰一人Unityを使えなくてもUnityを学ぶ会は開催出来ます。
ドットインストールを使いましょう!
http://dotinstall.com/lessons/basic_unity
ドットインストールは映像を使ってプログラムに関する様々な事を学ぶためのサイトです。近頃はドットインストールを使って個人でUnityを憶えた、という方もだいぶ増えていますが、「ではセミナーまでにそれぞれドットインストールを使ってUnityの使い方を学習してきてね」と言っても、それなりの敷居はあるわけです。
そこで、ドットインストールを使ったUnity講習会を開けば良いわけです。
・会場を適当に用意
・ドットインストールの画面をプロジェクタでスクリーンに投影
・レッスン#01から順番に再生し、自分でも同じ事をしてみる
・出来たら回りを見てうまく出来ていない人をサポート
・全員出来たら次に進む
この繰り返しです。
1回分の映像は3分です。仮に毎回その内容を終えるのに10分かかったとしても、90分時間を取れば5回〜6回分の学習は可能です。
これを5回〜6回繰り返せばドットインストールでの学習は完了します。
セミナーという場を用意することによって始めるモチベーションを持つ事が出来る、互いに助け合う事によって詰まってしまう事を防ぐ、というメリットがあります。
Unityのスタッフは、ハンズオンセミナーなどを全国で開いていますが、本当に基礎の基礎を学ぶだけなら上記のようなやり方である程度習得出来ます。その状態で初心者よりは少し上のハンズオンセミナーに参加したり、もしくは実際作ったものに対してUnityのエヴァンジェリストがアドバイスをするというようなセミナーを開いた方が、より機会を有効活用出来ます。
是非、教員の方も学生さんも一緒になってUnityを学んでみて下さい。
2013年7月16日火曜日
フォトリアリスティックなPixar短編映画「Blue Umbrella」
週末に「モンスターズ・ユニバーシティ」と「ワイルドスピード EURO MISSION」を見に行って来た。
それらのレビューは他のサイトなどに譲るとして、なかなか衝撃的だったのが、モンスターズ・ユニバーシティの前に上映された表題のPixar短編映画「Blue Umbrella」だ。
この写真はその短編映画の1カットだが、ぱっと見ただけでは実写かCGかわからない。
Youtubeでは動画の一部も公開されている。
それらのレビューは他のサイトなどに譲るとして、なかなか衝撃的だったのが、モンスターズ・ユニバーシティの前に上映された表題のPixar短編映画「Blue Umbrella」だ。
この写真はその短編映画の1カットだが、ぱっと見ただけでは実写かCGかわからない。
Youtubeでは動画の一部も公開されている。
昨今のCGのクオリティを考えれば、Pixarが実写と見紛うようなクオリティのCGアニメを作れる事そのものに驚く事はない。しかし、そういったものを作品の表現として実践投入してきたという事実は重要だ。
Pixarが最初に劇場で上映したのは「トイ・ストーリー」で1996年の作品になる。
なんと今から17年も前なのだ。しかし、今「トイ・ストーリー」を見返しても脚本は素晴らしいし、映像としても他のCG映画と違って拙いところが見え足らない。特撮やCGの映画というのは、時代を経て技術が向上していくと、昔の作品を見るのが辛くなっていくが、「トイ・ストーリー」も「バグズ・ライフ」も未だに色あせず、映画として楽しむ事が出来るのだ。
それは、Pixarが高い技術を持っていたからではない。持っている技術に会わせて作る作品を洗濯しているからだ。子供向けのおもちゃは細かいディティールを持っていないし、プラスチックなどの質感は当時の技術でも十分に表現可能だった。
「バグズ・ライフ」に関してもそうだ。本物の昆虫は拡大して見れば細かな毛や複雑な器官などを持っているものの、人間の視点から見るとつるっとしている。「バグズ・ライフ」の主人公達は人間から見た虫としてうまくデフォルメしているわけだ。
かつてはCGでの表現が難しかった水も無理なく表現出来るようになれば「ファインディング・ニモ」で豪華に使われる。「カーズ」ではデフォルメされているものの、しっかりとした質感を持った車や背景世界を描いている。「レミーのおいしいレストラン」ではパリの街が描かれ、多くの人間が登場するようになった。「WALL・E」ではリアリスティックな廃墟の地球を描いている。
これらの映画はあと10年、20年経っても(二次元平面上に投影された映像コンテンツとしては)色あせる事がないだろうと思える。
そうした流れがあったうえでの、「Blue Umbrella」だ。実写と見紛うようなものを表現する、という事には大きな意味がある。これまでのPixar作品は、デフォルメされた世界に観客が飛び込んでいく必要があった。しかし、実写と見紛うような映像は、まさしく我々が暮らしてきた現実世界そのものだ。そこにCGでしか出来ないような表現を加えていく事によって、我々はシームレスに表現の世界に入り込む事が出来る。もちろん、そういった表現が全てにはならないし、VFXを使った映画というのはもともとそうした性質を持っていた。
これらの映画はあと10年、20年経っても(二次元平面上に投影された映像コンテンツとしては)色あせる事がないだろうと思える。
そうした流れがあったうえでの、「Blue Umbrella」だ。実写と見紛うようなものを表現する、という事には大きな意味がある。これまでのPixar作品は、デフォルメされた世界に観客が飛び込んでいく必要があった。しかし、実写と見紛うような映像は、まさしく我々が暮らしてきた現実世界そのものだ。そこにCGでしか出来ないような表現を加えていく事によって、我々はシームレスに表現の世界に入り込む事が出来る。もちろん、そういった表現が全てにはならないし、VFXを使った映画というのはもともとそうした性質を持っていた。
しかし、Pixarがフォトリアリスティックな映像表現を手に入れ、それを使ってきたという事はやはり特筆に値する。彼らは、また新しい武器を手に入れたわけなのだから。
2013年7月1日月曜日
ヒューマン・コンピューター・インタラクションから見るロボットアニメ
初めてガンダムを見たのは幼稚園の頃だった。
その頃から子供心にもあんな操縦桿とペダルだけで人型の複雑な動きをするのは無理だろうと思っていた。
だが、今考えてみるとどうだろう。
例えば現代のゲームはファミコンの時代に比べると非常に複雑に思える。
しかし、ハイエンドコンテンツのゲームでさえ、2つのスティックと正面の4つのボタン、十字キー、コントローラー上面左右にある4つのボタンで制御され、歩く、走る、飛び乗る、ジャンプする、飛び降りる、物を持つ、捨てる、投げる、武器を構える、撃つ、武器で殴る、武器を拾う、武器を交換するなどの動作を行う事が出来る。
また、正確にスティックが入っていなくても、プログラムはプレイヤーの意図をくみ取り、適切な敵を攻撃したり、スイッチを動かしたり、荷物を動かしたりするわけだ。
かつてのゲームは、1ボタン1アクションで、どんな時でもボタンを押せば同じ動きをした。しかし今は、ゲームの中のキャラクターやオブジェクトごとに出来る行動が決められており、シチュエーションによって選択されるものが決まる。それらは混乱しないよう、直感的に予想し、その通りになるよう作られている。
おそらく、モビルスーツなどのロボットにも同様の仕組みが導入されているはずだ。
例えは戦艦のモビルスーツハンガーで起動した状態ではセイフティロックがかかり、武器は使用できず、急激に手足を振るような挙動は取れないだろう。武器を持つ際には、ハンガー側のクレーンやアームとモビルスーツが通信によって同期し、武器がセットされるまで同じ姿勢を保つ。
イレギュラーな場所にある武器を拾う場合、コックピットから映像中の武器を指定する。それが自軍のもので、操縦しているモビルスーツと型番が合うようならそこに拾うというオプションが発生し、パイロットがアクションを実行するためにレバーを動かすと、自分のバランスを保ちつつモビルスーツは武器を拾いにいくわけだ。
戦闘においても同様だ。例えば敵を撃つ場合、敵に照準を正確に合わせて撃つという動作はほぼ簡略化され、ある程度近い位置に照準を持って行けば自動的に合わせてくれるだろう。
そこでトリガーを引けば、彼我の移動ベクトルを考慮して弾やビームが発射される。
当然、撃たれた方もそのまま攻撃を受けたりしない。相手の持っている武器が動き、自分を狙った時点で警告を発し、パイロットに回避を促す。ガンダムの劇中では時々、ピピピピピという音が聞こえるがまさにそれではないだろうか。自動回避という事も技術的には出来るだろうが、おそらくパイロットは自分でタイミングを取る事を選択するだろう。もちろん回避においても、周囲の障害物や敵味方などの状況を見ての補正が発生するはずだ。
特に宇宙の戦闘においては、バーニアを吹かして加速しては逆方向の加速で元の速度の動くような挙動が頻繁に発生するが、そこも細かい事を考えずに動けるよう設定されているだろうと思われる。また、同じモビルスーツ戦でも地上戦と宇宙戦ではあまりに挙動が異なる。これも、同じインターフェイスで直感的に戦闘が行えるよう、操作感覚などはある程度統一されているだろう。
特殊な状況、例えばモビルスーツで人を救出したり、工作を行ったりする場合、それ用に制御プログラムを追加するかも知れない。例えば人を認識し、人を傷つけない程度の早さで手を差し伸べ、掴むなどといった動作をするわけだ。工作などの場合は精密動作も要求される。
ガンダム劇中でも、それまでモビルスーツとは無縁だったような登場人物がパイロットになるケースが度々あるが、おそらくコンピューター制御されているモビルスーツの場合、コックピットの中でそのままチュートリアルを行えるようなプログラムも用意されているのだろうし、上記のように十分にプログラムサポートがされており、動かすだけだったらそんなに長い訓練は入らないのかも知れない。
では、モビルスーツの操縦の上手下手というのはどこで出るのだろうか?
それはおそらく、制御プログラムがどのように動いているかを理解し、うまく活用出来るかどうかというところだろう。その段階を過ぎると、その制御プログラムを自分で調整し、自分の感覚に合った物にしていくようになるはずだ。
そして、アムロやシャアのような才能を持った人間なら、大部分のサポートを切ってしまって、自分自身であらゆる操作と微調整を行うようになるのだろう。それでまともに動かす事が出来るなら射撃も回避もサポートを切り、モビルスーツの典型的な挙動から脱する事で、戦闘が有利になるはずだ。
特殊な兵装の機体や、従来とは違う形のモビルスーツの場合、他の機体で使っていた制御プログラムが流用できず、多くの事をパイロットが自分で行わなければならないため特殊な才能を持った人間が乗る事になるのだと考えるとそれも納得がいく。
こういった技術は、元々全てのデータがデジタルで作られるゲームの場合、入れるのが容易い。
なぜならそれらは最初からアフォーダンスを持ったオブジェクト、もしくはキャラクターとして人間が設定を行っているからだ。
しかし、現実世界でこういったインターフェイスを作ろうとした場合に問題となるのは、カメラ映像を解析し、それらを様々なオブジェクトに分解して認識し、それぞれに合ったアフォーダンスを割り当てなければならない。
モビルスーツの場合、行うべき行動が限られており、主用途も決まっているが、例えば人間と日常空間を共有するヒューマノイドなどを作ろうと思ったら、あらゆる物体を自動認識できなければならないし、学習し、他のマシンと共有する機能なども必要となっていくだろう。
モビルスーツを動かす事は、HCI的には可能なのではないかと思える。
しかし、実現するには他の面でも高度な情報処理や人工知能が必要になっていくだろう。
その頃から子供心にもあんな操縦桿とペダルだけで人型の複雑な動きをするのは無理だろうと思っていた。
だが、今考えてみるとどうだろう。
例えば現代のゲームはファミコンの時代に比べると非常に複雑に思える。
しかし、ハイエンドコンテンツのゲームでさえ、2つのスティックと正面の4つのボタン、十字キー、コントローラー上面左右にある4つのボタンで制御され、歩く、走る、飛び乗る、ジャンプする、飛び降りる、物を持つ、捨てる、投げる、武器を構える、撃つ、武器で殴る、武器を拾う、武器を交換するなどの動作を行う事が出来る。
また、正確にスティックが入っていなくても、プログラムはプレイヤーの意図をくみ取り、適切な敵を攻撃したり、スイッチを動かしたり、荷物を動かしたりするわけだ。
かつてのゲームは、1ボタン1アクションで、どんな時でもボタンを押せば同じ動きをした。しかし今は、ゲームの中のキャラクターやオブジェクトごとに出来る行動が決められており、シチュエーションによって選択されるものが決まる。それらは混乱しないよう、直感的に予想し、その通りになるよう作られている。
おそらく、モビルスーツなどのロボットにも同様の仕組みが導入されているはずだ。
例えは戦艦のモビルスーツハンガーで起動した状態ではセイフティロックがかかり、武器は使用できず、急激に手足を振るような挙動は取れないだろう。武器を持つ際には、ハンガー側のクレーンやアームとモビルスーツが通信によって同期し、武器がセットされるまで同じ姿勢を保つ。
イレギュラーな場所にある武器を拾う場合、コックピットから映像中の武器を指定する。それが自軍のもので、操縦しているモビルスーツと型番が合うようならそこに拾うというオプションが発生し、パイロットがアクションを実行するためにレバーを動かすと、自分のバランスを保ちつつモビルスーツは武器を拾いにいくわけだ。
戦闘においても同様だ。例えば敵を撃つ場合、敵に照準を正確に合わせて撃つという動作はほぼ簡略化され、ある程度近い位置に照準を持って行けば自動的に合わせてくれるだろう。
そこでトリガーを引けば、彼我の移動ベクトルを考慮して弾やビームが発射される。
当然、撃たれた方もそのまま攻撃を受けたりしない。相手の持っている武器が動き、自分を狙った時点で警告を発し、パイロットに回避を促す。ガンダムの劇中では時々、ピピピピピという音が聞こえるがまさにそれではないだろうか。自動回避という事も技術的には出来るだろうが、おそらくパイロットは自分でタイミングを取る事を選択するだろう。もちろん回避においても、周囲の障害物や敵味方などの状況を見ての補正が発生するはずだ。
特に宇宙の戦闘においては、バーニアを吹かして加速しては逆方向の加速で元の速度の動くような挙動が頻繁に発生するが、そこも細かい事を考えずに動けるよう設定されているだろうと思われる。また、同じモビルスーツ戦でも地上戦と宇宙戦ではあまりに挙動が異なる。これも、同じインターフェイスで直感的に戦闘が行えるよう、操作感覚などはある程度統一されているだろう。
特殊な状況、例えばモビルスーツで人を救出したり、工作を行ったりする場合、それ用に制御プログラムを追加するかも知れない。例えば人を認識し、人を傷つけない程度の早さで手を差し伸べ、掴むなどといった動作をするわけだ。工作などの場合は精密動作も要求される。
ガンダム劇中でも、それまでモビルスーツとは無縁だったような登場人物がパイロットになるケースが度々あるが、おそらくコンピューター制御されているモビルスーツの場合、コックピットの中でそのままチュートリアルを行えるようなプログラムも用意されているのだろうし、上記のように十分にプログラムサポートがされており、動かすだけだったらそんなに長い訓練は入らないのかも知れない。
では、モビルスーツの操縦の上手下手というのはどこで出るのだろうか?
それはおそらく、制御プログラムがどのように動いているかを理解し、うまく活用出来るかどうかというところだろう。その段階を過ぎると、その制御プログラムを自分で調整し、自分の感覚に合った物にしていくようになるはずだ。
そして、アムロやシャアのような才能を持った人間なら、大部分のサポートを切ってしまって、自分自身であらゆる操作と微調整を行うようになるのだろう。それでまともに動かす事が出来るなら射撃も回避もサポートを切り、モビルスーツの典型的な挙動から脱する事で、戦闘が有利になるはずだ。
特殊な兵装の機体や、従来とは違う形のモビルスーツの場合、他の機体で使っていた制御プログラムが流用できず、多くの事をパイロットが自分で行わなければならないため特殊な才能を持った人間が乗る事になるのだと考えるとそれも納得がいく。
こういった技術は、元々全てのデータがデジタルで作られるゲームの場合、入れるのが容易い。
なぜならそれらは最初からアフォーダンスを持ったオブジェクト、もしくはキャラクターとして人間が設定を行っているからだ。
しかし、現実世界でこういったインターフェイスを作ろうとした場合に問題となるのは、カメラ映像を解析し、それらを様々なオブジェクトに分解して認識し、それぞれに合ったアフォーダンスを割り当てなければならない。
モビルスーツの場合、行うべき行動が限られており、主用途も決まっているが、例えば人間と日常空間を共有するヒューマノイドなどを作ろうと思ったら、あらゆる物体を自動認識できなければならないし、学習し、他のマシンと共有する機能なども必要となっていくだろう。
モビルスーツを動かす事は、HCI的には可能なのではないかと思える。
しかし、実現するには他の面でも高度な情報処理や人工知能が必要になっていくだろう。
2013年6月27日木曜日
VRコンテンツを作る際に知っておきたい3D酔いの話
Oculus Riftの発売によって、多くのゲーム開発者が手軽にVRコンテンツ的なものを制作できるようになった。しかし、ゲーム産業では、ごく一部のアーケードなどのコンテンツ開発者を除くと人間の感覚器や情報伝達の仕組みなどについて学ぶ機会はほとんどないので、私の知っている範囲でざっと書いていこうと思う。
ヘッドマウントディスプレイ(以下HMD)を使ったコンテンツは、容易に激しい酔いを発生させるため注意する必要がある。多くの開発者は経験的にどうすると酔うか、酔わないかというノウハウを持っているが、多くは断片的な知識なので、可能ならば人間の感覚の仕組みについて一通り勉強しておいた方が良い。
一通りの知識を学ぶ上で、以下の書籍はお勧め出来る。
バーチャルリアリティ学
さて、3D酔いに関して、著名な論文として以下のものがある。
VE酔い研究および関連分野における研究の現状
http://intron.kz.tsukuba.ac.jp/tvrsj/3.2/nakagawa/vesick1.html
これは1997年の論文だが、現在も大きく変わってはいない。
3D酔いと一口に言っても、様々な症状が発生する。
医学的には動揺病というらしいが、軽いところから並べると、まずあくび、眠気、だるさなどが発生する。これらは普段なかなか3D酔いの症状としては自覚しにくいので、あまりメジャーではないかも知れない。
次に、冷や汗が出る、血の気が失せて顔面蒼白になる、唾液の量が多くなり、頭痛が発生し、気持ちが悪くなって吐き気を覚えるといった具合だ。
これらは体調不良の典型的な症状とも言える。
感覚としては乗り物酔いと非常に近いのだが、乗り物酔いが終始揺れが発生する状態で起こるのに対し、3D酔いは実際に自分が動いていないのにも関わらず起こるというところが面白いのだが、両者に共通しているのは刺激を受け続けた事によって発生したストレスにより、自律神経に不調が起こるという点だ。
人間は主に視覚、前庭感覚によって自分の移動状態を認識する。
視覚は言うまでもないが、前庭感覚というのは三半規管による回転加速度の感知と、耳石による直線加速度の感知によって与えられる。なお、加速などによって筋肉や内臓などが刺激される事もあるが、酔いの発生には寄与していないという事なのでここでは省略している。
大画面やHMDで動きの大きい映像を視聴した場合、視界の大部分をその映像が占める事になる。上記のように人間は視覚と前庭感覚によって自分の移動を感知しているわけだが、この時は視覚が移動情報をもたらしているにも関わらず、前庭感覚は刺激されない。
このギャップがストレスをもたらすと、上記のように動揺病の症状をもたらすと言われる。
実際、私自身は非常に大規模なシミュレーターで体験した事だが、直径数mのドームが数十メートルという広大な空間を移動し、自動車の運転感覚を再現する装置の稼働を止め、ドームの中で映像だけを眺めたところ、激しい身体動揺が発生し、映像が動いた瞬間に身体が多く揺れたうえに、数秒後に、未だかつて襲われたことがないほど激しい酔いが発生した。
決して解像度の高い映像ではなかったが、360度に実寸で映し出される映像は十分に移動感覚を与えるものだったと言う事だ。その後、装置を稼働させて通常の自動車の運転を体験したが、この時はまったく酔いを感じず、リアルな自動車運転感覚があった。
普段の乗り物酔いの事を思うとやや直感に反するが、視界の大部分を占める映像が移動する場合、自分の足下が一緒に動いていれば酔わないが、動かないと酔うのだ。
おそらくディズニーランドのスターツアーズも、ライドを止めて映像だけ見ると恐ろしいほど酔うはずだ。
なかなかやっかいだと思うのは、これらの酔いが必ず発生するわけでもなく、人や状態によっても違うという事だ。
人間の感覚というのは、経験と予測によって大きく変わる。
多くの人が体験した事があるかと思うが、止まっているエスカレーターの上を歩こうとすると、逆方向に加速を受けたような奇妙な感覚が発生する。これはもちろん、動いているエスカレーターでは発生しないし、通常の階段でも発生しない。例えば止まっているエスカレーターだとしても、エスカレーター特有の形をしておらず、エスカレーターだと気づかなければ発生しないし、もちろんエスカレーターに関して一切の知識がない人がいたらもちろんこの感覚は発生しない。
この感覚は、エスカレーターに乗った瞬間に加速が発生するし、乗っている間は動かなくても等速直線運動が発生するという経験とのずれによって起こる。
また、酔いの症状は自律神経の不調によって起こると書いたが、もともと体調が悪い場合、例えば睡眠不足やアルコール摂取状態の場合、容易に発生するようになる。
逆に、感覚のずれがあってもそれをストレスと感じなければ酔いは発生しないわけだ。例えば我々は普段エスカレーターに乗っても奇妙な感覚を覚えないのは、何度もエスカレーターに乗る事でその感覚が発生する事を予め予測し、ストレスをキャンセルしているからだと言える。
さて、上記の話を前提として、3D酔いを防ぐにはどうしたら酔いだろうか?
3D酔いは慣れによって起こらなくなるが、これは人によって違う。激しく3D酔いを起こした経験によって、HMDを被った時点で気持ちが悪くなってしまうという事も十分起こりえる。
自己移動感覚が発生しない、つまり一カ所に立って見回すだけのコンテンツなら、HMDの応答性が十分あれば3D酔いは発生しにくい。また、自分の移動に合わせて映像世界も動く場合も同様だ。
しかし、これらを頑なに守ると作れるコンテンツが限られてしまう。
視点が移動する場合でも、等速運動を続けるコンテンツの場合、酔いは発生しにくい。これは乗り物酔いに関しても同様の話だ。
また、回転加速度、直線加速度が発生する場合でもこれが十分に小さければ酔いは発生しにくい。元々人間は閾を越えないと加速を感知しない。物理空間上では、人間の加速度感知の閾は0.02G~0.03Gと言われている。これは極めて低い数値なので、非常にゆっくりした動きになってしまいそうだ。
ただし、注意が必要なのは前庭感覚が刺激されなくても不自然ではない閾がこの数値というわけではない、という事だ。
実際にVRコンテンツを作成してHMDでそれを体験させる場合、視野角やテクスチャ解像度、FPSなど様々な条件によって感覚は変わってくる。
実際には移動速度、加速度、回転速度の条件や回転角加速度などが出来るだけ小さい状態から初めて徐々に慣れさせていくなどの対策が必要かも知れない。
結局のところ、これだという答えを簡単に示す事は現状できない。
ただし、上記のように3D酔いの仕組みを理解し、考えていく事によって自分の作ったコンテンツで3D酔いが起こる頻度を減らすためのヒントにはなるはずだ。
ヘッドマウントディスプレイ(以下HMD)を使ったコンテンツは、容易に激しい酔いを発生させるため注意する必要がある。多くの開発者は経験的にどうすると酔うか、酔わないかというノウハウを持っているが、多くは断片的な知識なので、可能ならば人間の感覚の仕組みについて一通り勉強しておいた方が良い。
一通りの知識を学ぶ上で、以下の書籍はお勧め出来る。
バーチャルリアリティ学
さて、3D酔いに関して、著名な論文として以下のものがある。
VE酔い研究および関連分野における研究の現状
http://intron.kz.tsukuba.ac.jp/tvrsj/3.2/nakagawa/vesick1.html
これは1997年の論文だが、現在も大きく変わってはいない。
3D酔いと一口に言っても、様々な症状が発生する。
医学的には動揺病というらしいが、軽いところから並べると、まずあくび、眠気、だるさなどが発生する。これらは普段なかなか3D酔いの症状としては自覚しにくいので、あまりメジャーではないかも知れない。
次に、冷や汗が出る、血の気が失せて顔面蒼白になる、唾液の量が多くなり、頭痛が発生し、気持ちが悪くなって吐き気を覚えるといった具合だ。
これらは体調不良の典型的な症状とも言える。
感覚としては乗り物酔いと非常に近いのだが、乗り物酔いが終始揺れが発生する状態で起こるのに対し、3D酔いは実際に自分が動いていないのにも関わらず起こるというところが面白いのだが、両者に共通しているのは刺激を受け続けた事によって発生したストレスにより、自律神経に不調が起こるという点だ。
人間は主に視覚、前庭感覚によって自分の移動状態を認識する。
視覚は言うまでもないが、前庭感覚というのは三半規管による回転加速度の感知と、耳石による直線加速度の感知によって与えられる。なお、加速などによって筋肉や内臓などが刺激される事もあるが、酔いの発生には寄与していないという事なのでここでは省略している。
大画面やHMDで動きの大きい映像を視聴した場合、視界の大部分をその映像が占める事になる。上記のように人間は視覚と前庭感覚によって自分の移動を感知しているわけだが、この時は視覚が移動情報をもたらしているにも関わらず、前庭感覚は刺激されない。
このギャップがストレスをもたらすと、上記のように動揺病の症状をもたらすと言われる。
実際、私自身は非常に大規模なシミュレーターで体験した事だが、直径数mのドームが数十メートルという広大な空間を移動し、自動車の運転感覚を再現する装置の稼働を止め、ドームの中で映像だけを眺めたところ、激しい身体動揺が発生し、映像が動いた瞬間に身体が多く揺れたうえに、数秒後に、未だかつて襲われたことがないほど激しい酔いが発生した。
決して解像度の高い映像ではなかったが、360度に実寸で映し出される映像は十分に移動感覚を与えるものだったと言う事だ。その後、装置を稼働させて通常の自動車の運転を体験したが、この時はまったく酔いを感じず、リアルな自動車運転感覚があった。
普段の乗り物酔いの事を思うとやや直感に反するが、視界の大部分を占める映像が移動する場合、自分の足下が一緒に動いていれば酔わないが、動かないと酔うのだ。
おそらくディズニーランドのスターツアーズも、ライドを止めて映像だけ見ると恐ろしいほど酔うはずだ。
なかなかやっかいだと思うのは、これらの酔いが必ず発生するわけでもなく、人や状態によっても違うという事だ。
人間の感覚というのは、経験と予測によって大きく変わる。
多くの人が体験した事があるかと思うが、止まっているエスカレーターの上を歩こうとすると、逆方向に加速を受けたような奇妙な感覚が発生する。これはもちろん、動いているエスカレーターでは発生しないし、通常の階段でも発生しない。例えば止まっているエスカレーターだとしても、エスカレーター特有の形をしておらず、エスカレーターだと気づかなければ発生しないし、もちろんエスカレーターに関して一切の知識がない人がいたらもちろんこの感覚は発生しない。
この感覚は、エスカレーターに乗った瞬間に加速が発生するし、乗っている間は動かなくても等速直線運動が発生するという経験とのずれによって起こる。
また、酔いの症状は自律神経の不調によって起こると書いたが、もともと体調が悪い場合、例えば睡眠不足やアルコール摂取状態の場合、容易に発生するようになる。
逆に、感覚のずれがあってもそれをストレスと感じなければ酔いは発生しないわけだ。例えば我々は普段エスカレーターに乗っても奇妙な感覚を覚えないのは、何度もエスカレーターに乗る事でその感覚が発生する事を予め予測し、ストレスをキャンセルしているからだと言える。
さて、上記の話を前提として、3D酔いを防ぐにはどうしたら酔いだろうか?
3D酔いは慣れによって起こらなくなるが、これは人によって違う。激しく3D酔いを起こした経験によって、HMDを被った時点で気持ちが悪くなってしまうという事も十分起こりえる。
自己移動感覚が発生しない、つまり一カ所に立って見回すだけのコンテンツなら、HMDの応答性が十分あれば3D酔いは発生しにくい。また、自分の移動に合わせて映像世界も動く場合も同様だ。
しかし、これらを頑なに守ると作れるコンテンツが限られてしまう。
視点が移動する場合でも、等速運動を続けるコンテンツの場合、酔いは発生しにくい。これは乗り物酔いに関しても同様の話だ。
また、回転加速度、直線加速度が発生する場合でもこれが十分に小さければ酔いは発生しにくい。元々人間は閾を越えないと加速を感知しない。物理空間上では、人間の加速度感知の閾は0.02G~0.03Gと言われている。これは極めて低い数値なので、非常にゆっくりした動きになってしまいそうだ。
ただし、注意が必要なのは前庭感覚が刺激されなくても不自然ではない閾がこの数値というわけではない、という事だ。
実際にVRコンテンツを作成してHMDでそれを体験させる場合、視野角やテクスチャ解像度、FPSなど様々な条件によって感覚は変わってくる。
実際には移動速度、加速度、回転速度の条件や回転角加速度などが出来るだけ小さい状態から初めて徐々に慣れさせていくなどの対策が必要かも知れない。
結局のところ、これだという答えを簡単に示す事は現状できない。
ただし、上記のように3D酔いの仕組みを理解し、考えていく事によって自分の作ったコンテンツで3D酔いが起こる頻度を減らすためのヒントにはなるはずだ。
2013年6月25日火曜日
そのUIは見えているか? ゲームにおける色覚ハンデユーザー対応
Facebookでシェアされていた以下のドキュメントが素晴らしい。
川崎市の公文書作成におけるカラーユニバーサルデザイン・ガイドライン。
http://www.city.kawasaki.jp/shisei/category/50-3-4-0-0-0-0-0-0-0.html
文中にもあるが、色盲、色弱などの色覚ハンデを持つ方は意外と多く、日本人男性で5%、女性で0.02%に及ぶ。この数字には地域差があり、世界的には男性の8%、女性の0.5%が何らかの色覚ハンデを抱えている。
比較的少ない日本での割合を見ても、例えば学校のクラスに一人はいる計算になる。
普段、なかなかハンデがある事をカミングアウトしないかも知れないが、私も友人知人に数人のそういった方がおり、割と身近に困るという話を聞く事がある。
ゲーム開発においても、これらの知識は知っておいた方が良いが、これまで18年ほど現場にいるが、少なくとも会社で講習などを受けた事はない。
学ぼうと思ったら例えば以下のような勉強会に参加するなどの方法はある。
ソフトウェア開発におけるカラーユニバーサルデザインの重要性
http://www.inside-games.jp/article/2009/10/29/38472.html
ゲームソフトウェアというのは生活に必要のないものだ。
だからこそ、予備知識なしに触っただけでも内容が理解出来、楽しめるようでなければユーザーの方々に遊んでもらえない。よほどの事がない限り、我慢して使う事はないわけだ。
それでも、数多くの熱心なファンを持つゲームだとこういう事が起こったりもする。
「モダン ウォーフェア2」ユーザーが、色覚異常用パッチを求める署名運動を開始
http://gamez.itmedia.co.jp/games/articles/0912/21/news086.html
レーダーに表示されるシンボルの敵味方の区別が付かないというのは、対戦プレイヤーにとっては致命的な問題だ。ほんの少しの配慮で、8%のユーザーが楽しめるようになるわけなので、高いコストではないはずだ。
デザインの問題も絡むが、ソフトウェアの場合、色覚ハンデを持つ方向けに専用の色セットなどを用意する事も出来る。
この問題に関して、専門的な知識を身に付けるのはなかなか難しいかも知れない。
しかし、例えば上記のガイドラインを熟知していないとしても、色覚ハンデを持つ方々の視界をシミュレートするためのアプリケーションなどもリリースされている。
色のシミュレーター
http://asada.tukusi.ne.jp/cvsimulator/j/
このソフトウェアは、専門的な知識を持つ制作者が医学的に正しいシミュレーションを行い、iPhoneで色覚ハンデの方が持つ視界を再現出来るというもの。本当に誰でも簡単に使う事が出来、チェックが可能なので、ユーザーインターフェイスに関わる人間は必ずダウンロードして持っておいて良い。
これらは個人の努力で出来る範囲だが、例えば開発工程の中でQA項目に上記の色彩チェックを含めるなどしておけば、より万全になる。
また、ゲームエンジンなどの開発環境に色のシミュレーターのような機能を持たせておけば、UIデザイナーやアーティストは実装をしながらより簡単にチェックが出来るようになるだろう。
川崎市の公文書作成におけるカラーユニバーサルデザイン・ガイドライン。
http://www.city.kawasaki.jp/shisei/category/50-3-4-0-0-0-0-0-0-0.html
文中にもあるが、色盲、色弱などの色覚ハンデを持つ方は意外と多く、日本人男性で5%、女性で0.02%に及ぶ。この数字には地域差があり、世界的には男性の8%、女性の0.5%が何らかの色覚ハンデを抱えている。
比較的少ない日本での割合を見ても、例えば学校のクラスに一人はいる計算になる。
普段、なかなかハンデがある事をカミングアウトしないかも知れないが、私も友人知人に数人のそういった方がおり、割と身近に困るという話を聞く事がある。
ゲーム開発においても、これらの知識は知っておいた方が良いが、これまで18年ほど現場にいるが、少なくとも会社で講習などを受けた事はない。
学ぼうと思ったら例えば以下のような勉強会に参加するなどの方法はある。
ソフトウェア開発におけるカラーユニバーサルデザインの重要性
http://www.inside-games.jp/article/2009/10/29/38472.html
ゲームソフトウェアというのは生活に必要のないものだ。
だからこそ、予備知識なしに触っただけでも内容が理解出来、楽しめるようでなければユーザーの方々に遊んでもらえない。よほどの事がない限り、我慢して使う事はないわけだ。
それでも、数多くの熱心なファンを持つゲームだとこういう事が起こったりもする。
「モダン ウォーフェア2」ユーザーが、色覚異常用パッチを求める署名運動を開始
http://gamez.itmedia.co.jp/games/articles/0912/21/news086.html
レーダーに表示されるシンボルの敵味方の区別が付かないというのは、対戦プレイヤーにとっては致命的な問題だ。ほんの少しの配慮で、8%のユーザーが楽しめるようになるわけなので、高いコストではないはずだ。
デザインの問題も絡むが、ソフトウェアの場合、色覚ハンデを持つ方向けに専用の色セットなどを用意する事も出来る。
この問題に関して、専門的な知識を身に付けるのはなかなか難しいかも知れない。
しかし、例えば上記のガイドラインを熟知していないとしても、色覚ハンデを持つ方々の視界をシミュレートするためのアプリケーションなどもリリースされている。
色のシミュレーター
http://asada.tukusi.ne.jp/cvsimulator/j/
このソフトウェアは、専門的な知識を持つ制作者が医学的に正しいシミュレーションを行い、iPhoneで色覚ハンデの方が持つ視界を再現出来るというもの。本当に誰でも簡単に使う事が出来、チェックが可能なので、ユーザーインターフェイスに関わる人間は必ずダウンロードして持っておいて良い。
これらは個人の努力で出来る範囲だが、例えば開発工程の中でQA項目に上記の色彩チェックを含めるなどしておけば、より万全になる。
また、ゲームエンジンなどの開発環境に色のシミュレーターのような機能を持たせておけば、UIデザイナーやアーティストは実装をしながらより簡単にチェックが出来るようになるだろう。
2013年6月21日金曜日
「世界一正確な心理テスト」という占い
しばらく前から表題にある「世界一正確な心理テスト」や「科学者が~」「FBIで~」のような文句をタイトルに掲げた占い系アプリケーションを使う人が増えている。
「占い系」と書いたが、このblogを読みに来るような方の多くがご存じの通り、多くの心理テストというのは特に根拠がない、もしくは個人的な体験を元に作成され、結果の妥当性が示されていないコンテンツに過ぎない。それなりに工夫がされていれば、どのような結果が出てもそれなりに自分に当てはまると思える程度に調整されているかも知れないが。
人間の性格は様々な要素から成り立っており、大ざっぱに一桁の選択肢で分類出来るほど簡単ではないし、曖昧な質問に対する人間の返答というのは直前の体験やその時々の気分によって簡単に変化する。実際にどういう性質を持っているのか判断するのに、臨床心理士などのプロが存在するのは、機械的に簡単に判断できないからという理由に他ならない。
実際に本当に現場で使われているのかどうかは知らないが、例えばドラマや創作物などでよく見る心理テストでは、公園やリンゴの木、家族がくつろぐ場所などを絵で描かせたりする。しかし、実際に描かれたものは心理状態を反映したものではなく、直前に見た場所や情景の正確な描写であるかも知れない。
シチュエーションを示したテストは、簡単にコンテクストに上書きされてしまうので、一問だけでは成立しない。おそらくプロも複数のテストをし、言動や話の内容などから総合的な判断を下しているはずだ。
上記のように、Facebookなどで回って来る心理テストというのは実質的に占いと言える。ではそこに「世界一正確」「心理学者が~」「科学者が~」「FBIが~」とつくのは何故だろう? 有り体に言えば、占いを最もらしく見せるための演出に過ぎない。有り体に言えば嘘である。
本当にたった一問のどうでも良い質問で人間の性格がわかるなら、それは大いに自慢して良い成果だが、論文なり実験結果などが示されている事は皆無。当然、そんな論文は探したとしても見つからない。
とは言え、占いは占いとして楽しめるコンテンツではあると思っているので、そこに強く依存したり、その結果を人に押しつけたりして迷惑をかけなければ、楽しむのは個人の自由だ。
しかし、問題はここからだ。「世界一正確な心理テスト」という名前をつけた占いを作成し、それをFacebookのアプリケーションとしてわざわざ公開している理由はなんだろう?
例えば、製品のキャンペーンなどでそうした「~診断」や「~占い」を作成し、物珍しい、目新しい結果を共有し、結果宣伝になる、というのならば納得できる。
しかし、上記のような心理テスト風占いはそうした企業とは連動していないし、特に何が目的という事も書かれていない。しかし、何の利益もなくああいったものが次々と出て来るわけはない。
ある程度SNSに詳しい人間ならば自明だろうが、ああいったアプリケーションはユーザーを集め、Facebookと連携する事で多くのユーザーのデータを収集していると言われている。
実際、収集されたデータがどう使われるのか、データを取られた場合にどう実害があるのかという点については具体的に何とも言えないが、派手で安っぽい嘘の文言でユーザーの気を引き、個人情報を収集しているような会社や団体のやる事なので、想像に難くはない。
「占い系」と書いたが、このblogを読みに来るような方の多くがご存じの通り、多くの心理テストというのは特に根拠がない、もしくは個人的な体験を元に作成され、結果の妥当性が示されていないコンテンツに過ぎない。それなりに工夫がされていれば、どのような結果が出てもそれなりに自分に当てはまると思える程度に調整されているかも知れないが。
人間の性格は様々な要素から成り立っており、大ざっぱに一桁の選択肢で分類出来るほど簡単ではないし、曖昧な質問に対する人間の返答というのは直前の体験やその時々の気分によって簡単に変化する。実際にどういう性質を持っているのか判断するのに、臨床心理士などのプロが存在するのは、機械的に簡単に判断できないからという理由に他ならない。
実際に本当に現場で使われているのかどうかは知らないが、例えばドラマや創作物などでよく見る心理テストでは、公園やリンゴの木、家族がくつろぐ場所などを絵で描かせたりする。しかし、実際に描かれたものは心理状態を反映したものではなく、直前に見た場所や情景の正確な描写であるかも知れない。
シチュエーションを示したテストは、簡単にコンテクストに上書きされてしまうので、一問だけでは成立しない。おそらくプロも複数のテストをし、言動や話の内容などから総合的な判断を下しているはずだ。
上記のように、Facebookなどで回って来る心理テストというのは実質的に占いと言える。ではそこに「世界一正確」「心理学者が~」「科学者が~」「FBIが~」とつくのは何故だろう? 有り体に言えば、占いを最もらしく見せるための演出に過ぎない。有り体に言えば嘘である。
本当にたった一問のどうでも良い質問で人間の性格がわかるなら、それは大いに自慢して良い成果だが、論文なり実験結果などが示されている事は皆無。当然、そんな論文は探したとしても見つからない。
とは言え、占いは占いとして楽しめるコンテンツではあると思っているので、そこに強く依存したり、その結果を人に押しつけたりして迷惑をかけなければ、楽しむのは個人の自由だ。
しかし、問題はここからだ。「世界一正確な心理テスト」という名前をつけた占いを作成し、それをFacebookのアプリケーションとしてわざわざ公開している理由はなんだろう?
例えば、製品のキャンペーンなどでそうした「~診断」や「~占い」を作成し、物珍しい、目新しい結果を共有し、結果宣伝になる、というのならば納得できる。
しかし、上記のような心理テスト風占いはそうした企業とは連動していないし、特に何が目的という事も書かれていない。しかし、何の利益もなくああいったものが次々と出て来るわけはない。
ある程度SNSに詳しい人間ならば自明だろうが、ああいったアプリケーションはユーザーを集め、Facebookと連携する事で多くのユーザーのデータを収集していると言われている。
実際、収集されたデータがどう使われるのか、データを取られた場合にどう実害があるのかという点については具体的に何とも言えないが、派手で安っぽい嘘の文言でユーザーの気を引き、個人情報を収集しているような会社や団体のやる事なので、想像に難くはない。
登録:
コメント (Atom)
