東京工科大学 HOME> トピックス> 2014年のトピックス> 人はどのように3次元物体を認識するのか。脳の視覚情報処理メカニズムの解明に挑戦中!

トピックス

Topics

人はどのように3次元物体を認識するのか。脳の視覚情報処理メカニズムの解明に挑戦中!

2014年2月14日掲出

コンピュータサイエンス学部 菊池 眞之 講師

コンピュータサイエンス学部 菊池 眞之 講師

人間の脳における情報処理のなかでも特に視覚情報処理に注目し、そのメカニズムを解き明かそうと取り組んでいる菊池先生。前回の取材では、人が物体と背景を瞬時に知覚する「図地知覚」に関する研究を中心にお話を伺いました。今回は、その後の研究の進展や新たな取り組みについてお聞かせいただきました。

過去の掲載はこちらから→
http://www.teu.ac.jp/interesting/017395.html

3D凹凸物体
「3D凹凸物体」
3次元物体の凹凸特徴の知覚。凹部よりも凸部のほうが知覚の感度が高いことがわかっています。(奥&菊池 2011)

■先生の研究室では、今、どのような研究に取り組んでいるのですか?

 前回の取材では、脳の中で行われている視覚情報処理の中でも重要な機能である「図地知覚」の研究の話をしました。今回はまず、その「図地知覚」の延長として取り組んでいる研究から話したいと思います。今、研究室では、物体の凹凸を人はどう知覚するのかということをテーマに研究しているところです。人が物体の凹凸を見たとき、凹部分と凸部分とを同じように知覚しているとは限りません。凸部分のほうが凹部分よりも知覚の感度が高く、微妙な変化にも気付き易いという性質がありそうなのです。物体の凸部分のほうが凹部分よりも人に接触する機会が多いことに関係するかもしれません。当研究室ではこのような性質が一般に成り立つものなのかどうか、2次元のみならず3次元の物体の画像も用いて調べています。具体的には、被験者に3DCGを見るときに使う液晶シャッター眼鏡を装着してもらい、パソコン画面に凹凸を含むパターンを表示して、それを立体知覚してもらうという実験をしています。そこから、表示されたパターンの凹凸部分を人がどう知覚しているのかということを調べようと取り組んでいるのです。

3D凹凸物体の回転の知覚
「3D凹凸物体の回転の知覚」
凹/凸特徴部の動きの知覚。図の赤い点線部分の面のテクスチャー(模様)のみを観察し、物体の回転方向(時計回り/反時計回り)を判断する実験を実施すると、凸部分を見る場合のほうが凹部分を見る場合よりも正答率が高いことが明らかになっています(Kikuchi&Kodama 2012)。

 また、人が2次元のものを見たとき、どのように3次元のオブジェクトとして認知しているのかということについても研究しています。たとえば、本に描かれている立体的な図形などは、実際は2次元であるにもかかわらず、人は立体的な物体として認識できますよね。同様にパソコンの画面、スマートフォン、テレビなどを見たときも、私たちはそれらを見て、ペラペラの世界だとは思いません。体積感のある3次元の物体として解釈しています。この2次元のものを見て、3次元と認知するには、足りない1次元分を補わなければならないわけですが、それを人は経験や生得的に構築されている脳内メカニズムによって行っていると考えられます。そこにはどんなルールがあるのかを明らかにしようと、研究室ではランダムな閉曲線を見せたときに、人がどうそれを3次元として復元するのかを調べる心理実験を行いました。今、ちょうど実験のデータが揃ってきたので、ここから分析をはじめる段階です。

2D輪郭からの3D表面の復元知覚
「2D輪郭からの3D表面の復元知覚」
2D輪郭からの3D表面の復元知覚、2次元輪郭から被験者がどのような3次元構造の物体表面を知覚するかを調べる実験(水崎&菊池 2012)。数学的には解が一意に定まらないものの、ヒトは何らかの構造を知覚します。

デルブーフ錯視
「デルブーフ錯視」
左のドーナッツ状領域の穴である円と、右の円盤とは物理的に同一のサイズでも、知覚的には右の円盤のほうが小さく見えるという錯視現象。

 このほか、物体の境界は,それが帰属する領域の側にシフトしているかのように見えるという仮説が一般的に成り立つことを明らかにしようと取り組んでいる視覚情報処理の研究もあります。たとえば、ドーナッツ状の同心円パターンを見ると,ドーナッツの内側の輪郭は本来の円よりも大きく知覚され、反対に外側の輪郭は本来より小さく知覚される、という錯覚が生じることが知られています。このパターンについて少し詳しく考えてみると、外側の円は、その内部と外部の2つの領域に接していますが、元々は内側に広がるドーナッツ領域の境界なので、この円の帰属する領域は内側ということになります。同様に、内側の円はその外側のドーナッツ領域の境界であり、帰属する領域は外側ということになります。これらのことから、一般に輪郭は帰属する側の領域のほうにシフトして知覚されるのでは、という仮説を立てられます。この仮説に基づくと、一般に物体は実際より小さく、穴は実際より大きく知覚され、凹凸特徴のうち凹は大きめに、凸は小さめに見えることになります。実際、円盤状の物体と、同じ直径の円盤状にくりぬかれた穴の直径同士を見比べてみると、主観的には物体の方が小さく見え、穴の方が大きく見えるという現象が生じることがわかりました。今後は、それが3Dだった場合、どうなるかということを確かめようと思っています。3Dの場合、境界は線から面になり、物体領域も面積をもった2次元的広がりから体積をもった3次元的広がりへと拡張されます。3Dの物体を見たとき、果たして2Dのときと同様に境界が帰属する領域の側にシフトして知覚されるのか、すなわち体積が減るように縮小されて見えるのか否か、くりぬかれたものであれば、全体が拡大されて見えるのか否かということを検証する実験に取り組もうとしているところです。 また、前回の取材を受けた時期にちょうど取り組み始めていた「ブレイン・コンピュータ・インターフェース(BCI)」関連の研究にも進展がありました。

■「BCI」は、人が思ったことを脳計測機器で読み取り、コンピュータに情報を入力するといったことができるインターフェースでしたね。

 そうです。その研究の一環として、脳波計やNIRSというセンサーを装着して、人の心を読み取り、それをコンピュータが解釈するということを試みました。脳の神経細胞は電気信号でやりとりしているため、活動すると電界が変化します。それを感知するのが脳波計です。また、脳の神経系が活動すると、酸素を消費するため、血液の状態が変化します。その脳の血流状態を頭皮の上から捉えることができるのがNIRSです。ここ数年、この研究室で取り組んでいるのは、被験者に右か左かを念じてもらい、被験者が念じている空間的方向を頭に取りつけたセンサーからの情報をもとに分析し、右と左のどちらを念じたかコンピュータが判断して当てるという研究です。2年ほど続いてきたこの研究を現在は4年生が引き継ぎ、前年度の問題点を見出し、克服する方法を模索しているところです。また、同じくBCI関連で、今、うまく研究が進んでいるものに、被験者が知っている曲か知らない曲かを当てるという研究があります。これもNIRSを使って行う実験ですが、現状、9割程度の識別率になっています。

 ただ、どちらの研究も被験者によって結果に差が生じることは多々あります。それはやはり脳が同一ではないということですし、同じ人物でも実験するときの心理的・生理的状態の違いによって影響を受ける部分もあるからです。そういう変化に左右されない特徴を掴むことができたら、もっと高い識別率を達成できると思うので、今後はそれを追究していきたいと思っています。

■では、新たに取り組んでいる研究はありますか?

 私たちコンピュータサイエンス学部(CS学部)と本学のデザイン学部、医療保健学部の先生方とで取り組んでいる共同研究があります。デザイン学部で行われている教育によって、学生の感性がどのように磨かれていくかということを、多角的に調べようというプロジェクトで、各学部の学生数名に被験者として参加してもらっています。具体的には、音楽を聞きながら感じたことを絵に表現するという課題に取り組んでもらい、その際の脳活動をはじめとするデータを分析する、ということをしています。

 また、昨年度からCS学部の宇田隆哉先生の研究室と共同で、集中力がアップする視覚パターンを模索するという研究を手がけています。これまで宇田先生の研究室の学生が中心となって、脳の集中力を高める形や色などを探り、どれがベストな組み合わせかということについて研究してきました。実際、コンピュータを使った実験では、かなり手ごたえのある結果を出しています。そこで新たに私の研究室でも、無機的なパターンの形ではなく、生態学的に意味のあるもの、たとえば人の顔を見ることで、集中力がどう変わるのかを調べようと取り組み始めています。また、これまでの研究では、集中力が上がったかどうかを確かめるのに、テスト問題を解いてもらうことで測っていましたが、もう少し研究が進んでテストの解答率がよい状態とそのときの脳波パターンの関連を明らかにできれば、脳活動の状態だけで集中力が上がっているかどうか推し量れるようになると思います。そうなれば、より集中力を高めるパターンの探索が高速化できるだろうと期待して、取り組んでいるところです。

アイカメラを装着した様子
「アイカメラを装着した様子」
被験者が実空間のどこを見ているかを計測します。

スマートフォン操作時の視線分布を計測する実験の準備の様子
「スマートフォン操作時の視線分布を計測する実験の準備の様子」非操作時との見ている範囲の比較を行います。

■最後に今後の展望をお聞かせください。

 前回の取材で展望として語ったものの内、まだ実現できていなものが結構あります。たとえば、視覚認知の脳の神経回路モデルを人間がつくるのではなくて、コンピュータに模索させてつくらせるということには、今、取り組んでいる最中ではありますが、まだ手ごたえのある結果が出ていません。ですから、引き続き取り組んでいくつもりでいます。

また、昨年の夏にテレビ局からの依頼を受け、歩きながらスマートフォンを操作しているとき(歩きスマホ)の視線分布は普通に歩いているときに対しどのように変化するかということの検証実験を、本学部の荻谷光晴先生や市村哲先生の協力の下で行いました。 この「歩きスマホ」の問題は大きな社会問題にもなっていて、今後も社会的な要請が大きいだろうと予想されますから、これを機に、より深い研究を手がけていこうかと考えているところです。

■コンピュータサイエンス学部WEB
http://www.teu.ac.jp/gakubu/cs/index.html

■ブレインコンピューティング研究室(菊池研究室)
http://www.teu.ac.jp/info/lab/project/com/dep.html?id=130

・次回は3月14日に配信予定です。