Summary

独自のビュー: ヘッド マウント カメラで乳幼児の自己中心的なビューをキャプチャ

Published: October 05, 2018
doi:

Summary

乳幼児は、両親から根本的に別の方法で世界を見る。ヘッド マウント カメラは、乳児の視覚的環境を理解する扱いやすいメカニズムを提供します。このプロトコルは、家庭や乳幼児の自己中心的なビューを取得する実験室の実験のための指針を提供します。

Abstract

乳幼児は、両親から根本的に異なる方法で基本的な感覚レベルでの世界を表示します。これは主に生物学的制約のため、: 乳児の両親よりも異なるプロポーションを持っているし、自分の頭の動きを制御する能力は発展途上。このような制約は、利用可能な視覚入力を制限します。このプロトコルは、ヘッド マウント カメラを使用して発展途上の乳児が経験した変化の視覚入力を理解する研究者のための指針を提供するために目指しています。このプロトコルの使用の成功は、研究者が設計し、発展途上の子供の視覚環境自宅や研究室での研究を実行するになります。このメソッドからの研究者は子供のビューのフィールドで可能なすべてのアイテムの集計を表示をコンパイルできます。このメソッドは直接を見ては子供を正確を測定していません。組み合わせることで機械学習、コンピューター ビジョン アルゴリズムや手作業によるコーディング、研究者のこのアプローチは、発展途上の幼児の変化する視覚的生態を説明するために高密度データセットを生成できます。

Introduction

何十年も、心理学者ウィリアム ・ ジェームズは、有名な「が咲いて、賑やかな混乱1」として記述されている発展途上の幼児の環境を理解し求めています。幼児の日々 の体験通常 3 人の視点から社会的パートナーと自然主義的なプレイを撮影して検討しています。側からまたはの上のこれらのビューは、雑然とした環境とあらゆる新しい単語のための潜在的な指示対象は膨大な数を通常表示乳児を聞く2。外部の観察者にジェームズの説明は、がちであるが、この静止した、3人称視点が乳児が世界を見る方法ではありません。幼児は地面に近いと視覚探索に近いオブジェクトをもたらすの世界を通じて、移動することができます。親の母子相互作用の 3 人の表示を図 1に示します。自分の視点の基本的な違いは、強調表示されます。おそらく、幼児を受け取る入力は両親や研究者によって予想通りほぼ無秩序です。ヘッド マウント カメラを持つメソッドの目的は、開発全体を通して利用できるように視覚的な環境を理解するために最初の人ビューから幼児体験をキャプチャすることです。

ヘッド マウント カメラ、帽子やカチューシャ、着用は、発展途上の幼児の瞬間に映像体験にウィンドウを提供します。このような観点から、構造と幼児の環境の規則性の研究が明らかになります。ヘッド マウント カメラの手によって支配される主に乳児の視覚経験を明らかにした両方彼ら自身と社会のパートナーのとの顔の見える、かつて共同注意を確立するために不可欠と考えられて、多く予想されるscarcer3. ヘッド マウント カメラを持っても、乳児と養育者作成説明瞬間ときオブジェクトは、視覚的に支配的なおよび幼児の視野 (FOV) の中央オブジェクト ラベル マッピング4に固有の不確実性を減らします。

ヘッド マウント カメラは、頭の動きに基づく幼児の最初の人ビューをキャプチャします。このビューはありません完全に同期、または代表者、乳幼児の目の動きは、目トラッカーと組み合わせてのみキャプチャすることができます。例えば、頭を静止しているまま目だけのシフトまたはオブジェクトに固定された目を維持しながら頭のシフトは乳児の実際の視野と頭のカメラで撮影されたものとの間のずれが作成されます。それにもかかわらず、グッズ プレイ中に幼児通常センターに参加しているオブジェクト整列自分の頭、目、そして自分の体の正中線5グッズの場所。ズレはまれであり、通常目シフトとそれに伴うめまい3の間一時的な遅延によって作成されます。そのため、頭部カメラは注目の変化の急速なダイナミクスをキャプチャするため適していません。ヘッド マウント カメラの強みは乳幼児に視覚的なコンテンツを明らかに日常的な視覚環境を取り込む。

次のプロトコルと代表の結果はどのようにヘッド マウント カメラ デモンストレーション乳幼児の視環境を調査する使用することができます。

Protocol

研究室や家庭で、乳児と幼児の視覚の経験のデータを収集する次の手順は、インディアナ大学制度検討委員会によって承認されました。幼児の養育者からインフォームド コンセントを得た。 1. 頭のカメラを選ぶ 注:(図 2) の購入のために容易に利用可能な多数の小型・軽量・ ポータブル カメラがあります。 <li…

Representative Results

1 つの単純なまだ有益な分析は時間の各ポイントのビューにはオブジェクトの数をカウントします。頭部カメラは約 30 Hz でデータを生成するので (30 画像/秒)、ダウン サンプリング シーン子供の種類を理解するための適切な解像度を維持しながらより管理しやすいデータセットを生成するすべての 5 s により 1 画像データを参照してください。先行研究では、ビジュ?…

Discussion

ヘッド マウント カメラを自分の自己中心的なビジュアル シーンをキャプチャする乳幼児に適用するための基礎知識を概説します。市販の頭部カメラは研究の大多数に対して十分です。小型・軽量・ ポータブル カメラを柔らかい布帽子やカチューシャに組み込まれて、子供の頭に適用する必要があります。いったん正常な設計・実装、実験室の設定で家庭環境も、様々 な実験は実行できま?…

Divulgaciones

The authors have nothing to disclose.

Acknowledgements

この著者は、この原稿の作成に彼の指導の代表 [結果] セクションで使用されるデータは博士陳 Yu をありがちましょう。数字で使用され、この原稿の彼女の注意深い読書のプロトコルとしてリディアの Hoffstaetter の撮影をすることに合意の参加家族に感謝いたします。この研究は健康補助金 T32HD007475 22 (J.I.B.、D.H.A.)、R01 HD074601 (s ちゃん)、R01 HD028675 研究機構によって支えられた (住ベ、L.B.S.) と F32HD093280 (L.K.S.)。BCS 1523982 (住ベ、L.B.S) とキャリア IIS 1253549 (住ベ、D.J.C.)、国立科学財団大学院研究奨学金プログラム #1342962 (S.E.S.)、全米科学財団が助成金と新興地域研究を通じてインディアナ大学によってイニシアチブ – 学習: 脳、マシン、および子供 (J.I.B.、s ちゃん、L.B.S.)。

Materials

Head-camera Looxcie Looxcie 3
Head-camera Watec WAT-230A
Head-camera Supercircuits PC207XP
Head-camera KT&C VSN500N
Head-camera SereneLife HD Clip-On
Head-camera Conbrov Pen TD88
Head-camera Mvowizon Smiley Face Spy Button
Head-camera Narrative Clip 2
Head-camera MeCam DM06

Referencias

  1. James, W. . The Principles of Psychology. , (1890).
  2. Quine, W., Van, O. . Word and object: An inquiry into the linguistic mechanisms of objective reference. , (1960).
  3. Yoshida, H., Smith, L. B. What’s in view for toddlers? Using a head camera to study visual experience. Infancy. 13 (3), 229-248 (2008).
  4. Yu, C., Smith, L. B. Embodied attention and word learning by toddlers. Cognition. 125 (2), 244-262 (2012).
  5. Bambach, S., Smith, L. B., Crandall, D. J., Yu, C. Objects in the center: How the infant’s body constrains infant scenes. Joint IEEE International Conference on Development and Learning and Epigenetic Robotics 2016. , 132-137 (2016).
  6. Adolph, K. E., Gilmore, R. O., Freeman, C., Sanderson, P., Millman, D. Toward open behavioral science. Psychological Inquiry. 23 (3), 244-247 (2012).
  7. Sanderson, P. M., Scott, J. J. P., Johnston, T., Mainzer, J., Wantanbe, L. M., James, J. M. MacSHAPA and the enterprise of exploratory sequential data analysis (ESDA). International Journal of Human-Computer Studies. 41 (5), 633-681 (1994).
  8. Pereira, A. F., Smith, L. B., Yu, C. A bottom-up view of toddler word learning. Psychonomic Bulletin & Review. 21 (1), 178-185 (2014).
  9. Yu, C., Smith, L. B. Joint Attention without Gaze Following: Human Infants and Their Parents Coordinate Visual Attention to Objects through Eye-Hand Coordination. PLOS ONE. 8 (11), e79659 (2013).
  10. Jayaraman, S., Fausey, C. M., Smith, L. B. The faces in infant-perspective scenes change over the first year of life. PlOS ONE. 10 (5), e0123780 (2015).
  11. Fausey, C. M., Jayaraman, S., Smith, L. B. From faces to hands: Changing visual input in the first two years. Cognition. 152, 101-107 (2016).
  12. Jayaraman, S., Fausey, C. M., Smith, L. B. Why are faces denser in the visual experiences of younger than older infants?. Developmental Psychology. 53 (1), 38 (2017).
  13. Clerkin, E. M., Hart, E., Rehg, J. M., Yu, C., Smith, L. B. Real-world visual statistics and infants’ first-learned object names. Philosophical Transactions of the Royal Society B, Biological Sciences. 372, 20160055 (2017).

Play Video

Citar este artículo
Borjon, J. I., Schroer, S. E., Bambach, S., Slone, L. K., Abney, D. H., Crandall, D. J., Smith, L. B. A View of Their Own: Capturing the Egocentric View of Infants and Toddlers with Head-Mounted Cameras. J. Vis. Exp. (140), e58445, doi:10.3791/58445 (2018).

View Video