Summary

眼球運動の視覚世界のパラダイムに記録を使用して話されていた言語のオンライン処理を探索するには

Published: October 13, 2018
doi:

Summary

視覚世界のパラダイムは、聴いても話されていた言語を話すビジュアル ワークスペースで参加者の目の動きを監視します。このパラダイムは、心理言語学的質問、選言文などの意味的複合ステートメントを含む広い範囲のオンライン処理を調査する使用できます。

Abstract

追跡研究視覚世界のパラダイムを使用して典型的な目、参加者の目のオブジェクトに動きや参加者を生成または同時視覚を記述する音声言語を理解しない視覚ワークスペースで写真は目トラッカー経由で記録されます。世界。このパラダイムは、それらの人が読み取ることができませんまたはあからさま偏向子供、高齢者、患者などの行動応答を与えることができない者を含む集団の広い範囲で使用できます、汎用性の高いです。もっと重要なは、パラダイムは、音声信号の細かい操作に非常に敏感と、細粒音響/音声など、複数のレベルで言語理解におけるほとんどのトピックのオンライン処理の研究に使えます機能、単語のプロパティおよび言語構造。この資料で説明されているプロトコルは、視覚世界のパラダイムを意味複雑なステートメントのオンライン処理を探索できる方法を示す例を典型的な視覚世界の視線に関する研究を実施する方法を示しています。

Introduction

話されていた言語は、すぐに消えて高速、継続的な情報の流れです。この一時的な実験的研究、急速に変化する音声信号への挑戦です。眼球運動の視覚世界のパラダイムに記録は、このような課題を克服するために使用できます。聴く、または生成、話されていた言語、視覚的な世界1 の内容を描いた典型的な目追跡研究視覚世界のパラダイムを使用して、参加者の眼球運動表示で写真または視覚ワークスペースで実際のオブジェクトを監視します。 ,2,3,4。基本的なロジック、またはリンクの仮説は、このパラダイムの背後には、理解や発話を計画 (公然またはひそか) シフトする視覚的世界の特定のオブジェクトを参加者の視覚的注意。この注意のシフトでお越しの際にも高い確率で衝動性眼球運動、視に出席した領域をもたらすことを開始します。このパラダイムを研究者がオブジェクトまたは視覚的画像に衝動性眼球運動によって測定される音声信号のいくつかの音響ランドマークに関してどのような時間の時点で参加者の視覚的注意のシフトが発生しますを決定しよう世界。オンライン言語処理を推論するは、音声信号に関連して眼球運動を開始時と場所が使用されます。視覚世界のパラダイムを使用して、音声言語理解1,2と生産5,6の両方を勉強できます。この方法論的記事の理解に関する研究に焦点を当てます。理解における視覚的世界のパラダイムは、ビジュアル表示の動きが監視彼らは発話の視覚的な表示の話に耳を傾ける参加者の目を使用します。

別の目追跡システムは、歴史で設計されています。最も簡単な少なくとも高価で、ほとんどのポータブル システムは、ちょうど通常のビデオカメラ、参加者の目の画像を記録します。眼球運動がビデオ録画のフレームによる審査を経て、手動でコード化されました。しかし、このような視線トラッカーのサンプリング レートは比較的低い、コーディング プロシージャは時間がかかる。したがって、現代商業目の追跡システムを通常はその軌道7,8,9の目の方向を測定する光センサーを使用します。現代商業目の追跡システムのしくみを理解するため、次の点を検討してください。まず、正しく視、赤外線照明の方向を測定する (周りの波長と通常 780-880 nm) に沿ってまたはハッキリ明るい、または暗い瞳のイメージを作る、カメラの光軸を通常配置周囲のアイリス。生徒や生徒角膜反射 (通常最初のプルキンエ イメージ) の画像がその軌道の目の向きを計算する生成されます。第二に、ビジュアルの世界の視線の場所は、頭に対して眼の方向性だけでなくビジュアルの世界に関して頭の方向にも実際に偶発的です。点目方向からの視線を正確に推論、光源と目トラッカーのカメラに関して参加者の頭 (ヘッド マウント目トラッカー) 固定されてまたはビジュアルの世界に関して固定されて (テーブル マウントまたはリモート目-トラッカー)。第三に、参加者の頭の方向はビジュアルの世界に関しても修正しなければならないまたは参加者の頭は自由に移動する場合に補償される計算。移動無料頭モードでリモートの目トラッカーを使用すると、参加者の頭の位置は通常参加者の額に小さなステッカーを配置することによって記録されます。頭の方向計算引かれる視覚世界の視線位置を取得するために目の方向から。第四に、校正と検証のプロセス、ビジュアルの世界で点の視線に目の方向をマップする必要があります。校正プロセス視覚世界の位置を視線に生目データにマップする既知のターゲット ポイントから参加者の固定サンプルが記録されます。検証プロセスの参加者が校正プロセスと同じターゲット ポイントに表示されます。既存の校正結果から計算された固定位置と視覚世界の執着の対象の実際の位置との間の違いは、キャリブレーションの精度を判断する使用されます。さらにマッピング プロセスの精度を再確認、ドリフト チェックは通常が単一の固定ターゲット計算固定位置と実際の位置の違いを測定するための参加者に紹介されて、各試験に適用される、現在のターゲット。

視覚的な世界研究の主なデータは、試用期間の一部または全体に及ぶ視線トラッカーのサンプリング レートで記録された視覚的世界の視線位置のストリームです。視覚的な世界の研究で使用される従属変数は通常参加者の注視が特定のタイム ウィンドウ間でビジュアルの世界で特定の空間領域に位置していることのサンプルの割合です。データを分析するには、時間ウィンドウがまず選択する興味の期間と呼ばれます。タイム ウィンドウは、通常聴覚入力のいくつかの言語のイベントのプレゼンテーションに時間ロックです。さらに、視覚的な世界も関心 (ROIs)、それぞれが 1 つまたは複数のオブジェクトと関連付けられているいくつかの領域に分割する必要です。1 つのような地域は話されている言語の正しい理解に対応するオブジェクトが含まれています、こうしてターゲット領域と呼ばれます。データを視覚化するための一般的な方法は、場所、タイム ・ ウィンドウの各箱で興味の各地域のサンプルの割合が全体の平均参加者とアイテムの割合の固定プロットです。

視覚世界の研究から得られたデータを使用して、さまざまな研究の質問が回答できます。) 粗粒度のレベルが異なる聴覚言語入力によって影響を受けるビジュアルの世界で参加者の視線?b) 場合は裁判の経過、効果の軌道は、効果があるか。それは線形効果や高次効果?c) 細粒度レベルにし、効果があるときに最古の一時的なポイントそのような効果が出てくるし、この効果はどのくらい最後ですか?

結果を統計的に分析するには、次の点を検討してください。まず、応答変数、すなわち凝視の割合の下と上の両方制限されます (0 と 1) の間、正規分布ではなく、多項の配分を行います。今後、t 検定、分散分析、線形 (混合効果) モデル10など正規分布に基づく伝統的な統計的方法は、縦横比はで無制限変数に変換されているまで直接利用することはできません。経験的ロジット式11またはユークリッド距離12などの無制限の従属変数に置き換えられています。このような正規分布の仮定は一般化線形 (混合効果) モデル13を必要としない統計的手法を使用もできます。第二に、観測された効果の変化の軌道を探索する時系列を示す変数はモデルに追加しなければなりません。この時系列変数はもともと視線トラッカーのサンプリング ポイント入力言語の発症に再編します。通常変化の軌道は線形ではない、ので時系列データの高次多項式関数は通常 (一般化) 線形 (混合効果) モデル、すなわち、成長曲線解析14に追加されます。さらに、現在のサンプル ポイントで参加者の目の位置は以前のサンプリング ポイントに大きく依存して記録周波数が高い場合は特に自己相関の問題の結果します。隣接するサンプリング ポイントの自己相関を減らすためには、多くの場合元のデータがダウン サンプリングまたはビン分割です。近年、一般化加法混合効果モデル (GAMM) はまた、autocorrelated エラー12,15,16に取り組むために使用されています。箱の幅は、数ミリ秒から数百ミリ秒に至るまで、さまざまな研究によって異なります。研究を選択することができます狭いビンは、特定の研究で使用される目トラッカーのサンプリング レートによって制限されます。たとえば、アイト ラッカーの 500 Hz のサンプリング レートの場合はタイム ウィンドウの幅が小さくてより 2 ms = 1000/500 とはなりません。第三に、興味の期間の各時間箱に統計分析を繰り返し適用すると、これらの複数比較が取り組まれる必要がありますから familywise エラーが誘発されます。前述したように、軌道分析通知研究者粗粒度レベルで観察された効果が比例する時間を変更するかどうか観察された効果が出現し始めるときに表示されませんが、どのように長い観測効果は持続します。発散と観測の効果は持続する一時的な期間の期間を把握する観測された差の起動時の一時的な位置を決定する、統計解析は各時間箱に繰り返し適用しています。これら複数の比較は、どのような統計的手法の使用に関係なく、いわゆる familywise エラーになります。Familywise エラー伝統的ボンフェローニ調整17修正します。最近、familywise エラー コントロールに視覚単語パラダイム19に提出18ニューロ イメージングではもともとノンパラ メトリック順列テストと呼ばれるメソッドを適用されています。

視覚世界のパラダイムを使用して研究者は、ビジュアルの世界で参加者の視線からいくつかの話されていた言語の理解を推測するつもりです。この控除の有効性の確認、眼球運動に影響を与えるその他の要因が排除または制御します。次の 2 つの要因が考慮する必要がある一般的なものの間で。最初の要因は、参加者の説明注視の中でより簡単に水平方向の視覚世界と動いて目の方形を左上に固執する傾向など、入力言語に依存しないいくつかの体系的なパターン垂直方向、等12,20 , 固定パターンのオブジェクトに関連オブジェクトがある空間的な位置のオブジェクトの空間位置を相殺する必要がありますいないことを確認する複数の異なる試験または異なる参加者間で。参加者の目の動きに影響を与える可能性があります 2 番目の要因は、他の間で、輝度コントラスト、色とエッジの向きなど、視覚的な世界内のオブジェクトの基本的な画像特徴21。この潜在的な交絡の診断、視覚的な表示は通常提示話されていた言語の発症前や発症から時間の期間中に約 1000 ミリ秒の話されていた言語の重要な音響のマーカーの発症する前に、オーディオのテスト、入力言語や入力言語の曖昧さ回避ポイントの発症するテスト画像がまだ聞かれていません。入力言語というより任意の違いは、異なる条件の間観察表示など他の交絡要因に自体、推測する必要があります。今後は、このプレビュー期間にみられる眼球運動は言語入力の効果を決定するためのベースラインを提供します。このプレビュー期間参加者視覚表示に精通を取得し、話されていた言語が提示される説明の注視の組織的バイアスを減らすこともできます。

典型的な視線視覚世界のパラダイムを用いた研究の実施方法を説明するために次のプロトコルは、すなわち、意味的複雑なステートメントのオンライン処理を探索する L. 占17から適応実験を説明します。選言文 (S1 または S2)、連文 (S1 と S2)が、-ステートメント (S1、S2 はない)。普通の保全にいくつかの発言によって表現される情報は実際に文字通りの意味より強いです。選言文暁明のボックスには、牛や鶏が含まれているようなそのような発話。選言文が真暁明のボックスを含む牛鶏が暁明のボックスに含まれている2 つの選言はどちらでされていない限り、論理的に、false。したがって、選言のステートメントは、2 つの選言が両方 true暁明のボックスに牛と鶏が含まれている対応する連言ステートメントが真も真です。普通の会話で、しかし、選言声明は頻繁接続助詞の対応するステートメントが間違っていることを示唆しているを聞いて (スカラーの含意);2 つの選言の真理値がスピーカー (無知の推論) で知られていないことを示唆しています。文献のアカウントかどうか 2 つの推論が文法的または実用的なプロセス22,23,24,25,26とは異なります。実験は、視覚世界のパラダイムを使用して、3 つの複雑なステートメントのオンライン処理を探索することで、これらのアカウントの間で審議する方法を示しています。

Protocol

すべての科目では、実験的プロトコルの管理の前に書面による同意通知を与える必要があります。すべてのプロシージャ、同意フォーム、および実験のプロトコルは、北京言語および文化大学の研究倫理委員会で承認されました。 注: 通常視覚世界のパラダイムを使用して読解研究の次の手順で構成されています:; 探検するために理論的な問題を紹介形成、実験的なデザ…

Representative Results

参加者の行動応答を図 4にまとめます。前述したように、結合ステートメント (S1 と S2) に対して正しい応答は図 1のボックスなどの大きなオープン ボックスです。が、正しいレスポンス-ステートメント (S1、S2 ではない) は図 1のボックス D など、最初の上記動物を含む小さなファ?…

Discussion

視覚世界の研究を行うにいくつかの重要な手順があります。最初に、研究者は、参加者の眼球運動、視覚的な世界を介して聴覚提示の言語の解釈を推測するつもりです。今後は、視覚刺激のレイアウトを設計するときに参加者の眼球運動に影響を与える可能性のある自然な仕事における眼球運動の特性を制御する必要があります。話されていた言語の参加者の眼球運動に及ぼす影響を認識し?…

Disclosures

The authors have nothing to disclose.

Acknowledgements

本研究は、科学財団の北京言語および文化大学中央大学 (承認番号 15YJ050003) の基礎的研究資金によって支えられました。

Materials

Pixelmator Pixelmator Team http://www.pixelmator.com/pro/ image editing app
Praat Open Sourse http://www.fon.hum.uva.nl/praat/ Sound analyses and editting software
Eyelink 1000plus SR-Research, Inc https://www.sr-research.com/products/eyelink-1000-plus/ remote infrared eye tracker 
Experimental Builder SR-Research, Inc https://www.sr-research.com/experiment-builder/ eye tracker software 
Data Viewer SR-Research, Inc https://www.sr-research.com/data-viewer/ eye tracker software 
R Open Sourse https://www.r-project.org free software environment for statistical computing and graphics

References

  1. Tanenhaus, M. K., Spivey-Knowlton, M. J., Eberhard, K. M., Sedivy, J. C. Integration of visual and linguistic information in spoken language comprehension. Science. 268 (5217), 1632-1634 (1995).
  2. Cooper, R. M. The control of eye fixation by the meaning of spoken language: A new methodology for the real-time investigation of speech perception, memory, and language processing. Cognitive Psychology. 6 (1), 84-107 (1974).
  3. Salverda, A. P., Tanenhaus, M. K., de Groot, A. M. B., Hagoort, P. . Research methods in psycholinguistics and the neurobiology of language: A practical guide. , (2017).
  4. Huettig, F., Rommers, J., Meyer, A. S. Using the visual world paradigm to study language processing: A review and critical evaluation. Acta Psychologica. 137 (2), 151-171 (2011).
  5. Meyer, A. S., Sleiderink, A. M., Levelt, W. J. M. Viewing and naming objects: Eye movements during noun phrase production. Cognition. 66 (2), B25-B33 (1998).
  6. Griffin, Z. M., Bock, K. What the eyes say about speaking. Psychological Science. 11 (4), 274-279 (2000).
  7. Young, L. R., Sheena, D. Survey of eye movement recording methods. Behavior Research Methods & Instrumentation. 7 (5), 397-429 (1975).
  8. Conklin, K., Pellicer-Sánchez, A., Carrol, G. . Eye-tracking: A guide for applied linguistics research. , (2018).
  9. Duchowski, A. . Eye tracking methodology: Theory and practice. , (2007).
  10. Baayen, R. H., Davidson, D. J., Bates, D. M. Mixed-effects modeling with crossed random effects for subjects and items. Journal of Memory and Language. 59 (4), 390-412 (2008).
  11. Barr, D. J. Analyzing ‘visual world’ eyetracking data using multilevel logistic regression. Journal of Memory and Language. 59 (4), 457-474 (2008).
  12. Nixon, J. S., van Rij, J., Mok, P., Baayen, R. H., Chen, Y. The temporal dynamics of perceptual uncertainty: eye movement evidence from Cantonese segment and tone perception. Journal of Memory and Language. 90, 103-125 (2016).
  13. Bolker, B. M., et al. Generalized linear mixed models: A practical guide for ecology and evolution. Trends in Ecology and Evolution. 24 (3), 127-135 (2009).
  14. Mirman, D., Dixon, J. A., Magnuson, J. S. Statistical and computational models of the visual world paradigm: Growth curves and individual differences. Journal of Memory and Language. 59 (4), 475-494 (2008).
  15. Baayen, H., Vasishth, S., Kliegl, R., Bates, D. The cave of shadows: Addressing the human factor with generalized additive mixed models. Journal of Memory and Language. 94, 206-234 (2017).
  16. Baayen, R. H., van Rij, J., de Cat, C., Wood, S., Speelman, D., Heylen, K., Geeraerts, D. . Mixed-Effects Regression Models in Linguistics. 4, 49-69 (2018).
  17. Zhan, L. Scalar and ignorance inferences are both computed immediately upon encountering the sentential connective: The online processing of sentences with disjunction using the visual world paradigm. Frontiers in Psychology. 9, (2018).
  18. Maris, E., Oostenveld, R. Nonparametric statistical testing of EEG- and MEG-data. Journal of Neuroscience Methods. 164 (1), 177-190 (2007).
  19. Barr, D. J., Jackson, L., Phillips, I. Using a voice to put a name to a face: The psycholinguistics of proper name comprehension. Journal of Experimental Psychology-General. 143 (1), 404-413 (2014).
  20. Dahan, D., Tanenhaus, M. K., Salverda, A. P., van Gompel, R. P. G., Fischer, M. H., Murray, W. S., Hill, R. L. . Eye movements: A window on mind and brain. , 471-486 (2007).
  21. Parkhurst, D., Law, K., Niebur, E. Modeling the role of salience in the allocation of overt visual attention. Vision Research. 42 (1), 107-123 (2002).
  22. Grice, H. P., Cole, P., Morgan, J. L. Vol. 3 Speech Acts. Syntax and semantics. , 41-58 (1975).
  23. Sauerland, U. Scalar implicatures in complex sentences. Linguistics and Philosophy. 27 (3), 367-391 (2004).
  24. Chierchia, G. Scalar implicatures and their interface with grammar. Annual Review of Linguistics. 3 (1), 245-264 (2017).
  25. Fox, D., Sauerland, U., Stateva, P. . Presupposition and Implicature in Compositional Semantics. , 71-120 (2007).
  26. Meyer, M. C. . Ignorance and grammar. , (2013).
  27. SR Research Ltd. . SR Research Experiment Builder User Manual (Version 2.1.140). , (2017).
  28. SR Research Ltd. . EyeLink® 1000 Plus Technical Specifications. , (2017).
  29. SR Research Ltd. . EyeLink-1000-Plus-Brochure. , (2017).
  30. SR Research Ltd. . EyeLink® 1000 Plus User Manual (Version 1.0.12). , (2017).
  31. SR Research Ltd. . EyeLink® Data Viewer User’s Manual (Version 3.1.97). , (2017).
  32. McQueen, J. M., Viebahn, M. C. Tracking recognition of spoken words by tracking looks to printed words. The Quarterly Journal of Experimental Psychology. 60 (5), 661-671 (2007).
  33. Altmann, G. T. M., Kamide, Y. Incremental interpretation at verbs: restricting the domain of subsequent reference. Cognition. 73 (3), 247-264 (1999).
  34. Altmann, G. T. M., Kamide, Y. The real-time mediation of visual attention by language and world knowledge: Linking anticipatory (and other) eye movements to linguistic processing. Journal of Memory and Language. 57 (4), 502-518 (2007).
  35. Snedeker, J., Trueswell, J. C. The developing constraints on parsing decisions: The role of lexical-biases and referential scenes in child and adult sentence processing. Cognitive Psychology. 49 (3), 238-299 (2004).
  36. Allopenna, P. D., Magnuson, J. S., Tanenhaus, M. K. Tracking the time course of spoken word recognition using eye movements: Evidence for continuous mapping models. Journal of Memory and Language. 38 (4), 419-439 (1998).
  37. Zhan, L., Crain, S., Zhou, P. The online processing of only if and even if conditional statements: Implications for mental models. Journal of Cognitive Psychology. 27 (3), 367-379 (2015).
  38. Zhan, L., Zhou, P., Crain, S. Using the visual-world paradigm to explore the meaning of conditionals in natural language. Language, Cognition and Neuroscience. 33 (8), 1049-1062 (2018).
  39. Brown-Schmidt, S., Tanenhaus, M. K. Real-time investigation of referential domains in unscripted conversation: A targeted language game approach. Cognitive Science. 32 (4), 643-684 (2008).
  40. Fernald, A., Pinto, J. P., Swingley, D., Weinberg, A., McRoberts, G. W. Rapid gains in speed of verbal processing by infants in the 2nd year. Psychological Science. 9 (3), 228-231 (1998).
  41. Trueswell, J. C., Sekerina, I., Hill, N. M., Logrip, M. L. The kindergarten-path effect: studying on-line sentence processing in young children. Cognition. 73 (2), 89-134 (1999).
  42. Zhou, P., Su, Y., Crain, S., Gao, L. Q., Zhan, L. Children’s use of phonological information in ambiguity resolution: a view from Mandarin Chinese. Journal of Child Language. 39 (4), 687-730 (2012).
  43. Zhou, P., Crain, S., Zhan, L. Grammatical aspect and event recognition in children’s online sentence comprehension. Cognition. 133 (1), 262-276 (2014).
  44. Zhou, P., Crain, S., Zhan, L. Sometimes children are as good as adults: The pragmatic use of prosody in children’s on-line sentence processing. Journal of Memory and Language. 67 (1), 149-164 (2012).
  45. Moscati, V., Zhan, L., Zhou, P. Children’s on-line processing of epistemic modals. Journal of Child Language. 44 (5), 1025-1040 (2017).
  46. Helfer, K. S., Staub, A. Competing speech perception in older and younger adults: Behavioral and eye-movement evidence. Ear and Hearing. 35 (2), 161-170 (2014).
  47. Dickey, M. W., Choy, J. W. J., Thompson, C. K. Real-time comprehension of wh-movement in aphasia: Evidence from eyetracking while listening. Brain and Language. 100 (1), 1-22 (2007).
  48. Magnuson, J. S., Nusbaum, H. C. Acoustic differences, listener expectations, and the perceptual accommodation of talker variability. Journal of Experimental Psychology-Human Perception and Performance. 33 (2), 391-409 (2007).
  49. Reinisch, E., Jesse, A., McQueen, J. M. Early use of phonetic information in spoken word recognition: Lexical stress drives eye movements immediately. Quarterly Journal of Experimental Psychology. 63 (4), 772-783 (2010).
  50. Chambers, C. G., Tanenhaus, M. K., Magnuson, J. S. Actions and affordances in syntactic ambiguity resolution. Journal of Experimental Psychology-Learning Memory and Cognition. 30 (3), 687-696 (2004).
  51. Tanenhaus, M. K., Trueswell, J. C., Trueswell, J. C., Tanenhaus, M. K. . Approaches to Studying World-Situated Language Use: Bridging the Language-as-Product and Language-as-Action Traditions. , (2005).

Play Video

Cite This Article
Zhan, L. Using Eye Movements Recorded in the Visual World Paradigm to Explore the Online Processing of Spoken Language. J. Vis. Exp. (140), e58086, doi:10.3791/58086 (2018).

View Video