Summary

視持続時間知覚における眼球運動:決定前過程における時間からの刺激の解脱

Published: January 19, 2024
doi:

Summary

アイトラッキングを採用して、視覚イベントに基づく間隔比較(持続時間知覚)タスク中の眼球運動を監視するプロトコルを紹介します。目的は、持続時間知覚タスク(時間間隔の比較または識別)に対する眼球運動反応を刺激自体への反応から分離するための予備的なガイドを提供することです。

Abstract

視線追跡法は、参加者が点滅する円のような視覚イベントによって定義される時間間隔を推定、識別、または比較するように求められる視覚持続時間知覚タスク中の認知処理のオンラインモニタリングを可能にする可能性があります。しかし、私たちの知る限り、この可能性を検証する試みはこれまでのところ決定的なものではなく、結果は刺激の出現後に行われたオフラインの行動決定に焦点を当てたままです。この論文では、参加者が2つの連続した間隔を見て、それが速くなる(最初の間隔が2番目の間隔より長い)か遅くなる(2番目の間隔が長い)かを決定しなければならない間隔比較タスクで、行動反応に先行する認知プロセスを調査するための視線追跡プロトコルを提示します。

私たちの主な関心事は、視覚刺激自体に対する動眼運動反応を、判断に関連する持続時間の相関から解きほぐすことでした。これを達成するために、重要なイベントに基づいて、ベースラインの開始、最初の間隔の開始、2番目の間隔の開始、および刺激の終了という3つの連続した時間枠を定義しました。次に、それぞれの伝統的な動眼運動指標(注視回数、瞳孔の大きさ)を抽出し、時間枠に関連する変化に焦点を当てて、視覚刺激に対する反応と間隔比較 自体に関連する反応を分離しました。実例の結果が示すように、アイトラッキングデータは行動結果と一致する有意差を示し、関与したメカニズムに関する仮説を提起しました。このプロトコルは初期段階にあり、多くの改善が必要ですが、現在の技術水準における重要な一歩です。

Introduction

時間知覚能力は、読解力や病理学的状態に関連している可能性があるという証拠が蓄積されているため、ここ数年で研究の注目を集めています1,2,3,4,5。視覚持続時間知覚(視覚イベントによって定義される時間間隔を推定、識別、または比較する能力)は、視線追跡法が貢献できる関心のあるサブフィールドの1つです6,7。しかし、結果は、ボタンを押して経過時間を示す(推定)、時間間隔が同じか異なるか(識別)、一連の時間間隔のどれが最も長いか最も短いかを示すなど、刺激後の行動決定に焦点を当てたままです。いくつかの研究は、行動の結果をアイトラッキングデータと相関させようと試みたが8,9、両者の間に相関関係を見出すことができず、直接的な関係がないことを示唆している。

本論文では、視覚持続時間知覚課題における刺激呈示中の動眼反応を登録・解析するためのプロトコルを提示する。具体的には、参加者が 2 つの時間間隔を定義する 3 つのイベントのシーケンスを見て、スピードアップ (最初のインターバルが 2 秒より長い) か減速 (最初のインターバルが 2 秒より短い) かを判断するように求められる間隔比較タスクに言及しています。この研究で使用された時間間隔は133〜733ミリ秒で、テンポラルサンプリングフレームワーク(TSF)10の原則に準拠していました。TSFは、脳の振動活動、特にデルタ振動(1-4Hz)などの周波数帯域において、ストレスアクセントのシーケンスなどの入ってくる音声単位と同期していることを示唆しています。この同期は、音声の符号化を強化し、音声単位への注意を改善し、非定型の低周波振動を示す失読症などの状態の理解に関連する可能性のある連続的な規則性を抽出するのに役立ちます。本研究の目的とは、失読症の視覚持続時間知覚の難しさ(間隔比較課題に対する群効果)が、視覚対象そのものの処理における問題、すなわち動きと輝度のコントラストを反映しているかどうかを明らかにすることであった11。もしそうだとすれば、ディスレクシアのコントロールに対する不利は、動きのある刺激や輝度のコントラストが低い刺激(グループと刺激の種類の相互作用)で大きくなると予想されます。

最初の研究の主な結果は、刺激後の行動判断によってもたらされました。刺激呈示中に記録された瞳孔の大きさと注視回数のアイトラッキングデータを使用して、行動決定に先立つプロセスを調査しました。ただし、現在のプロトコルは、目標がそれに応じて設定されている場合、行動データ収集とは独立して使用できると考えています。また、間隔識別タスク用に調整することも可能です。時間見積もりタスクで使用するのはそれほど即時ではありませんが、その可能性を排除するものではありません。瞳孔の大きさは、他の状態の中でも特に認知的負荷121314を反映しており、したがって参加者のスキルに関する情報を提供する可能性があるためです(負荷が高いほどスキルが少ない)。固視の回数に関しては、固執が多いほど、参加者の課題への関与が強いことを反映している可能性がある15,16。最初の研究では、5種類の刺激が用いられた。簡単にするために、現在のプロトコルでは 2 つだけを使用しました (ボールとフラッシュ、動きに関連するコントラストを表します)。

私たちが取り組もうとした主な課題は、動眼運動反応が動きや輝度のコントラストなどの特性に応じて変化することが知られているため、視覚刺激自体に対する反応を間隔比較に関連する反応から解きほぐすことでした17。視覚刺激は画面に現れた瞬間に処理され(第1インターバル)、第2の時間間隔が始まって初めてインターバル比較が可能になることを前提に、プレスティミュラスウィンドウ、第1インターバル、セカンドインターバル(行動反応は含まない)の3つの時間枠を定義した。最初のインターバルにおける刺激前ウィンドウからの変化を分析することにより、刺激自体に対する参加者の反応の指標が得られます。最初の間隔と2番目の間隔を比較すると、間隔比較の眼球運動の兆候が利用されます-参加者に実行を求められたタスク。

Protocol

52人の参加者(25人が失読症と診断されたか、潜在的な症例としてシグナルが発せられ、27人が対照群)をコミュニティ(ソーシャルメディアや便利な電子メールの連絡先を通じて)と大学のコースから募集した。確認的な神経心理学的評価とその後のデータ分析(詳細については、ゴスワミ10を参照してください)に続いて、7人の参加者が研究から除外されました。この除外は、基準を満たさなかった失読症の4人の個人、主要な実験課題で外れ値を持つ2人の失読症の参加者、および視線追跡データがノイズの影響を受けた1人の対照参加者で構成されていました。最終サンプルは、45人の参加者、19人の失読症の成人(男性1人)、および26人の対照(5人の男性)で構成されました。参加者全員がポルトガル語を母国語とし、視力が正常または正常に矯正されており、聴覚、神経、言語障害と診断された人はいなかった。ここで説明するプロトコルは、ポルト大学の心理学教育科学部の地元の倫理委員会によって承認され(参照番号2021/06-07b)、すべての参加者はヘルシンキ宣言に従ってインフォームドコンセントに署名しました。 1. 刺激の創出 2 つの時間間隔の 8 つのシーケンス (表 1) を定義し、最初のシーケンスが 2 番目のシーケンス (スローダウン シーケンス) よりも短いようにします。アニメーションソフトのフレームレート(ここでは30フレーム/秒、33ms/フレーム)と互換性のある間隔をフレームデュレーション変換表で選択します。 スローダウンシーケンスごとに、間隔の順序を逆にして得られるスピードアップアナログを作成します(表1)。 スプレッドシートでは、ターゲット間隔(ms)を33で割って、間隔の長さをフレーム数に変換します(たとえば、300〜433ミリ秒の間隔シーケンスの場合は、9〜13フレームを示します)。 各シーケンスのキーフレームを定義します:フレーム7での刺激の開始(6つの空白フレームの後、200ミリ秒に相当)、フレーム6での間隔1のオフセット+間隔1の長さ(この例では6 + 9)、間隔2のオフセット(6 + 9 + 13)も同様です。間隔 2 の終わりにさらに 2 つのフレームを設定して、刺激の終わりをマークします (6+ 9 + 13 +2)。 フラッシュシーケンスをアニメーションとして作成します。アニメーションソフトウェア(Adobe Animateなど)を実行し、背景が黒の新しいファイルを作成します。 フレーム 7 で、画面の中央に青い円を描きます。その寸法が、計画されたスクリーンアイ距離(ここでは55 cm)で視野の約2°を占めるようにし、ボールの直径が1.92cmであることを確認してください。 この画像をコピーして、次の隣接するフレーム(フレーム 7 番目から開始)に貼り付け、各フラッシュが約 99 ミリ秒続くようにします。 この 2 フレーム シーケンスをコピーして、他の 2 つのキー フレーム (間隔 1 と 2 の開始) に貼り付けます。 残りの 15 個のアニメーションを作成するには、ファイルのコピーを作成し、間隔の開始を適切なフレームに移動します。 跳ねるボールのシーケンスをアニメーションとして作成します。アニメーションソフトで、Flashアニメーションと同じ仕様(サイズ、背景)のファイルを開きます。キーフレームの仕様でスプレッドシートを開き、キーフレームが地面に当たる押しつぶされたボールに対応するようにします。 黒の背景の 3 つのフレームから開始します (99 ミリ秒)。4番目の フレームで、フラッシュに使用されるボールと同じ青いボールを上部中央に描きます。 刺激の開始点に潰されたボール(高さよりも幅が大きい)を3フレーム(間隔1の開始)描きます。ボールが画面の中央から水平に中央に、垂直に中央下にあることを確認します。オブジェクトの[プロパティ]ボタンをクリックしてから、[位置とサイズ]をクリックして、選択した押し潰しの高さにボールを配置し、幅を広げたり、高さを下げたりします。 トゥイーンコマンドを使用して、上部のボールから押しつぶされたボール(垂直降下)への連続的な変化を生成します。 潰れたボールをフィーチャーした 3 フレーム シーケンスを他の 2 つのキー フレーム (間隔 1 と 2 の開始) にコピーします。 スプレッドシートで、各間隔の継続時間を 2 で割って、間隔 1 と 2 の 2 つのスカッシュの中間点を定義します。この位置では、ボールが上昇後、下降する前に最大の高さに達します。 ステップ1.6.6で定義した中点の軌道の最低点の上に、押し潰されていないボールを垂直に描画します。インターバルの開始時(ボールが地面に当たったとき)と最高点の間、および最高点から次のスカッシュ(下降時)の間の上昇アニメーションを生成します。 ファイルを他の 15 の時間構造に適合させます。 すべてのアニメーションを .xvd としてエクスポートします。このオプションが使用できない場合は、.aviとしてエクスポートしてから変換し、アイリンクシステムで使用できるようにします。 2. 実験準備 実験フォルダーの作成実験ビルダー・アプリケーションを開き、メニュー・ファイルから「新規」を選択します。 [ ファイル] |名前を付けて保存します。プロジェクトの名前と保存場所を指定します。注:これにより、刺激ファイルやその他の素材のサブフォルダを含むフォルダ全体が作成されます。実験ファイルは、拡張子が .ebd のフォルダーに表示されます。 プロジェクトフォルダ内で、[ ライブラリ ]をクリックし、[ ビデオ]という名前のフォルダをクリックします。このフォルダに.xvidビデオ刺激ファイルをアップロードします。注:実験で使用するすべての刺激は、ライブラリに保存する必要があります。 システム内および人間とシステムの相互作用の基本構造の作成スタートパネルと表示画面アイコンをグラフエディタウィンドウにドラッグします。マウスをクリックして 1 番目から 2 番目までドラッグして、それらの間にリンクを作成します。 表示画面のプロパティで、[複数行テキストリソースの挿入]ボタンをクリックし、その後のキャリブレーション手順を説明する指示テキストを入力します。 2つの トリガー (実験を進めるための入力チャンネル)を選択します: キーボード と elボタン (ボタンボックス)。表示画面を両方にリンクします。注:これらのトリガーにより、参加者または実験者は任意のボタンをクリックして続行できます。 [カメラ設定] アイコンを選択し、両方のトリガーをリンクします。注:これにより、アイトラッカーとの通信が確立され、参加者のアイを監視できるようにし、カメラの調整、キャリブレーション、および検証を行うことができます(セクション4を参照)。 [結果ファイル] アイコンを選択し、フロー チャートの右側にドラッグします。注:このアクションにより、実験の行動反応を記録できます。 ブロック構造の定義シーケンスアイコンを選択し、(ステップ2.2.1を参照)カメラ設定にリンクします。 [プロパティ]で[反復回数]をクリックし、ブロック数(フラッシュとボール)に2を選択します。 注意: これにより、フラッシュの表示とボールの表示が分離されます。 シーケンス(ブロック定義)を入力し、 スタートパネル アイコン、 表示 アイコン、 トリガー el_button と キーボードをドラッグします。この順序でリンクします。 表示画面アイコンで、[複数行テキストリソースの挿入]ボタンをクリックし、実験を説明する指示テキストを入力します。 試行構造の定義ブロック シーケンス内で、[ 新しいシーケンス ] アイコンをエディターにドラッグして、試行シーケンスを作成します。注: ブロック シーケンス内に試行シーケンスをネストすると、各ブロックで複数の試行を実行できます。 トライアルシーケンス内で、 スタートパネル と シーケンスの準備 アイコンをドラッグし、2つ目を1つ目にリンクします。注:このアクションは、参加者に提示される実験刺激をロードします。 ドリフト補正アイコンをインターフェイスにドラッグし、シーケンスの準備アイコンにリンクします。注:ドリフト補正は、刺激コンピュータのモニタに単一の固視ターゲットを表示し、カーソルの視線位置と記録コンピュータ上の実際の刺激位置を比較することができます。ドリフトチェックとそれぞれの補正は、最初の校正品質が維持されるように、すべての試行後に自動的に開始されます。 記録構造の定義トライアルシーケンス内で、[ 新しいシーケンス ]アイコンをエディターにドラッグして、記録シーケンスを作成します。注:記録シーケンスは目のデータ収集を担当し、視覚刺激が提示される場所です。 このシーケンスのプロパティで [記録 ] オプションを選択します。注意: これにより、アイトラッカーは刺激が始まると記録を開始し、刺激が終了すると停止します。 プロパティで、データソースをクリックし、各ステップの正確なファイル名、試行実践または実験のタイプ、各刺激が提示される回数(ここでは1)、および予想される応答ボタンをテーブル(タイプまたは選択)に入力します。注:ファイル名は、ライブラリにアップロードされたものと同じで、ファイル拡張子が含まれている必要があります(例:ball_sp_1.xvd)。 インターフェースの上部パネルで、 Randomization Settingをクリックし、Enable trial randomization ボックスにマークを付けて、刺激が各ブロック内でランダム化されるようにします。[ OK ]ボタンをクリックして、インターフェイスに戻ります。 記録シーケンスで、スタートパネルとディスプレイ画面の接続を作成します。表示画面内で、 ビデオリソースの挿入 ボタン(カメラアイコン)を選択し、インターフェイスにドラッグします。 キーボードと el ボタンのトリガー を表示アイコンに リンクして (手順 2.2.1 を参照)、参加者が応答できるようにします。 [ 精度の確認 ] アイコンをドラッグし、手順 2.2.1 のようにトリガーにリンクします。注: この操作により、押されたキーがデータ ソースの正しい応答列の値と一致するかどうかをソフトウェアがチェックできます。 実験の完了メイン パネルの上部にある [ 実行] 矢印アイコン をクリックして、実験のテストを実行します。 3. 装置のセットアップ 刺激コンピュータを5ボタンボタンボックスとキーボードに接続します。 刺激コンピュータ(システム専用のプレゼンテーションソフトウェアを使用)を、モニターの下または前にあるアイトラッカー(図1)に接続します。 アイトラッカーを録画コンピュータに接続します。 図1:視線追跡のセットアップ。 記録システムの空間配置は、刺激コンピュータ、記録コンピュータ、アイトラッカー、応答装置(ボタンボックス)、及びキーボードから構成される。参加者は刺激スクリーンから55cm離れた場所に座りました。 この図の拡大版をご覧になるには、ここをクリックしてください。 4. データ収集の準備 参加者からインフォームドコンセントを得て、実験形式を説明します。刺激の円(フラッシュまたはボール)が視野の2°(通常の距離~60cm)に対応するように、刺激コンピューターから離れた場所に参加者を配置します。 サンプリング周波数(高解像度の場合は1,000 Hz)と記録する目(利き目)を選択します。 記録コンピューターが提供する視覚化では、アイトラッカーがターゲット(参加者の眉間に置かれた棒)と利き目が安定した方法で追跡していることを確認します。必要に応じて、カメラを上下に動かします。 テストを開きます。システムが提供する5点校正および検証手順を記録コンピューターから実行して、眼球運動の正確で信頼性の高い記録を可能にします。参加者に、画面に表示されるドットを (5) つの異なる場所 (キャリブレーション用に 1 回、検証用に 2 回) を見つめるように指示します。注意: 0.5°未満のエラーのみを受け入れます。 5. 実験の実行 参加者にタスクを説明します。 模擬試験を提示し、参加者の疑問を明確にします。 [ 実行] をクリックして実験を開始します。 条件と条件の間で実験を一時停止し、刺激が異なることを説明しますが、質問は同じです。 6. 分析用の時間枠の作成 Dataviewerソフトウェア18で、[ファイル]、[ データのインポート]、[ 複数のEyeLinkデータファイル]の順に移動します。ダイアログボックスで、すべての参加者のファイルを選択します。 トライアルを 1 つ選択します。 四角いアイコン を選択して、関心領域を描画します。注: インタレスト領域は、画面の領域とトライアル内の時間枠の両方を定義します。ここでは、常に全画面を選択します。 TW all(図2)を作成するには、描画アイコンをクリックして全画面表示を選択します。開いたダイアログ ボックスで、関心領域に TW_all というラベルを付け、完全な試行に一致する時間セグメントを定義します。[Save the interest area set] をクリックし、このテンプレートを同じ長さのすべての試行に適用します (たとえば、表 1 の時間構造 1 と 8、ボールとフラッシュの両方について、すべての参加者について)。 表 1 から 16 の時間構造から 1 つを選択します。手順 6.3 と同様に、TW_0、TW_1、およびTW_2を定義しますが、図 2 で図式化された時間制限 (フラッシュの外観とボールの押しつぶしに対応する時間枠の境界) に従います。TW0の長さはカスタマイズ可能です。各関心領域にラベルを付け、同じ時間構造 (ボールとフラッシュ、すべての参加者) の試行にテンプレートを適用します。 残りの 15 個の時間構造に対してこのプロセスを繰り返します。 図2:刺激の種類 実験で使用した跳ね返るボール(左)と閃光(右)のシーケンス。破線は解析に用いた時間枠を示し、TW0は刺激期間である。TW1は、刺激が画面上に最初に現れる時間であり、参加者が刺激特性と第1の間隔の長さに関する情報を持っている最初の間隔をマークし、TW2は、参加者が第1の間隔と第2の間隔を比較して決定(減速または高速化)を詳述できる第2の間隔をマークします。 この図の拡大版をご覧になるには、ここをクリックしてください。 7. メジャーの抽出 メニューバーで、[ 分析] |レポート |インタレストエリアレポート。 次のメジャーを選択して、滞留時間、注視回数、瞳孔サイズを抽出し、[次へ]をクリックします。注: 出力には、参加者ごとに 16 回のフラッシュ試行と 16 回のバウンド ボール試行 (32 回の試行 x n 人の参加者) のデータが含まれ、4 つの時間枠 (TW0、TW1、TW2、TW all) のそれぞれに指定されている必要があります。 行列を.xlsxファイルとしてエクスポートします。 8. アーティファクトのあるトライアルを削除する TWすべての滞留時間の測定を検討し、信号損失の30%を超える試験をマークします(滞留時間<試行時間の70%)。注:32の試行のそれぞれの長さが異なることを考慮に入れてください。 ノイズの多い (マークされた) 軌跡を行列から除外して保存します。 9. 統計解析 各メジャーに対して 2 つの反復測定 ANOVA (TW x グループ x 刺激) を実行し、1 つは TW 0 と 1、もう 1 つは TW 1 と 2 を使用します。 TW関連の変化を行動結果と関連付けます(可能な場合)。

Representative Results

TW関連の変化をよりよく理解するために、時間枠の相互作用(TW0とTW1、TW1とTW1とTW1とTW1とTW1とTW1とTW1とTW1とTW1とTW1とTW1とTW1とTW1TW2)を刺激タイプとグループで表現します。 図3に示されているように、両方のTW関連比較(TW01およびTW12)は、刺激に応じて異なるレベルの変化を示し(TW x 刺激の相互作用)、Ballsは両群の閃光よりも眼球運動反応においてTW関連の変化をより多く誘発しました(TW x 刺激 x グループの相互作用なし)。これは、瞳孔の大きさと固視数の両方で発生しました。群の影響については、TW0からTW1への固視回数の変化(刺激開始に対する反応)にTW x群交互作用が見られ、失読症者は主に刺激値の低下により変化が減少した。TW、刺激、およびグループ間の相互作用は存在しなかった。これは、グループの影響がボールとフラッシュの両方で類似していることを示しています。 図3:結果 グループ(コントロール対失読症、TW x グループ)および刺激タイプ(ボール、B、vs. フラッシュ、F、TW x 刺激)の関数としての瞳孔サイズと注視回数の時間ウィンドウ関連の変化。TW 0-1は、刺激なしと刺激の可視性の対比を扱います。TW1−2は、第1および第2の間隔をアドレス間隔比較と比較する。95%信頼区間は縦棒で表されます。ボールは、TW1よりもTW0(より減少)から、TW2よりもTW1(より増加)から、両方のアイトラッキング測定と両方のグループ(TW x刺激、TW x刺激なしxグループ)で、閃光よりも多くの変化を誘発しました。TW 0-1における固視数の変化は、刺激の種類(TW x群、TW x刺激なしx群)にかかわらず、失読症患者の方が対照群よりも小さかった。 この図の拡大版をご覧になるには、ここをクリックしてください。 図4:行動の結果。 (A)グループと刺激の種類ごとのスピードアップシーケンスとスローダウンシーケンス(d-prime)の識別。(B)行動パフォーマンス(d-prime)と時間ウィンドウ関連の眼球運動の変化との間に有意な相関関係があり、どちらも刺激平均化されています。 この図の拡大版をご覧になるには、ここをクリックしてください。 重要なことに、これらの値は行動所見(図4A)と類似しており、主要な研究と一致しています:行動所見は、刺激効果(FlashesよりもBallsの方が精度が低い)とグループ効果(失読症者のパフォーマンスが悪い)を示しており、グループxの刺激の相互作用はありませんでした。さらに、5つの異なる刺激を用いた最初の研究では、すべての刺激タイプについて平均したアイトラッキングデータ(注視回数)と行動を相関させ、失読症のグループで相関関係があることを発見しました:TW1よりもTW0からの小さな変化はパフォーマンスの向上と共存していました。全体として、この結果は、これらの(成人の)失読症患者が、刺激前の期間に刺激自体への注意を意図的に制御するための代償戦略に頼っている可能性があるという仮説と一致しているように思われました(空の画面への固執が少ないほど、刺激が現れるまでに刺激に集中することを好むでしょう)。対照群ではそのような相関関係は見られず、集中力を維持するための戦略に頼る必要はない可能性が示唆された。ここで説明に用いた制限されたデータセット(BallsとFlashesの2つの刺激のみ)は、同じパターンを示しました(図4B):失読症は、対照ではなく、d-prime(行動識別指数)とTW01関連の変化との間に有意な相関を示しました。 要するに、刺激開始(TW 0-1)と間隔比較(TW 1-2)の両方に対する参加者の反応に対処したアイトラッキングの結果は、失読症の人とそうでない人でボールとフラッシュが異なる反応を引き出すという行動的証拠を再現しました(アイトラッキング測定のTW x 刺激、d-primeの刺激効果)。アイトラッキングの結果の一部は、刺激開始時(TW 0-1)の注視数の変化が失読症者の方が小さかったという点で、d-primeのグループ効果とも平行していました。さらに、刺激と集団の相互作用(失読症の逸脱度がボールと閃光で異なる)は、行動データと視線追跡データではゼロであった。最後に、行動成績と眼球運動反応との相関関係は、失読症群で有意であった。 順序 種類 インターバル 1 インターバル 2 差 1 加速 433 300 133 2 加速 300 167 133 3 加速 467 433 34 4 加速 733 167 566 5 加速 467 300 167 6 加速 433 134 299 7 加速 534 233 301 8 加速 500 433 67 9 スピードを 落として 300 433 -133 10 スピードを 落として 167 300 -133 11 スピードを 落として 433 467 -34 12 スピードを 落として 167 733 -566 13 スピードを 落として 300 467 -167 14 スピードを 落として 133 434 -301 15 スピードを 落として 233 534 -301 16 スピードを 落として 433 500 -67 平均間隔 377.1 平均差 212.6 平均差/間隔 294.8 表 1: インターバル期間。 ミリ秒単位のスピードアップおよびスローダウンシーケンスの刺激シーケンス。

Discussion

現在のプロトコルには、視覚持続時間の知覚タスクにアイトラッキングを組み込む際の現在の障害に取り組むために重要となる可能性のある新しいコンポーネントが含まれています。ここで重要なステップは、これらの各時間枠で発生すると推定される認知プロセスに基づく時間枠の定義です。使用したシステムでは、時間枠は関心領域(これらのシステムで時間と結合される空間関連の概念)としてのみ定義できますが、他のシステムでは、試行のさまざまなセグメントをエクスポートすることでこれを行うことができます。この試行の時間的セグメンテーションに加えて、時間枠ごとのパラメーターではなく、時間枠全体の変化の分析に重点を置くことが重要です。

プロトコルの変更に関しては、主に対象地域の寸法に関連していました。私たちは、動的AOIを使用して、画面全体ではなく、それに続く刺激の周囲に空間選択を定義する最初の試みを行いました。しかし、すぐに、その地域以外の関連イベントを見逃している可能性があることに気付きました。我々の測定は刺激に焦点を合わせることとは無関係であったため(瞳孔の大きさは、閃光やボールへの注意ではなく、認知的負荷に応じて変化すると予想され、注視回数は空間探索を反映すると予想された)、関心領域として全画面を使用することにした。

現在のプロトコルは、まだ多くの改良が加えられている初期段階の提案です。改善の余地ははるかにありますが、これらのうちの2つだけを強調します。1つ目は、3つの時間枠の長さの違いに関するもので、固視数に対する時間枠効果を解釈することができません(例えば、時間枠が長いほど固視が多くなるため、TW0からTW1に減少します、 図3を参照)。この問題に対処する1つの方法は、時間単位あたりの固視数を考慮することです。

2つ目は、時間枠と推定進行中のプロセスとの対応関係に関するもので、さまざまな問題が含まれています。1つは、TW1は単なる刺激の出現ではなく、おそらく間隔比較に補助的な間隔推定(第1間隔)の明示的な形式を表しており、TW0には存在しない可能性が高いということです。同様に、時間枠をまたいだ変化は、これらの変化の一部が間隔比較タスクで予想され得るとしても、持続的な注意および作業記憶18などの一般的なプロセスにおける変化も反映し得る(作業記憶負荷はTW1からTW2よりも増加すると予想される)。これらの潜在的な交絡を減衰させる1つの方法は、純粋な持続時間の推定、持続的な注意力、および作業記憶に関連する制御タスクを導入し、実験(間隔比較)タスクとコントロールタスクの比較に基づいて視線追跡データ分析を行うことです。もう1つの問題は、TW0の持続時間がタスクと無関係であり、タスクに無関係な持続時間がパフォーマンス19に悪影響を及ぼす可能性があることが知られていることである。今後の研究は、これを改善すること、すなわち、TW0(無関係な間隔)とTW1の間に300ミリ秒の差を作り、視覚処理応答をより適切に区切ることによって、短い事象は、単に時間的近接度20,21に別の事象を追加することによって、その提示よりも早くまたは遅く知覚されるように偏る可能性があるため、焦点を当てることができる。

最後に、自発的なまばたきは、時間の知覚を歪めることによって影響を及ぼす可能性があり(まばたきが間隔に先行する場合は時間を延長し、同時に発生する場合は短縮する)、個人内のタイミング性能にばらつきをもたらす可能性がある22。この問題を最小限に抑える1つの方法は、参加者の行動判断にまばたきベースの補正係数を適用することです(たとえば、刺激の前または最中のまばたきの存在に応じて、各判断に信頼度を割り当てます。さらに、試行を確率変数として扱う統計的アプローチを取り入れることも、この問題への対処に役立つ可能性があります。

今後の研究としては、自発的なまばたき回数(EBR)と時間知覚との関連が重要な課題となる。EBRは、中枢ドーパミン機能(DA)23の非侵襲的間接マーカーであることが知られており、最近では、ERBが高いと時間知覚の低下と関連していました。この研究は、インターバルタイミングにおけるドーパミンの含意を示唆し、ドーパミン測定値24の代理としてのERBの使用を指摘している。もう一つの重要なトピックは、私たちが分析した(変化に関連する)指標の機能的意味であり、これは私たちのパラダイムの文脈ではまだ決定されていません。元の研究では、現在の単純化されたデータセットと同様に、TW0からTW1への瞳孔サイズの増加は、認知負荷の増加という考えと一致していましたが、この測定値に対するグループ効果がないため、それ以上の検討はできません。1つのパターンは、時間枠をまたいだ小さな変化が行動パフォーマンスの向上と相関している(ボールよりもフラッシュが良く、失読症のd-primeは小さな変化に関連している)が、さらなる研究が必要である。

その限界にもかかわらず、現在のプロトコルは、私たちの知る限り、アイトラッキングと行動データ(同じ効果プロファイル)で並列の結果を示し、2つの間の相関関係のいくつかの証拠を示した最初のものです。

Disclosures

The authors have nothing to disclose.

Acknowledgements

この研究は、助成金UIDB/00050/2020の下でポルトガル科学技術財団の支援を受けました。およびPTDC / PSI-GER / 5845/2020。APCは、PTDC/PSI-GER/5845/2020(http://doi.org/10.54499/PTDC/PSI-GER/5845/2020)の助成金の下、ポルトガル科学技術財団から全額出資されました。

Materials

Adobe Animate Adobe It is a tool for designing flash animation films, GIFs, and cartoons.
EyeLink Data Viewer It is robust software that provides a comprehensive solution for visualizing and analyzing gaze data captured by EyeLink eye trackers. It is accessible on Windows, macOS, and Linux platforms. Equipped with advanced capabilities, Data Viewer enables effortless visualization, grouping, processing, and reporting of EyeLink gaze data.
Eye-tracking system SR Research EyeLink 1000 Portable Duo It has a portable duo camera, a Laptop PC Host, and a response device. The EyeLink integrates with SR Research Experiment Builder, Data Viewer, and WebLink as well as many third-party stimulus presentation software and tools.
Monitor Samsung Syncmaster  957DF It is a 19" flat monitor 
SR Research Experiment Builder SR Research It is an advanced and user-friendly drag-and-drop graphical programming platform designed for developing computer-based experiments in psychology and neuroscience. Utilizing Python as its foundation, this platform is compatible with both Windows and macOS, facilitating the creation of experiments that involve both EyeLink eye-tracking and non-eye-tracking functionalities.

References

  1. Bellinger, D., Altenmüller, E., Volkmann, J. Perception of time in music in patients with parkinson’s disease – The processing of musical syntax compensates for rhythmic deficits. Frontiers in Neuroscience. 11, 68 (2017).
  2. Plourde, M., Gamache, P. L., Laflamme, V., Grondin, S. Using time-processing skills to predict reading abilities in elementary school children. Timing & Time Perception. 5 (1), 35-60 (2017).
  3. Saloranta, A., Alku, P., Peltola, M. S. Listen-and-repeat training improves perception of second language vowel duration: evidence from mismatch negativity (MMN) and N1 responses and behavioral discrimination. International Journal of Psychophysiology. 147, 72-82 (2020).
  4. Soares, A. J. C., Sassi, F. C., Fortunato-Tavares, T., Andrade, C. R. F., Befi-Lopes, D. M. How word/non-word length influence reading acquisition in a transparent language: Implications for children’s literacy and development. Children (Basel). 10 (1), 49 (2022).
  5. Sousa, J., Martins, M., Torres, N., Castro, S. L., Silva, S. Rhythm but not melody processing helps reading via phonological awareness and phonological memory. Scientific Reports. 12 (1), 13224 (2022).
  6. Torres, N. L., Luiz, C., Castro, S. L., Silva, S. The effects of visual movement on beat-based vs. duration-based temporal perception. Timing & Time Perception. 7 (2), 168-187 (2019).
  7. Torres, N. L., Castro, S. L., Silva, S. Visual movement impairs duration discrimination at short intervals. Quarterly Journal of Experimental Psychology. 77 (1), 57-69 (2024).
  8. Attard, J., Bindemann, M. Establishing the duration of crimes: an individual differences and eye-tracking investigation into time estimation. Applied Cognitive Psychology. 28 (2), 215-225 (2014).
  9. Warda, S., Simola, J., Terhune, D. B. Pupillometry tracks errors in interval timing. Behavioral Neuroscience. 136 (5), 495-502 (2022).
  10. Goswami, U. A neural basis for phonological awareness? An oscillatory temporal-sampling perspective. Current Directions in Psychological Science. 27 (1), 56-63 (2018).
  11. Catronas, D., et al. Time perception for visual stimuli is impaired in dyslexia but deficits in visual processing may not be the culprits. Scientific Reports. 13, 12873 (2023).
  12. Zagermann, J., Pfeil, U., Reiterer, H. Studying eye movements as a basis for measuring cognitive load. Extended Abstracts of the 2018 CHI Conference on Human Factors in Computing Systems. , 1-6 (2018).
  13. Rafiqi, S., et al. PupilWare: Towards pervasive cognitive load measurement using commodity devices. Proceedings of the 8th ACM International Conference on PETRA. , 1-8 (2015).
  14. Klingner, J., Kumar, R., Hanrahan, P. Measuring the task-evoked pupillary response with a remote eye tracker. Proceedings of the 2008 Symposium on ETRA. , 69-72 (2008).
  15. Mahanama, B., et al. Eye movement and pupil measures: a review. Frontiers in Computer Science. 3, 733531 (2022).
  16. Pfleging, B., Fekety, D. K., Schmidt, A., Kun, A. L. A model relating pupil diameter to mental workload and lighting conditions. Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems. , 5776-5788 (2016).
  17. Cicchini, G. M. Perception of duration in the parvocellular system. Frontiers in Integrative Neuroscience. 6, 14 (2012).
  18. EyeLink Data Viewer 3.2.1. SR Research Ltd Available from: https://www.sr-research.com/data-viewer/ (2018)
  19. Spencer, R., Karmarkar, U., Ivry, R. Evaluating dedicated and intrinsic models of temporal encoding by varying contex. Philosophical Transactions of the Royal Society B. 364 (1525), 1853-1863 (2009).
  20. Coull, J. T. Getting the timing right: experimental protocols for investigating time with functional neuroimaging and psychopharmacology. Advances in Experimental Medicine and Biology. 829, 237-264 (2014).
  21. Burr, D., Rocca, E. D., Morrone, M. C. Contextual effects in interval-duration judgements in vision, audition and touch. Experimental Brain Research. 230 (1), 87-98 (2013).
  22. Grossman, S., Gueta, C., Pesin, S., Malach, R., Landau, A. N. Where does time go when you blink. Psychological Science. 30 (6), 907-916 (2019).
  23. Jongkees, B. J., Colzato, L. S. Spontaneous eye blink rate as predictor of dopamine-related cognitive function-a review. Neuroscience & Biobehavioral Reviews. 71, 58-82 (2016).
  24. Sadibolova, R., Monaldi, L., Terhune, D. B. A proxy measure of striatal dopamine predicts individual differences in temporal precision. Psychonomic Bulletin & Review. 29 (4), 1307-1316 (2022).

Play Video

Cite This Article
Catronas, D., Lima Torres, N., Silva, S. Eye Movements in Visual Duration Perception: Disentangling Stimulus from Time in Predecisional Processes. J. Vis. Exp. (203), e65990, doi:10.3791/65990 (2024).

View Video