Waiting
Traitement de la connexion…

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Augenbewegungen in der visuellen Dauerwahrnehmung: Entwirrung von Reizen aus der Zeit in vorentscheidenden Prozessen

Published: January 19, 2024 doi: 10.3791/65990

Summary

Wir stellen ein Protokoll vor, das Eye-Tracking verwendet, um Augenbewegungen während einer Intervallvergleichsaufgabe (Dauerwahrnehmung) basierend auf visuellen Ereignissen zu überwachen. Ziel ist es, einen vorläufigen Leitfaden zu geben, um okulomotorische Reaktionen auf Dauerwahrnehmungsaufgaben (Vergleich oder Unterscheidung von Zeitintervallen) von Reaktionen auf den Reiz selbst zu trennen.

Abstract

Eye-Tracking-Methoden können die Online-Überwachung der kognitiven Verarbeitung während visueller Wahrnehmungsaufgaben ermöglichen, bei denen die Teilnehmer gebeten werden, Zeitintervalle zu schätzen, zu unterscheiden oder zu vergleichen, die durch visuelle Ereignisse wie blinkende Kreise definiert sind. Unseres Wissens blieben die Versuche, diese Möglichkeit zu validieren, bisher jedoch ergebnislos, und die Ergebnisse konzentrieren sich weiterhin auf Offline-Verhaltensentscheidungen, die nach dem Auftreten von Reizen getroffen werden. In diesem Artikel wird ein Eye-Tracking-Protokoll zur Untersuchung der kognitiven Prozesse vorgestellt, die Verhaltensreaktionen in einer Intervallvergleichsaufgabe vorausgehen, bei der die Teilnehmer zwei aufeinanderfolgende Intervalle betrachteten und entscheiden mussten, ob sie beschleunigt (erstes Intervall länger als das zweite) oder verlangsamt (zweites Intervall länger).

Unser Hauptanliegen war es, die okulomotorischen Reaktionen auf den visuellen Reiz selbst von Korrelaten der Dauer im Zusammenhang mit Urteilen zu trennen. Um dies zu erreichen, definierten wir drei aufeinanderfolgende Zeitfenster basierend auf kritischen Ereignissen: Beginn der Baseline, Beginn des ersten Intervalls, Beginn des zweiten Intervalls und Ende des Stimulus. Wir extrahierten dann traditionelle okulomotorische Maße für jedes (Anzahl der Fixationen, Pupillengröße) und konzentrierten uns auf zeitfensterbezogene Veränderungen, um die Reaktionen auf den visuellen Reiz von denen zu trennen, die sich auf den Intervallvergleich an sich beziehen. Wie wir in den illustrativen Ergebnissen zeigen, zeigten Eye-Tracking-Daten signifikante Unterschiede, die mit den Verhaltensergebnissen übereinstimmten, was Hypothesen über die beteiligten Mechanismen aufwarf. Dieses Protokoll ist noch in den Kinderschuhen und bedarf noch vieler Verbesserungen, aber es stellt einen wichtigen Fortschritt gegenüber dem derzeitigen Stand der Technik dar.

Introduction

Die Zeitwahrnehmungsfähigkeiten haben in den letzten Jahren zunehmend die Aufmerksamkeit der Forschung auf sich gezogen, was zum Teil darauf zurückzuführen ist, dass sich die Beweise häufen, dass diese mit Lesefähigkeiten oder pathologischen Zuständen zusammenhängenkönnen 1,2,3,4,5. Die Wahrnehmung der visuellen Dauer - die Fähigkeit, Zeitintervalle, die durch visuelle Ereignisse definiert sind, zu schätzen, zu unterscheiden oder zu vergleichen - ist ein Teilgebiet von Interesse 6,7, in dem Eye-Tracking-Methoden einen Beitrag leisten könnten. Die Ergebnisse konzentrieren sich jedoch weiterhin auf Verhaltensentscheidungen nach dem Stimulus, wie z. B. das Drücken eines Knopfes, um anzuzeigen, wie viel Zeit vergangen ist (Schätzung), ob die Zeitintervalle gleich oder unterschiedlich sind (Diskriminierung) oder welches von einer Reihe von Zeitintervallen das längste oder kürzeste ist. Einige Studien haben versucht, Verhaltensergebnisse mit Eye-Tracking-Daten zu korrelieren 8,9, aber sie konnten keine Korrelationen zwischen den beiden finden, was darauf hindeutet, dass ein direkter Zusammenhang fehlt.

In der vorliegenden Arbeit stellen wir ein Protokoll zur Registrierung und Analyse okulomotorischer Reaktionen während der Reizpräsentation in einer visuellen Dauerwahrnehmungsaufgabe vor. Konkret bezieht sich die Beschreibung auf eine Intervallvergleichsaufgabe, bei der die Teilnehmer Sequenzen von drei Ereignissen sahen, die zwei Zeitintervalle definierten, und gebeten wurden, zu beurteilen, ob sie schneller (erstes Intervall länger als zweites) oder langsamer (erstes kürzer als zweites) wurden. Die in der Studie verwendeten Zeitintervalle reichten von 133 bis 733 ms und entsprachen den Prinzipien des Temporal Sampling Framework (TSF)10. TSF deutet darauf hin, dass die oszillatorische Aktivität des Gehirns, insbesondere in Frequenzbändern wie Delta-Oszillationen (1-4 Hz), mit eingehenden Spracheinheiten wie Sequenzen von Betonungsakzenten synchronisiert wird. Diese Synchronisation verbessert die Kodierung von Sprache, verbessert die Aufmerksamkeit für Spracheinheiten und hilft, sequentielle Regelmäßigkeiten zu extrahieren, die für das Verständnis von Erkrankungen wie Legasthenie relevant sein können, die atypische niederfrequente Oszillationen aufweisen. Das Ziel der Studie, in der wir die hier vorgestellte Methode entwickelt haben, war es festzustellen, ob die Schwierigkeiten von Legasthenikern bei der Wahrnehmung der visuellen Dauer (Gruppeneffekte auf die Intervallvergleichsaufgabe) Probleme bei der Verarbeitung des visuellen Objekts selbst widerspiegeln, nämlich Bewegungs- und Luminanzkontraste11. Wenn dies der Fall wäre, erwarteten wir, dass der Nachteil von Legasthenikern gegenüber Kontrollen bei Reizen mit Bewegung und geringen Luminanzkontrasten (Interaktion zwischen Gruppe und Reiztyp) größer sein würde.

Das Hauptergebnis der ursprünglichen Studie wurde durch Verhaltensurteile nach dem Stimulus bestimmt. Eye-Tracking-Daten - Pupillengröße und Anzahl der Fixationen -, die während der Stimuluspräsentation aufgezeichnet wurden, wurden verwendet, um Prozesse zu untersuchen, die den Verhaltensentscheidungen vorausgingen. Wir glauben jedoch, dass das aktuelle Protokoll unabhängig von der Erhebung von Verhaltensdaten verwendet werden kann, sofern die Ziele entsprechend festgelegt werden. Möglicherweise ist es auch möglich, es für Intervallunterscheidungsaufgaben anzupassen. Die Verwendung in Zeitschätzungsaufgaben ist nicht so unmittelbar, aber wir würden diese Möglichkeit nicht ausschließen. Wir haben die Pupillengröße verwendet, weil sie unter anderem die kognitive Belastung 12,13,14 widerspiegelt und somit Informationen über die Fähigkeiten der Teilnehmer liefern kann (höhere Belastung bedeutet weniger Fähigkeiten). In Bezug auf die Anzahl der Fixierungen können mehr Fixationen die stärkere Auseinandersetzung der Teilnehmer mit der Aufgabe widerspiegeln15,16. Die ursprüngliche Studie verwendete fünf Stimulustypen. Zur Vereinfachung haben wir im aktuellen Protokoll nur zwei verwendet (Ball vs. Flash, was einen bewegungsbezogenen Kontrast darstellt).

Die größte Herausforderung, die wir zu lösen versuchten, bestand darin, die Reaktionen auf den visuellen Reiz selbst von denen zu trennen, die sich auf den Intervallvergleich beziehen, da bekannt ist, dass sich die okulomotorischen Reaktionen je nach Merkmalen wie Bewegung oder Leuchtdichtekontrasten ändern17. Ausgehend von der Prämisse, dass der visuelle Reiz verarbeitet wird, sobald er auf dem Bildschirm erscheint (erstes Intervall), und der Intervallvergleich erst möglich ist, wenn das zweite Zeitintervall beginnt, haben wir drei Zeitfenster definiert: Prästimulusfenster, erstes Intervall, zweites Intervall (Verhaltensreaktion nicht enthalten). Durch die Analyse der Veränderungen des Prestimulus-Fensters über das erste Intervall erhielten wir Indizes der Reaktionen der Teilnehmer auf den Stimulus selbst. Der Vergleich des ersten mit dem zweiten Intervall würde mögliche okulomotorische Signaturen des Intervallvergleichs erschließen - die Aufgabe, die die Teilnehmer ausführen sollten.

Protocol

Zweiundfünfzig Teilnehmer (25 mit Legasthenie diagnostiziert oder als potenzielle Fälle signalisiert und 27 Kontrollpersonen) wurden aus der Gemeinschaft (über soziale Medien und bequeme E-Mail-Kontakte) und einem Universitätskurs rekrutiert. Nach einer konfirmatorischen neuropsychologischen Bewertung und anschließender Datenanalyse (weitere Details siehe Goswami10) wurden sieben Teilnehmer von der Studie ausgeschlossen. Dieser Ausschluss umfasste vier Personen mit Legasthenie, die die Kriterien nicht erfüllten, zwei Legastheniker mit Ausreißerwerten in der primären experimentellen Aufgabe und einen Kontrollteilnehmer, dessen Eye-Tracking-Daten durch Rauschen beeinträchtigt wurden. Die endgültige Stichprobe bestand aus 45 Teilnehmern, 19 legasthenen Erwachsenen (ein Mann) und 26 Kontrollen (fünf Männer). Alle Teilnehmer waren portugiesische Muttersprachler, hatten normales oder normales Sehvermögen, und keiner hatte Hör-, neurologische oder Sprachprobleme diagnostiziert. Das hier beschriebene Protokoll wurde von der lokalen Ethikkommission der Fakultät für Psychologie und Erziehungswissenschaften der Universität Porto genehmigt (Ref.-Nr. 2021/06-07b), und alle Teilnehmer unterzeichneten eine Einverständniserklärung gemäß der Erklärung von Helsinki.

1. Erzeugung von Reizen

  1. Definieren Sie acht Sequenzen von zwei Zeitintervallen (Tabelle 1), wobei das erste kürzer ist als das zweite (Verlangsamungssequenz); Wählen Sie Intervalle, die mit der Bildrate der Animationssoftware kompatibel sind (hier 30 Bilder/s, 33 ms/Bild), indem Sie eine Bilddauer-Umrechnungstabelle verwenden.
  2. Erstellen Sie für jede Verlangsamungssequenz ein Beschleunigungsanalogon, das durch Umkehren der Reihenfolge der Intervalle erhalten wird (Tabelle 1).
  3. Konvertieren Sie in einer Tabelle die Intervalllänge in die Anzahl der Frames, indem Sie das Zielintervall (ms) durch 33 dividieren (z. B. geben Sie für eine Intervallsequenz von 300 bis 433 ms 9 bis 13 Frames an).
  4. Definieren Sie Keyframes für jede Sequenz: Stimulusbeginn bei Frame 7 (nach sechs leeren Frames, entsprechend 200 ms), Offset von Intervall 1 bei Frame 6 + Länge von Intervall 1 (6 + 9 für das angegebene Beispiel), dasselbe für den Offset von Intervall 2 (6 + 9 + 13). Stellen Sie zwei weitere Frames am Ende von Intervall 2 ein, um das Ende des Stimulus zu markieren (6+ 9 + 13 +2).
  5. Erstellen Sie Flash-Sequenzen als Animationen.
    1. Führen Sie die Animationssoftware (z. B. Adobe Animate) aus und erstellen Sie eine neue Datei mit schwarzem Hintergrund.
    2. Zeichnen Sie bei Bild 7 einen blauen Kreis in der Bildschirmmitte. Achten Sie darauf, dass er aufgrund seiner Abmessungen etwa 2° des Gesichtsfeldes mit dem geplanten Bildschirm-Augen-Abstand (hier 55 cm) einnimmt, was bedeutet, dass der Kugeldurchmesser 1,92 cm beträgt.
    3. Kopieren Sie dieses Bild und fügen Sie es in das nächste benachbarte Bild ein (beginnend mit Bild 7), so dass jeder Blitz etwa 99 ms dauert.
    4. Kopieren Sie diese Zwei-Frame-Sequenz und fügen Sie sie in die anderen beiden Keyframes ein (Beginn der Intervalle 1 und 2).
    5. Erstellen Sie die verbleibenden 15 Animationen, indem Sie Kopien der Datei erstellen und die Intervall-Onsets in die entsprechenden Frames verschieben.
  6. Erstellen Sie hüpfende Ballsequenzen als Animationen.
    1. Öffnen Sie eine Datei in der Animationssoftware mit den gleichen Spezifikationen (Größe, Hintergrund), die in Flash-Animationen verwendet werden. Öffnen Sie die Tabelle mit den Keyframe-Spezifikationen, sodass die Keyframes jetzt gequetschten Bällen entsprechen, die auf den Boden treffen.
    2. Beginnen Sie mit drei Bildern mit schwarzem Hintergrund (99 ms). Zeichnen Sie im 4. Bild oben in der Mitte eine blaue Kugel, die der für Blitze verwendeten entspricht.
    3. Zeichnen Sie einen gequetschten Ball (Breite größer als Höhe) am Reizbeginnpunkt, der drei Frames dauert (Beginn von Intervall 1). Stellen Sie sicher, dass die Kugel horizontal zentriert und vertikal unter der Mitte des Bildschirms liegt.
      1. Klicken Sie auf die Schaltfläche Eigenschaften des Objekts und dann auf Position und Größe , um den Ball auf der gewählten Quetschhöhe zu positionieren und die Breite zu erhöhen/Höhe zu verringern.
    4. Erzeugen Sie einen kontinuierlichen Wechsel mit dem Tween-Befehl vom Ball oben zum gequetschten Ball (vertikaler Abstieg).
    5. Kopieren Sie die Drei-Frame-Sequenz mit dem gequetschten Ball in die anderen beiden Keyframes (Beginn der Intervalle 1 und 2).
    6. Teilen Sie in der Tabelle die Dauer jedes Intervalls durch 2, um die Mittelpunkte zwischen zwei Squashes für die Intervalle 1 und 2 zu definieren, bei denen der Ball nach dem Aufsteigen und vor dem Absteigen die maximale Höhe erreicht.
    7. Zeichnen Sie einen nicht gequetschten Ball senkrecht über dem tiefsten Punkt der Flugbahn an den in Schritt 1.6.6 definierten Mittelpunkten. Generieren Sie die aufsteigende Animation zwischen dem Intervallbeginn (wenn der Ball auf den Boden trifft) und dem höchsten Punkt sowie zwischen dem höchsten Punkt und dem nächsten Squash (Abstieg).
  7. Passen Sie die Datei an die anderen 15 Zeitstrukturen an.
  8. Exportieren Sie alle Animationen als .xvd. Wenn die Option nicht verfügbar ist, exportieren Sie als .avi und konvertieren Sie sie so, dass sie im Eyelink-System verwendet werden kann.

2. Versuchsvorbereitung

  1. Erstellen des Experimentordners
    1. Öffnen Sie die Experiment Builder-Anwendung , und wählen Sie in der Menüdatei die Option Neu aus.
    2. Speichern Sie das Projekt, indem Sie auf Datei | Speichern unter. Geben Sie den Namen des Projekts und den Speicherort an, an dem es gespeichert werden soll.
      HINWEIS: Dadurch wird ein ganzer Ordner mit Unterordnern für Stimulusdateien und andere Materialien erstellt. Die Experimentdatei wird in dem Ordner mit der Erweiterung .ebd angezeigt.
    3. Klicken Sie im Projektordner auf Bibliothek und dann in den Ordner mit dem Namen Video. Laden Sie die .xvid-Video-Stimulus-Dateien in diesen Ordner hoch.
      HINWEIS: Alle im Experiment verwendeten Stimuli müssen in der Bibliothek gespeichert werden.
  2. Schaffung der Grundstruktur für die Interaktion innerhalb des Systems und zwischen Mensch und System
    1. Ziehen Sie das Startfenster und die Bildschirmsymbole in das Diagrammeditorfenster. Erstellen Sie eine Verbindung zwischen ihnen, indem Sie klicken und die Maus von der ersten zur zweiten ziehen.
    2. Klicken Sie in den Eigenschaften des Bildschirms auf die Schaltfläche Mehrzeilige Textressource einfügen und geben Sie einen Anweisungstext ein, der das folgende Kalibrierungsverfahren erklärt.
    3. Wählen Sie zwei Auslöser (Eingangskanäle, um im Experiment voranzukommen): Tastatur und el-Taste (Schaltflächenfeld). Verknüpfen Sie den Bildschirm mit beiden.
      HINWEIS: Diese Auslöser ermöglichen es dem Teilnehmer oder dem Experimentator, auf eine beliebige Schaltfläche zu klicken, um fortzufahren.
    4. Wählen Sie das Symbol Kamera-Setup und verknüpfen Sie beide Auslöser damit.
      HINWEIS: Auf diese Weise kann die Kommunikation mit dem Eyetracker hergestellt werden, so dass die Augen des Teilnehmers zur Kameraeinstellung, Kalibrierung und Validierung überwacht werden können (siehe Abschnitt 4).
    5. Wählen Sie das Symbol Ergebnisdatei und ziehen Sie es auf die rechte Seite des Flussdiagramms.
      HINWEIS: Diese Aktion ermöglicht es, die Verhaltensreaktionen des Experiments aufzuzeichnen.
  3. Definieren der Blockstruktur
    1. Wählen Sie das Sequenzsymbol und verknüpfen Sie es (siehe Schritt 2.2.1) mit dem Kamera-Setup.
    2. Klicken Sie in den Eigenschaften auf Iterationsanzahl und wählen Sie 2 für die Anzahl der Blöcke (Blitze und Bälle).
    3. HINWEIS: Dadurch wird die Darstellung von Blitzen von der von Kugeln getrennt.
    4. Geben Sie die Reihenfolge (Blockdefinition) ein und ziehen Sie ein Startfeldsymbol, ein Anzeigesymbol und die Auslöser el_button und Tastatur. Verknüpfen Sie sie in dieser Reihenfolge.
    5. Klicken Sie im Bildschirmsymbol auf die Schaltfläche Mehrzeilige Textressource einfügen und geben Sie einen Anweisungstext ein, in dem das Experiment erläutert wird.
  4. Definieren der Versuchsstruktur
    1. Ziehen Sie innerhalb der Blocksequenz das Symbol Neue Sequenz in den Editor, um die Testsequenz zu erstellen.
      HINWEIS: Durch das Verschachteln der Testsequenz innerhalb der Blocksequenz können mehrere Versuche in jedem Block ausgeführt werden.
    2. Ziehen Sie innerhalb der Testsequenz ein Startfenster und ein Symbol für die Sequenz vorbereiten und verknüpfen Sie die zweite mit der ersten.
      HINWEIS: Diese Aktion lädt die experimentellen Stimuli, die dem Teilnehmer präsentiert werden.
    3. Ziehen Sie das Symbol für die Abweichungskorrektur auf die Benutzeroberfläche und verknüpfen Sie es mit dem Symbol für die Vorbereitung der Sequenz.
      HINWEIS: Die Driftkorrektur zeigt ein einzelnes Fixationsziel auf dem Monitor des Stimulationscomputers an und ermöglicht den Vergleich der Cursor-Blickposition mit der tatsächlichen Stimuliposition auf dem Aufnahmecomputer. Die Driftprüfung und die entsprechende Korrektur beginnen automatisch nach jedem Versuch, um sicherzustellen, dass die anfängliche Kalibrierungsqualität erhalten bleibt.
  5. Definieren der Aufnahmestruktur
    1. Ziehen Sie innerhalb der Testsequenz das Symbol Neue Sequenz in den Editor, um die Aufnahmesequenz zu erstellen.
      HINWEIS: Die Aufnahmesequenz ist für die Erfassung von Augendaten verantwortlich und wird dort präsentiert, wo die visuellen Reize präsentiert werden.
    2. Wählen Sie in den Eigenschaften dieser Sequenz die Option Aufzeichnen .
      HINWEIS: Auf diese Weise beginnt der Eyetracker mit der Aufzeichnung, wenn der Stimulus beginnt, und stoppt, wenn der Stimulus endet.
    3. Klicken Sie in den Eigenschaften auf Datenquelle und füllen Sie in jeder Zeile die Tabelle (Typ oder Auswahl) mit dem genauen Dateinamen jedes Stimulus, der Art der Versuchspraxis oder des Experiments, wie oft jeder Stimulus präsentiert wird (1 hier) und der erwarteten Antwortschaltfläche .
      HINWEIS: Die Dateinamen müssen mit den in der Bibliothek hochgeladenen Dateinamen identisch sein, einschließlich der Dateierweiterung (z. B. ball_sp_1.xvd).
    4. Klicken Sie im oberen Bereich der Benutzeroberfläche auf Randomisierungseinstellungens und markieren Sie die Kontrollkästchen Randomisierung für Studien aktivieren , um sicherzustellen, dass die Stimuli innerhalb jedes Blocks randomisiert werden. Klicken Sie auf die Schaltfläche Ok , um zur Benutzeroberfläche zurückzukehren.
    5. Erstellen Sie in der Aufnahmesequenz die Verbindung Startpanel und Bildschirm. Wählen Sie auf dem Bildschirm die Schaltfläche Videoressource einfügen (Kamerasymbol) und ziehen Sie sie auf die Benutzeroberfläche.
    6. Verknüpfen Sie die Tastatur- und el-Tasten-Trigger mit dem Anzeigesymbol (wie in Schritt 2.2.1), damit der Teilnehmer antworten kann.
    7. Ziehen Sie das Symbol Genauigkeit prüfen und verknüpfen Sie es mit den Auslösern wie in Schritt 2.2.1.
      HINWEIS: Mit dieser Aktion kann die Software überprüfen, ob die gedrückte Taste mit dem Wert der richtigen Antwortspalte der Datenquelle übereinstimmt.
  6. Abschließen des Experiments
    1. Klicken Sie oben im Hauptfenster auf das Pfeilsymbol Ausführen , um einen Test des Experiments durchzuführen.

3. Geräteaufbau

  1. Schließen Sie den Stimulationscomputer an ein 5-Tasten-Feld und eine Tastatur an.
  2. Verbinden Sie den Stimulationscomputer (mit der systemspezifischen Präsentationssoftware) mit dem Eyetracker (Abbildung 1), der sich unter oder vor dem Monitor befindet.
  3. Verbinden Sie den Eyetracker mit dem Aufnahmecomputer.

Figure 1
Abbildung 1: Das Eye-Tracking-Setup. Die räumliche Anordnung des Aufzeichnungssystems setzt sich aus dem Stimulationscomputer, dem Aufzeichnungscomputer, dem Eyetracker, dem Reaktionsgerät (Tastenfeld) und der Tastatur zusammen. Die Teilnehmer saßen 55 cm vom Stimulationsbildschirm entfernt. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

4. Vorbereitung der Datenerhebung

  1. Holen Sie die Einverständniserklärung der Teilnehmer ein und beschreiben Sie ihnen das experimentelle Format. Positionieren Sie den Teilnehmer in einem Abstand vom Stimulationscomputer, so dass der Stimuluskreis (Blitz oder Ball) des Gesichtsfeldes entspricht (typischer Abstand ~ 60 cm).
  2. Wählen Sie die Abtastfrequenz (1.000 Hz für hohe Auflösung) und die aufzunehmenden Augen (dominantes Auge).
  3. Stellen Sie in der vom Aufnahmecomputer bereitgestellten Visualisierung sicher, dass der Eyetracker das Ziel (ein Stock, der zwischen den Augenbrauen des Teilnehmers platziert wird) und das dominante Auge stabil verfolgt. Bewegen Sie die Kamera bei Bedarf nach oben oder unten.
  4. Öffnen Sie das Experiment. Führen Sie die vom System bereitgestellten 5-Punkt-Kalibrierungs- und Validierungsverfahren vom Aufzeichnungscomputer aus aus, um eine genaue und zuverlässige Aufzeichnung der Augenbewegungen zu ermöglichen. Weisen Sie den Teilnehmer an, auf einen Punkt zu blicken, der an (5) verschiedenen Stellen auf dem Bildschirm erscheint (einmal zur Kalibrierung, zweimal zur Validierung).
    HINWEIS: Akzeptieren Sie Fehler nur unter 0,5°.

5. Ausführen des Experiments

  1. Erklären Sie dem Teilnehmer die Aufgabe.
  2. Präsentieren Sie die Übungsversuche und klären Sie die Zweifel der Teilnehmer.
  3. Starten Sie das Experiment, indem Sie auf Ausführen klicken.
  4. Pausieren Sie das Experiment zwischen den Bedingungen und erklären Sie, dass der Stimulus jetzt anders sein wird, aber die Frage ist dieselbe.

6. Zeitfenster für die Analyse erstellen

  1. Gehen Sie in der Dataviewer-Software18 zu Datei, dann zu Daten importieren und schließlich zu Mehrere EyeLink-Datendateien. Wählen Sie im Dialogfeld die Dateien aller Teilnehmer aus.
  2. Wählen Sie eine Testversion aus. Wählen Sie das quadratische Symbol aus, um einen Interessenbereich zu zeichnen.
    HINWEIS: Der Interessenbereich definiert sowohl einen Bereich des Bildschirms als auch ein Zeitfenster innerhalb der Testversion. Hier wählen wir immer den Vollbildmodus aus.
  3. Um TW all zu erstellen (Abbildung 2), klicken Sie auf das Zeichensymbol und wählen Sie den Vollbildmodus aus. Beschriften Sie im geöffneten Dialogfeld den Interessenbereich als TW_all und definieren Sie ein Zeitsegment , das der vollständigen Testversion entspricht.
    1. Klicken Sie auf Interessenbereichssatz speichern und wenden Sie diese Vorlage auf alle Versuche mit gleicher Länge an (z. B. Zeitstrukturen 1 und 8 aus Tabelle 1, sowohl für Bälle als auch für Blitze, für alle Teilnehmer).
  4. Wählen Sie eine der 16 Zeitstrukturen aus Tabelle 1 aus. Definieren Sie TW_0, TW_1 und TW_2 wie in Schritt 6.3, aber gemäß den in Abbildung 2 schematisierten Zeitlimits (Zeitfenstergrenzen entsprechen Flash-Erscheinungen und Ball-Squashes). Die Länge von TW0 ist anpassbar.
    1. Beschriften Sie jeden Interessenbereich und wenden Sie die Vorlage mit der gleichen Zeitstruktur (Bälle und Blitze, alle Teilnehmer) auf die Prüfungen an.
    2. Wiederholen Sie den Vorgang für die verbleibenden 15 Zeitstrukturen.

Figure 2
Abbildung 2: Stimulus-Typ. Sequenzen von hüpfenden Bällen (links) und Blitzen (rechts), die im Experiment verwendet wurden. Die gestrichelten Linien zeigen die Zeitfenster an, die für die Analyse verwendet werden: TW0 ist die Vorstimulusperiode; TW1 ist das erste Erscheinen des Stimulus auf dem Bildschirm und markiert das erste Intervall - wenn der Teilnehmer Informationen über die Reizeigenschaften und die Länge des ersten Intervalls hat, und TW2 markiert das zweite Intervall - wenn der Teilnehmer das erste mit dem zweiten Intervall vergleichen kann, um eine Entscheidung (verlangsamt oder beschleunigt) zu erarbeiten. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

7. Maßnahmen zur Extraktion

  1. Klicken Sie in der Menüleiste auf Analyse | Bericht |Interessengebietsbericht.
  2. Wählen Sie die folgenden Messwerte aus, um die Verweilzeit, die Anzahl der Fixationen und die Pupillengröße zu extrahieren, und klicken Sie dann auf Weiter.
    HINWEIS: Die Ausgabe sollte Daten von 16 Flash-Versuchen und 16 Bouncing Ball-Versuchen pro Teilnehmer (32 Versuche x n Teilnehmer) enthalten, die für jedes der vier Zeitfenster (TW0, TW1, TW2, TW alle) angegeben sind.
  3. Exportieren Sie die Matrix als .xlsx Datei.

8. Versuche mit Artefakten entfernen

  1. Betrachten Sie Verweilzeitmessungen für TW all und markieren Sie Versuche mit mehr als 30 % Signalverlust (Verweilzeit < 70 % der Versuchszeit).
    HINWEIS: Beachten Sie, dass jeder der 32 Versuche eine andere Länge hat.
  2. Schließen Sie verrauschte (markierte) Trails aus der Matrix aus und speichern Sie sie.

9. Statistische Auswertung

  1. Führen Sie für jede Messung zwei ANOVA mit wiederholten Messungen (TW x Gruppe x Stimulus) durch, eine mit TW 0 und 1, die andere mit TW 1 und 2.
  2. Korrelieren Sie TW-bezogene Veränderungen mit Verhaltensergebnissen, falls verfügbar.

Representative Results

Um TW-bedingte Veränderungen besser zu verstehen, konzentrierte sich unsere Analyse auf das Zusammenspiel von Zeitfenstern (TW0 vs. TW1, TW1 vs. TW2) mit Stimulustyp und -gruppe. Wie in Abbildung 3 dargestellt, zeigten beide TW-bezogenen Vergleiche (TW01 und TW12) unterschiedliche Veränderungsgrade je nach Stimulus (TW x Stimulus-Interaktion), wobei Bälle in beiden Gruppen mehr TW-bezogene Veränderungen der okulomotorischen Reaktionen hervorriefen als Blitze (keine TW x Stimulus x Gruppeninteraktion). Dies geschah sowohl für die Pupillengröße als auch für die Anzahl der Fixationen. In Bezug auf Gruppeneinflüsse fanden wir eine TW x Gruppeninteraktion auf die Veränderung der Anzahl der Fixationen von TW0 zu TW1 (Reaktion auf Stimulusbeginn): Legastheniker zeigten eine verringerte Veränderung, hauptsächlich aufgrund niedrigerer Prästimuluswerte. Wechselwirkungen zwischen TW, Stimulus und Gruppe fehlten. Dies zeigt, dass die Gruppeneinflüsse sowohl für Bälle als auch für Blitze ähnlich waren.

Figure 3
Abbildung 3: Ergebnisse. Zeitfensterbedingte Veränderungen der Pupillengröße und der Anzahl der Fixationen in Abhängigkeit von der Gruppe (Kontrolle vs. Legastheniker, TW x Gruppe) und dem Stimulustyp (Balls, B, vs. Flashes, F, TW x Stimulus). TW 0-1 befasst sich mit dem Kontrast zwischen keinem Stimulus und Stimulussichtbarkeit; TW 1-2 vergleicht das erste und zweite Intervall, um den Intervallvergleich zu adressieren. Die 95%-Konfidenzintervalle werden durch vertikale Balken dargestellt. Bälle lösten mehr Veränderungen als Blitze von TW0 über TW1 (mehr Abnahme) und von TW1 über TW2 (mehr Anstieg) in beiden Eye-Tracking-Messungen und beiden Gruppen (TW x Stimulus, kein TW x Stimulus x Gruppe) aus. Die Veränderungen in der Anzahl der Fixationen bei TW 0-1 waren bei Legasthenikern geringer als bei Kontrollen, unabhängig vom Stimulustyp (TW x Gruppe, kein TW x Stimulus x Gruppe). Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 4
Abbildung 4: Verhaltensergebnisse. (A) Unterscheidung zwischen Beschleunigungs- und Verlangsamungssequenzen (d-prime) pro Gruppe und Stimulustyp. (B) Signifikante Korrelationen zwischen Verhaltensleistung (d-prime) und zeitfensterbedingten Veränderungen der Augenbewegungen, beide stimulusgemittelt. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Entscheidend ist, dass diese Werte im Einklang mit der Hauptstudie mit den Verhaltensergebnissen übereinstimmten (Abbildung 4A): Die Verhaltensergebnisse wiesen auf Stimuluseffekte (geringere Genauigkeit für Bälle als für Flashes) und Gruppeneffekte (schlechtere Leistung bei Legasthenikern) hin, ohne Stimulusinteraktionen der Gruppe x. Darüber hinaus korrelierten wir in der ursprünglichen Studie mit fünf verschiedenen Stimuli verhaltensbezogene mit Eye-Tracking-Daten (Anzahl der Fixierungen), die für alle Stimulustypen gemittelt wurden, und fanden eine Korrelation in der Legasthenikergruppe: Kleinere Veränderungen von TW0 gegenüber TW1 koexistierten mit verbesserter Leistung. Insgesamt schienen die Ergebnisse mit der Hypothese übereinzustimmen, dass diese (erwachsenen) Legastheniker auf kompensatorische Strategien zurückgreifen könnten, um die Aufmerksamkeit auf den Reiz selbst in der Prästimulus-Phase absichtlich zu kontrollieren (weniger Fixierungen auf dem leeren Bildschirm würden die Konzentration auf den Reiz zum Zeitpunkt seines Erscheinens begünstigen). Wir fanden keine solche Korrelation bei Kontrollen, was darauf hindeutet, dass sie möglicherweise nicht auf Strategien zurückgreifen müssen, um den Fokus zu behalten. Der hier zur Veranschaulichung verwendete eingeschränkte Datensatz (nur zwei Stimuli, Balls und Flashes) zeigte das gleiche Muster (Abbildung 4B): Legastheniker, aber keine Kontrollen, zeigten signifikante Korrelationen zwischen d-prime (Verhaltensdiskriminierungsindex) und TW01-bezogenen Veränderungen.

Zusammenfassend lässt sich sagen, dass die Eye-Tracking-Ergebnisse, die sich mit den Reaktionen der Teilnehmer sowohl auf den Stimulusbeginn (TW 0-1) als auch auf den Intervallvergleich (TW 1-2) befassten, die Verhaltensbeweise replizierten, dass Bälle und Blitze bei Personen mit und ohne Legasthenie unterschiedliche Reaktionen hervorrufen (TW x Stimulus bei Eye-Tracking-Messungen, Stimuluseffekte auf d-prime). Ein Teil der Eye-Tracking-Ergebnisse entsprach auch den Gruppeneffekten auf d-prime, da die Veränderungen in der Anzahl der Fixationen bei Stimulusbeginn (TW 0-1) bei Legasthenikern geringer waren. Darüber hinaus waren die Interaktionen zwischen Stimulus und Gruppe (unterschiedliche Grade der Abweichung bei Legasthenikern für Bälle vs. Blitze) für Verhaltens- und Eye-Tracking-Daten null. Schließlich war die Korrelation zwischen Verhaltensleistung und okulomotorischer Reaktion in der Legasthenikergruppe signifikant.

Reihenfolge Art Intervall 1 Intervall 2 Unterschied
1 Beschleunigen 433 300 133
2 Beschleunigen 300 167 133
3 Beschleunigen 467 433 34
4 Beschleunigen 733 167 566
5 Beschleunigen 467 300 167
6 Beschleunigen 433 134 299
7 Beschleunigen 534 233 301
8 Beschleunigen 500 433 67
9 Mach langsamer 300 433 -133
10 Mach langsamer 167 300 -133
11 Mach langsamer 433 467 -34
12 Mach langsamer 167 733 -566
13 Mach langsamer 300 467 -167
14 Mach langsamer 133 434 -301
15 Mach langsamer 233 534 -301
16 Mach langsamer 433 500 -67
Durchschnittliches Intervall 377.1
Durchschnittliche Differenz 212.6
Durchschnittliche Differenz/Intervall 294.8

Tabelle 1: Intervalldauer. Stimulussequenzen für Beschleunigungs- und Verlangsamungssequenzen in Millisekunden.

Discussion

Das aktuelle Protokoll enthält eine neuartige Komponente, die entscheidend sein könnte, um aktuelle Hindernisse für die Integration von Eye-Tracking in visuelle Wahrnehmungsaufgaben zu überwinden. Der entscheidende Schritt ist hier die Definition von Zeitfenstern auf der Grundlage kognitiver Prozesse, die vermutlich in jedem dieser Zeitfenster stattfinden. In dem von uns verwendeten System können Zeitfenster nur als Interessengebiete definiert werden (ein raumbezogenes Konzept, das in diesen Systemen an die Zeit gekoppelt ist), aber in anderen Systemen ist es möglich, dies durch den Export verschiedener Segmente des Versuchs zu tun. Zusätzlich zu dieser zeitlichen Segmentierung der Studie ist es wichtig, sich auf die Analyse von Änderungen über Zeitfenster hinweg zu konzentrieren und nicht auf die Parameter pro Zeitfenster.

Die Änderungen am Protokoll, die vorgenommen werden mussten, bezogen sich hauptsächlich auf die Dimensionen des Interessengebiets. Wir haben einen ersten Versuch mit dynamischen AOIs unternommen - wir haben eine räumliche Auswahl um den folgenden Stimulus herum definiert, anstatt den gesamten Bildschirm. Wir merkten jedoch bald, dass wir relevante Ereignisse außerhalb dieses Gebiets verpassen könnten. Da unsere Messungen nichts mit der Konzentration auf den Stimulus zu tun hatten (es wurde erwartet, dass sich die Pupillengröße je nach kognitiver Belastung und nicht nach der Aufmerksamkeit für den Blitz oder den Ball ändert; die Anzahl der Fixationen sollte die räumliche Suche widerspiegeln), entschieden wir uns, den Vollbildmodus als interessierende Region zu verwenden.

Das derzeitige Protokoll ist ein embryonaler Vorschlag, der noch vielen Verfeinerungen unterliegt. Wir werden nur zwei davon hervorheben, auch wenn es noch viel Raum für Verbesserungen gibt. Die erste betrifft die Unterschiede in der Länge der drei Zeitfenster, die es uns unmöglich machen, Zeitfenstereffekte auf die Anzahl der Fixationen zu interpretieren (z. B. bringt ein längeres Zeitfenster mehr Fixationen mit sich, daher die Abnahme von TW0 auf TW1, siehe Abbildung 3). Eine Möglichkeit, dieses Problem anzugehen, wäre die Berücksichtigung der Anzahl der Fixationen pro Zeiteinheit.

Die zweite bezieht sich auf die Entsprechung zwischen Zeitfenstern und vermeintlich laufenden Prozessen, die verschiedene Fragen umfasst. Einer ist, dass TW1 nicht nur das Auftreten von Reizen darstellt, sondern wahrscheinlich auch eine explizite Form der Intervallschätzung (erstes Intervall), die dem Intervallvergleich untergeordnet ist und in TW0 wahrscheinlich nicht vorhanden ist. In ähnlicher Weise können Änderungen über Zeitfenster hinweg auch Veränderungen in allgemeinen Prozessen wie anhaltender Aufmerksamkeit und Arbeitsgedächtniswiderspiegeln 18, obwohl einige dieser Änderungen in einer Intervallvergleichsaufgabe zu erwarten wären (die Arbeitsgedächtnisbelastung wird voraussichtlich von TW1 gegenüber TW2 zunehmen). Eine Möglichkeit, diese potenziellen Störfaktoren abzuschwächen, wäre die Einführung von Kontrollaufgaben, die sich auf die reine Dauerschätzung, die anhaltende Aufmerksamkeit und das Arbeitsgedächtnis beziehen, und dann die Eye-Tracking-Datenanalyse auf den Vergleich zwischen experimentellen (Intervallvergleich) und Kontrollaufgaben zu stützen. Ein weiteres Problem ist, dass die Dauer von TW0 für die Aufgabe irrelevant war, und es ist bekannt, dass aufgabenirrelevante Dauern für die Leistung schädlich sein können19. Zukünftige Arbeiten könnten sich darauf konzentrieren, dies zu verbessern, nämlich durch die Erzeugung einer Differenz von 300 ms zwischen TW0 (irrelevantes Intervall) und TW1, um die Reaktionen der visuellen Verarbeitung besser abzugrenzen, da ein kurzes Ereignis so verzerrt werden kann, dass es früher oder später als seine Präsentation wahrgenommen wird, indem einfach ein weiteres Ereignis in nahezu zeitlicher Nähehinzugefügt wird 20,21.

Schließlich kann spontanes Augenblinzeln die Zeitwahrnehmung beeinflussen, indem es sie verzerrt (Dilatation der Zeit, wenn ein Augenblinzeln dem Intervall vorausgeht, Kontraktion, wenn es gleichzeitig auftritt), was möglicherweise zu Variabilität in der intraindividuellen Zeitleistung führt22. Eine Möglichkeit, dieses Problem zu minimieren, wäre die Anwendung eines auf Augenblinzeln basierenden Korrekturfaktors in den Verhaltensurteilen der Teilnehmer (z. B. Zuweisung einer Zuverlässigkeitsrate für jedes Urteil in Abhängigkeit vom Vorhandensein von Blinzeln vor oder während der Reize). Darüber hinaus kann die Einbeziehung des statistischen Ansatzes, Studien als Zufallsvariablen zu behandeln, auch bei der Lösung dieses Problems helfen.

In Bezug auf zukünftige Forschung wäre ein wichtiges Thema, das es zu behandeln gilt, der Zusammenhang zwischen spontaner Augenblinzelrate (EBR) und Zeitwahrnehmung. Es ist bekannt, dass EBR ein nicht-invasiver indirekter Marker für die zentrale Dopaminfunktion (DA)23 ist, und in jüngerer Zeit war ein hoher ERB mit einer schlechteren zeitlichen Wahrnehmung verbunden. Die Studie deutet auf eine Implikation von Dopamin beim Intervall-Timing hin und weist auf die Verwendung von ERB als Proxy für den Dopaminwert24 hin. Ein weiteres wichtiges Thema ist die funktionale Bedeutung der von uns analysierten (veränderungsbezogenen) Maßnahmen, die im Kontext unseres Paradigmas noch zu bestimmen ist. Sowohl in der ursprünglichen Studie als auch im aktuellen vereinfachten Datensatz stimmten die Erhöhungen der Pupillengröße von TW0 auf TW1 mit der Idee einer erhöhten kognitiven Belastung überein, aber das Fehlen von Gruppeneffekten auf dieses Maß schließt weitere Überlegungen aus. Ein Muster, das sich zu zeigen scheint, ist, dass kleinere Veränderungen über Zeitfenster hinweg mit einer besseren Verhaltensleistung korrelierten (Blitze besser als Bälle und d-prime bei Legasthenikern im Zusammenhang mit kleineren Veränderungen), aber weitere Forschung ist erforderlich.

Trotz seiner Einschränkungen ist das aktuelle Protokoll unseres Wissens das erste, das parallele Ergebnisse bei Eye-Tracking- und Verhaltensdaten (gleiches Wirkungsprofil) sowie einige Hinweise auf die Korrelation zwischen den beiden zeigt.

Disclosures

Die Autoren haben keine Interessenkonflikte offenzulegen.

Acknowledgments

Diese Arbeit wurde von der portugiesischen Stiftung für Wissenschaft und Technologie im Rahmen von Zuschüssen UIDB/00050/2020 unterstützt; und PTDC/PSI-GER/5845/2020. Das APC wurde vollständig von der portugiesischen Stiftung für Wissenschaft und Technologie im Rahmen des Zuschusses PTDC/PSI-GER/5845/2020 (http://doi.org/10.54499/PTDC/PSI-GER/5845/2020) finanziert.

Materials

Name Company Catalog Number Comments
Adobe Animate Adobe It is a tool for designing flash animation films, GIFs, and cartoons.
EyeLink Data Viewer It is robust software that provides a comprehensive solution for visualizing and analyzing gaze data captured by EyeLink eye trackers. It is accessible on Windows, macOS, and Linux platforms. Equipped with advanced capabilities, Data Viewer enables effortless visualization, grouping, processing, and reporting of EyeLink gaze data.
Eye-tracking system SR Research EyeLink 1000 Portable Duo It has a portable duo camera, a Laptop PC Host, and a response device. The EyeLink integrates with SR Research Experiment Builder, Data Viewer, and WebLink as well as many third-party stimulus presentation software and tools.
Monitor Samsung Syncmaster  957DF It is a 19" flat monitor 
SR Research Experiment Builder SR Research It is an advanced and user-friendly drag-and-drop graphical programming platform designed for developing computer-based experiments in psychology and neuroscience. Utilizing Python as its foundation, this platform is compatible with both Windows and macOS, facilitating the creation of experiments that involve both EyeLink eye-tracking and non-eye-tracking functionalities.

DOWNLOAD MATERIALS LIST

References

  1. Bellinger, D., Altenmüller, E., Volkmann, J. Perception of time in music in patients with parkinson's disease - The processing of musical syntax compensates for rhythmic deficits. Frontiers in Neuroscience. 11, 68 (2017).
  2. Plourde, M., Gamache, P. L., Laflamme, V., Grondin, S. Using time-processing skills to predict reading abilities in elementary school children. Timing & Time Perception. 5 (1), 35-60 (2017).
  3. Saloranta, A., Alku, P., Peltola, M. S. Listen-and-repeat training improves perception of second language vowel duration: evidence from mismatch negativity (MMN) and N1 responses and behavioral discrimination. International Journal of Psychophysiology. 147, 72-82 (2020).
  4. Soares, A. J. C., Sassi, F. C., Fortunato-Tavares, T., Andrade, C. R. F., Befi-Lopes, D. M. How word/non-word length influence reading acquisition in a transparent language: Implications for children's literacy and development. Children (Basel). 10 (1), 49 (2022).
  5. Sousa, J., Martins, M., Torres, N., Castro, S. L., Silva, S. Rhythm but not melody processing helps reading via phonological awareness and phonological memory. Scientific Reports. 12 (1), 13224 (2022).
  6. Torres, N. L., Luiz, C., Castro, S. L., Silva, S. The effects of visual movement on beat-based vs. duration-based temporal perception. Timing & Time Perception. 7 (2), 168-187 (2019).
  7. Torres, N. L., Castro, S. L., Silva, S. Visual movement impairs duration discrimination at short intervals. Quarterly Journal of Experimental Psychology. 77 (1), 57-69 (2024).
  8. Attard, J., Bindemann, M. Establishing the duration of crimes: an individual differences and eye-tracking investigation into time estimation. Applied Cognitive Psychology. 28 (2), 215-225 (2014).
  9. Warda, S., Simola, J., Terhune, D. B. Pupillometry tracks errors in interval timing. Behavioral Neuroscience. 136 (5), 495-502 (2022).
  10. Goswami, U. A neural basis for phonological awareness? An oscillatory temporal-sampling perspective. Current Directions in Psychological Science. 27 (1), 56-63 (2018).
  11. Catronas, D., et al. Time perception for visual stimuli is impaired in dyslexia but deficits in visual processing may not be the culprits. Scientific Reports. 13, 12873 (2023).
  12. Zagermann, J., Pfeil, U., Reiterer, H. Studying eye movements as a basis for measuring cognitive load. Extended Abstracts of the 2018 CHI Conference on Human Factors in Computing Systems. , ACM Press. New York. 1-6 (2018).
  13. Rafiqi, S., et al. PupilWare: Towards pervasive cognitive load measurement using commodity devices. Proceedings of the 8th ACM International Conference on PETRA. , 1-8 (2015).
  14. Klingner, J., Kumar, R., Hanrahan, P. Measuring the task-evoked pupillary response with a remote eye tracker. Proceedings of the 2008 Symposium on ETRA. , 69-72 (2008).
  15. Mahanama, B., et al. Eye movement and pupil measures: a review. Frontiers in Computer Science. 3, 733531 (2022).
  16. Pfleging, B., Fekety, D. K., Schmidt, A., Kun, A. L. A model relating pupil diameter to mental workload and lighting conditions. Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems. , 5776-5788 (2016).
  17. Cicchini, G. M. Perception of duration in the parvocellular system. Frontiers in Integrative Neuroscience. 6, 14 (2012).
  18. EyeLink Data Viewer 3.2.1. SR Research Ltd. , Available from: https://www.sr-research.com/data-viewer/ (2018).
  19. Spencer, R., Karmarkar, U., Ivry, R. Evaluating dedicated and intrinsic models of temporal encoding by varying contex. Philosophical Transactions of the Royal Society B. 364 (1525), 1853-1863 (2009).
  20. Coull, J. T. Getting the timing right: experimental protocols for investigating time with functional neuroimaging and psychopharmacology. Advances in Experimental Medicine and Biology. 829, 237-264 (2014).
  21. Burr, D., Rocca, E. D., Morrone, M. C. Contextual effects in interval-duration judgements in vision, audition and touch. Experimental Brain Research. 230 (1), 87-98 (2013).
  22. Grossman, S., Gueta, C., Pesin, S., Malach, R., Landau, A. N. Where does time go when you blink. Psychological Science. 30 (6), 907-916 (2019).
  23. Jongkees, B. J., Colzato, L. S. Spontaneous eye blink rate as predictor of dopamine-related cognitive function-a review. Neuroscience & Biobehavioral Reviews. 71, 58-82 (2016).
  24. Sadibolova, R., Monaldi, L., Terhune, D. B. A proxy measure of striatal dopamine predicts individual differences in temporal precision. Psychonomic Bulletin & Review. 29 (4), 1307-1316 (2022).

Tags

Diesen Monat in JoVE Ausgabe 203
Augenbewegungen in der visuellen Dauerwahrnehmung: Entwirrung von Reizen aus der Zeit in vorentscheidenden Prozessen
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Catronas, D., Lima Torres, N.,More

Catronas, D., Lima Torres, N., Silva, S. Eye Movements in Visual Duration Perception: Disentangling Stimulus from Time in Predecisional Processes. J. Vis. Exp. (203), e65990, doi:10.3791/65990 (2024).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter