Summary

PyOKR : une méthode semi-automatisée pour quantifier la capacité de suivi du réflexe optocinétique

Published: April 12, 2024
doi:

Summary

Nous décrivons ici PyOKR, une méthode d’analyse quantitative semi-automatisée qui mesure directement les mouvements oculaires résultant des réponses visuelles au mouvement d’une image bidimensionnelle. Une interface utilisateur et un algorithme d’analyse basés sur Python permettent un débit plus élevé et des mesures quantitatives plus précises des paramètres de suivi oculaire que les méthodes précédentes.

Abstract

L’étude des réponses comportementales aux stimuli visuels est un élément clé de la compréhension du fonctionnement du système visuel. Une réponse notable est le réflexe optocinétique (OKR), un comportement inné hautement conservé nécessaire à la stabilisation de l’image sur la rétine. L’OKR fournit une lecture robuste de la capacité de suivi d’image et a été largement étudié pour comprendre les circuits et la fonction du système visuel chez les animaux de différents antécédents génétiques. L’OKR se compose de deux phases : une phase de suivi lente lorsque l’œil suit un stimulus jusqu’au bord du plan visuel et une phase rapide compensatoire qui réinitialise la position de l’œil sur l’orbite. Les méthodes précédentes de suivi de la quantification des gains, bien que fiables, nécessitent beaucoup de main-d’œuvre et peuvent être subjectives ou dérivées arbitrairement. Pour obtenir une quantification plus rapide et reproductible de la capacité de suivi oculaire, nous avons développé un nouveau programme d’analyse semi-automatisé, PyOKR, qui permet de quantifier le mouvement bidimensionnel du suivi oculaire en réponse à tout stimulus directionnel, en plus d’être adaptable à tout type d’équipement de vidéo-oculographie. Cette méthode permet le filtrage automatisé, la sélection des phases de suivi lent, la modélisation des vecteurs oculaires verticaux et horizontaux, la quantification des gains de mouvement oculaire par rapport à la vitesse du stimulus et l’organisation des données résultantes dans une feuille de calcul utilisable pour des comparaisons statistiques et graphiques. Ce pipeline d’analyse quantitative et rationalisé, facilement accessible via l’importation PyPI, fournit une mesure rapide et directe des réponses OKR, facilitant ainsi l’étude des réponses comportementales visuelles.

Introduction

La stabilisation d’image repose sur des réponses oculomotrices précises pour compenser le flux optique global qui se produit pendant l’auto-mouvement. Cette stabilisation est principalement entraînée par deux réponses motrices : le réflexe optocinétique (OKR) et le réflexe vestibulo-oculaire (VOR)1,2,3. Le mouvement global lent à travers la rétine induit l’OKR, qui provoque une rotation réflexe des yeux dans la direction correspondante pour stabiliser l’image 1,2. Ce mouvement, connu sous le nom de phase lente, est interrompu par des saccades compensatoires, appelées phase rapide, dans lesquelles l’œil se réinitialise rapidement dans la direction opposée pour permettre une nouvelle phase lente. Ici, nous définissons ces saccades de phase rapide comme des mouvements de suivi oculaire (ETM). Alors que le VOR s’appuie sur le système vestibulaire pour provoquer des mouvements oculaires afin de compenser les mouvements de la tête3, l’OKR est initié dans la rétine par le déclenchement de l’ON et la signalisation ultérieure au système optique accessoire (AOS) dans le mésencéphale 4,5. En raison de sa dépendance directe aux circuits rétiniens, l’OKR a été fréquemment utilisé pour déterminer la capacité de suivi visuel dans les contextes de recherche et cliniques 6,7.

L’OKR a été largement étudié en tant qu’outil d’évaluation des capacités visuelles de base 2,6,8, du développement DSGC 9,10,11,12, des réponses oculo-motrices13 et des différences physiologiques entre les fonds génétiques7. L’OKR est évalué chez des animaux ayant la tête fixe et présentant un stimulus en mouvement14. Les réponses oculomotrices sont généralement capturées à l’aide d’une variété d’outils vidéo, et les mouvements de suivi oculaire sont capturés sous forme de formes d’onde OKR dans les directions horizontale et verticale9. Pour quantifier la capacité de suivi, deux paramètres principaux ont été décrits : le gain de suivi (la vitesse de l’œil par rapport à la vitesse du stimulus) et la fréquence ETM (le nombre de saccades de phase rapides sur une période donnée). Le calcul du gain a été utilisé historiquement pour mesurer directement la vitesse angulaire de l’œil afin d’estimer la capacité de suivi ; Cependant, ces calculs demandent beaucoup de main-d’œuvre et peuvent être arbitrairement dérivés sur la base de méthodes de collecte de vidéo-oculographie et de quantification ultérieure. Pour une évaluation plus rapide des OKR, le comptage de la fréquence ETM a été utilisé comme méthode alternative pour mesurer l’acuité de suivi7. Bien que cela fournisse une estimation assez précise de la capacité de suivi, cette méthode repose sur une métrique indirecte pour quantifier la réponse en phase lente et introduit un certain nombre de biais. Il s’agit notamment d’un biais de l’observateur dans la détermination de la saccade, d’une dépendance à l’égard de réponses saccadiques temporellement cohérentes sur une époque donnée et d’une incapacité à évaluer l’ampleur de la réponse de phase lente.

Afin de répondre à ces préoccupations avec les approches actuelles d’évaluation des OKR et de permettre une quantification approfondie à haut débit des paramètres OKR, nous avons développé une nouvelle méthode d’analyse pour quantifier les formes d’onde des OKR. Notre approche utilise une plate-forme logicielle accessible basée sur Python appelée « PyOKR ». À l’aide de ce logiciel, la modélisation et la quantification des réponses en phase lente des OKR peuvent être étudiées plus en profondeur et avec une paramétrisation accrue. Le logiciel fournit des évaluations quantitatives accessibles et reproductibles des réponses à une myriade de stimuli visuels, ainsi qu’un suivi visuel bidimensionnel en réponse à des mouvements horizontaux et verticaux.

Protocol

Toutes les expériences sur les animaux effectuées à la faculté de médecine de l’Université Johns Hopkins (JHUSOM) ont été approuvées par le Comité institutionnel de soin et d’utilisation des animaux (IACUC) de la JHUSOM. Toutes les expériences réalisées à l’Université de Californie à San Francisco (UCSF) ont été réalisées conformément aux protocoles approuvés par le programme institutionnel de soin et d’utilisation des animaux de l’UCSF. 1. Collecte de don…

Representative Results

Pour valider la méthode d’analyse décrite ci-dessus, nous avons quantifié le gain de suivi OKR sur des traces d’ondes collectées chez des souris de type sauvage et un mutant knock-out conditionnel avec un déficit de suivi connu. De plus, pour tester l’applicabilité plus large de notre méthode d’analyse, nous avons analysé des traces dérivées d’une cohorte distincte de souris de type sauvage acquises à l’aide d’une méthode de collecte de vidéo-oculographie différente. Le filtrage automatique de…

Discussion

PyOKR offre plusieurs avantages pour étudier les réponses visuelles reflétées dans les mouvements oculaires. Il s’agit notamment de la précision, de l’accessibilité et des options de collecte de données, en plus de la possibilité d’intégrer le paramétrage et des vitesses de stimulus variables.

L’évaluation directe du gain de suivi oculaire fournit une caractérisation précise du mouvement oculaire qui est une mesure quantitative plus directe que le comptage manuel tradition…

Divulgaciones

The authors have nothing to disclose.

Acknowledgements

Ce travail a été soutenu par R01 EY032095 (ALK), la bourse prédoctorale VSTP 5T32 EY7143-27 (JK), F31 EY-033225 (SCH), R01 EY035028 (FAD et ALK) et R01 EY-029772 (FAD).

Materials

C57BL/6J  mice Jackson Labs 664
Igor Pro WaveMetrics RRID: SCR_000325
MATLAB MathWorks RRID: SCR_001622
Optokinetic reflex recording chamber – JHUSOM Custom-built N/A As described in Al-Khindi et al.(2022)9 and Kodama et al. (2016)13 
Optokinetic reflex recording chamber – UCSF Custom-built N/A As described in Harris and Dunn, 201510
Python Python Software Foundation RRID: SCR_008394
Tbx5 flox/+ mice Gift from B. Bruneau N/A As described in Al-Khindi et al.(2022)9 
Tg(Pcdh9-cre)NP276Gsat/Mmucd MMRRC MMRRC Stock # 036084-UCD; RRID: MMRRC_036084-UCD

Referencias

  1. Stahl, J. S. Using eye movements to assess brain function in mice. Vision Res. 44 (28), 3401-3410 (2004).
  2. Kretschmer, F., Tariq, M., Chatila, W., Wu, B., Badea, T. C. Comparison of optomotor and optokinetic reflexes in mice. J Neurophysiol. 118, 300-316 (2017).
  3. Bronstein, A. M., Patel, M., Arshad, Q. A brief review of the clinical anatomy of the vestibular-ocular connections – How much do we know. Eye. 29 (2), 163-170 (2015).
  4. Simpson, J. I. The accessory optic system. Ann Rev Neurosci. 7, 13-41 (1984).
  5. Hamilton, N. R., Scasny, A. J., Kolodkin, A. L. Development of the vertebrate retinal direction-selective circuit. Dev Biol. 477, 273-283 (2021).
  6. Dobson, V., Teller, D. Y. Visual acuity in human infants: a review and comparison of behavioral and electrophysiological studies. Vision Res. 18 (11), 1469-1483 (1978).
  7. Cahill, H., Nathans, J. The optokinetic reflex as a tool for quantitative analyses of nervous system function in mice: Application to genetic and drug-induced variation. PLoS One. 3 (4), e2055 (2008).
  8. Cameron, D. J., et al. The optokinetic response as a quantitative measure of visual acuity in zebrafish. J Vis Exp. (80), e50832 (2013).
  9. Al-Khindi, T., et al. The transcription factor Tbx5 regulates direction-selective retinal ganglion cell development and image stabilization. Curr Biol. 32 (19), 4286-4298 (2022).
  10. Harris, S. C., Dunn, F. A. Asymmetric retinal direction tuning predicts optokinetic eye movements across stimulus conditions. eLife. 12, 81780 (2015).
  11. Sun, L. O., et al. Functional assembly of accessory optic system circuitry critical for compensatory eye movements. Neuron. 86 (4), 971-984 (2015).
  12. Yonehara, K., et al. Congenital Nystagmus gene FRMD7 is necessary for establishing a neuronal circuit asymmetry for direction selectivity. Neuron. 89 (1), 177-193 (2016).
  13. Kodama, T., Du Lac, S. Adaptive acceleration of visually evoked smooth eye movements in mice. J Neurosci. 36 (25), 6836-6849 (2016).
  14. Stahl, J. S., Van Alphen, A. M., De Zeeuw, C. I. A comparison of video and magnetic search coil recordings of mouse eye movements. J Neurosci Methods. 99 (1-2), 101-110 (2000).

Play Video

Citar este artículo
Kiraly, J. K., Harris, S. C., Al-Khindi, T., Dunn, F. A., Kolodkin, A. L. PyOKR: A Semi-Automated Method for Quantifying Optokinetic Reflex Tracking Ability. J. Vis. Exp. (206), e66779, doi:10.3791/66779 (2024).

View Video