Summary

PyOKR: een semi-geautomatiseerde methode voor het kwantificeren van het vermogen om optokinetische reflexen te volgen

Published: April 12, 2024
doi:

Summary

We beschrijven hier PyOKR, een semi-geautomatiseerde kwantitatieve analysemethode die direct oogbewegingen meet die het gevolg zijn van visuele reacties op tweedimensionale beeldbewegingen. Een op Python gebaseerde gebruikersinterface en analyse-algoritme zorgen voor een hogere doorvoer en nauwkeurigere kwantitatieve metingen van eye-trackingparameters dan eerdere methoden.

Abstract

De studie van gedragsreacties op visuele stimuli is een belangrijk onderdeel van het begrijpen van de functie van het visuele systeem. Een opmerkelijke reactie is de optokinetische reflex (OKR), een sterk geconserveerd aangeboren gedrag dat nodig is voor beeldstabilisatie op het netvlies. De OKR biedt een robuuste uitlezing van het vermogen om beelden te volgen en is uitgebreid bestudeerd om de circuits en functie van het visuele systeem te begrijpen bij dieren met verschillende genetische achtergronden. De OKR bestaat uit twee fasen: een langzame volgfase waarbij het oog een stimulus volgt naar de rand van het visuele vlak en een compenserende snelle fasesaccade die de positie van het oog in de baan reset. Eerdere methoden voor het bijhouden van kwantificering van winsten, hoewel betrouwbaar, zijn arbeidsintensief en kunnen subjectief of willekeurig worden afgeleid. Om een snellere en reproduceerbare kwantificering van het vermogen om ogen te volgen te verkrijgen, hebben we een nieuw semi-geautomatiseerd analyseprogramma ontwikkeld, PyOKR, dat het mogelijk maakt om tweedimensionale oogvolgbewegingen te kwantificeren als reactie op elke gerichte stimulus, naast dat het kan worden aangepast aan elk type video-oculografieapparatuur. Deze methode biedt geautomatiseerde filtering, selectie van langzame volgfasen, modellering van verticale en horizontale oogvectoren, kwantificering van oogbewegingswinsten ten opzichte van stimulussnelheid en organisatie van resulterende gegevens in een bruikbare spreadsheet voor statistische en grafische vergelijkingen. Deze kwantitatieve en gestroomlijnde analysepijplijn, gemakkelijk toegankelijk via PyPI-import, biedt een snelle en directe meting van OKR-reacties, waardoor de studie van visuele gedragsreacties wordt vergemakkelijkt.

Introduction

Beeldstabilisatie is gebaseerd op nauwkeurige oculomotorische reacties om te compenseren voor de wereldwijde optische stroom die optreedt tijdens zelfbeweging. Deze stabilisatie wordt voornamelijk aangedreven door twee motorische reacties: de optokinetische reflex (OKR) en de vestibulo-oculaire reflex (VOR)1,2,3. Langzame globale beweging over het netvlies induceert de OKR, die reflexieve oogrotatie in de overeenkomstige richting uitlokt om het beeld te stabiliseren 1,2. Deze beweging, bekend als de langzame fase, wordt onderbroken door compenserende saccades, bekend als de snelle fase, waarin het oog snel in de tegenovergestelde richting reset om een nieuwe langzame fase mogelijk te maken. Hier definiëren we deze fast-phase saccades als eye-tracking bewegingen (ETM’s). Terwijl de VOR vertrouwt op het vestibulaire systeem om oogbewegingen op te wekken om hoofdbewegingen te compenseren3, wordt de OKR in het netvlies geïnitieerd door het afvuren van ON en de daaropvolgende signalering naar het Accessory Optic System (AOS) in de middenhersenen 4,5. Vanwege de directe afhankelijkheid van retinale circuits, is de OKR vaak gebruikt om het visuele volgvermogen te bepalen in zowel onderzoeks- als klinische omgevingen 6,7.

De OKR is uitgebreid bestudeerd als een hulpmiddel voor het beoordelen van het basisvisuele vermogen 2,6,8, de ontwikkeling van DSGC 9,10,11,12, oculomotorische reacties13 en fysiologische verschillen tussen genetische achtergronden7. De OKR wordt geëvalueerd bij dieren met een hoofdfixatie die een bewegende stimulus krijgen14. Oculomotorische reacties worden meestal vastgelegd met behulp van een verscheidenheid aan videotools, en eye-tracking bewegingen worden vastgelegd als OKR-golfvormen in horizontale en verticale richtingen9. Om het volgvermogen te kwantificeren, zijn twee primaire metrieken beschreven: volgversterking (de snelheid van het oog ten opzichte van de snelheid van de stimulus) en ETM-frequentie (het aantal snelle fasesaccades gedurende een bepaald tijdsbestek). Berekening van de versterking is in het verleden gebruikt om de hoeksnelheid van het oog direct te meten om het volgvermogen te schatten; Deze berekeningen zijn echter arbeidsintensief en kunnen willekeurig worden afgeleid op basis van video-oculografie-verzamelmethoden en daaropvolgende kwantificering. Voor een snellere OKR-beoordeling is het tellen van de ETM-frequentie gebruikt als alternatieve methode voor het meten van de volgscherpte7. Hoewel dit een vrij nauwkeurige schatting geeft van het volgvermogen, vertrouwt deze methode op een indirecte metriek om de trage faserespons te kwantificeren en introduceert het een aantal vertekeningen. Deze omvatten een waarnemersbias bij het bepalen van saccade, een vertrouwen op tijdelijk consistente saccadische responsen gedurende een bepaald tijdperk en een onvermogen om de omvang van de langzame faserespons te beoordelen.

Om deze problemen met de huidige OKR-beoordelingsbenaderingen aan te pakken en om een diepgaande kwantificering van OKR-parameters met hoge doorvoer mogelijk te maken, hebben we een nieuwe analysemethode ontwikkeld om OKR-golfvormen te kwantificeren. Onze aanpak maakt gebruik van een toegankelijk, op Python gebaseerd softwareplatform met de naam ‘PyOKR’. Met behulp van deze software kan het modelleren en kwantificeren van langzame OKR-responsen diepgaander en met verhoogde parametrisering worden bestudeerd. De software biedt toegankelijke en reproduceerbare kwantitatieve beoordelingen van reacties op een groot aantal visuele stimuli en ook tweedimensionale visuele tracking als reactie op horizontale en verticale beweging.

Protocol

Alle dierproeven die werden uitgevoerd aan de Johns Hopkins University School of Medicine (JHUSOM) werden goedgekeurd door het Institutional Animal Care and Use Committee (IACUC) van het JHUSOM. Alle experimenten die werden uitgevoerd aan de Universiteit van Californië, San Francisco (UCSF) werden uitgevoerd in overeenstemming met protocollen die zijn goedgekeurd door het UCSF Institutional Animal Care and Use Program. 1. Verzamelen van gedragsgegevens Neem OKR-oogb…

Representative Results

Om de hierboven beschreven analysemethode te valideren, hebben we de OKR-trackingwinst gekwantificeerd op golfsporen verzameld van wildtype muizen en een voorwaardelijke knock-outmutant met een bekend trackingtekort. Om de bredere toepasbaarheid van onze analysemethode te testen, analyseerden we bovendien sporen afkomstig van een afzonderlijk cohort wildtype muizen die waren verkregen met behulp van een andere video-oculografie-verzamelmethode. De automatische filtering van saccades vergemakkelijkt de verwerking en analy…

Discussion

PyOKR biedt verschillende voordelen voor het bestuderen van visuele reacties die worden weerspiegeld in oogbewegingen. Deze omvatten opties voor nauwkeurigheid, toegankelijkheid en gegevensverzameling, naast de mogelijkheid om parametrisering en variabele stimulussnelheden op te nemen.

Directe beoordeling van de oogtracering biedt een nauwkeurige karakterisering van oogbewegingen die een directere kwantitatieve metriek is dan traditionele handmatige telling van snelle fasesaccades (ETM’s). Hoe…

Disclosures

The authors have nothing to disclose.

Acknowledgements

Dit werk werd ondersteund door R01 EY032095 (ALK), VSTP pre-doctoral fellowship 5T32 EY7143-27 (JK), F31 EY-033225 (SCH), R01 EY035028 (FAD en ALK) en R01 EY-029772 (FAD).

Materials

C57BL/6J  mice Jackson Labs 664
Igor Pro WaveMetrics RRID: SCR_000325
MATLAB MathWorks RRID: SCR_001622
Optokinetic reflex recording chamber – JHUSOM Custom-built N/A As described in Al-Khindi et al.(2022)9 and Kodama et al. (2016)13 
Optokinetic reflex recording chamber – UCSF Custom-built N/A As described in Harris and Dunn, 201510
Python Python Software Foundation RRID: SCR_008394
Tbx5 flox/+ mice Gift from B. Bruneau N/A As described in Al-Khindi et al.(2022)9 
Tg(Pcdh9-cre)NP276Gsat/Mmucd MMRRC MMRRC Stock # 036084-UCD; RRID: MMRRC_036084-UCD

References

  1. Stahl, J. S. Using eye movements to assess brain function in mice. Vision Res. 44 (28), 3401-3410 (2004).
  2. Kretschmer, F., Tariq, M., Chatila, W., Wu, B., Badea, T. C. Comparison of optomotor and optokinetic reflexes in mice. J Neurophysiol. 118, 300-316 (2017).
  3. Bronstein, A. M., Patel, M., Arshad, Q. A brief review of the clinical anatomy of the vestibular-ocular connections – How much do we know. Eye. 29 (2), 163-170 (2015).
  4. Simpson, J. I. The accessory optic system. Ann Rev Neurosci. 7, 13-41 (1984).
  5. Hamilton, N. R., Scasny, A. J., Kolodkin, A. L. Development of the vertebrate retinal direction-selective circuit. Dev Biol. 477, 273-283 (2021).
  6. Dobson, V., Teller, D. Y. Visual acuity in human infants: a review and comparison of behavioral and electrophysiological studies. Vision Res. 18 (11), 1469-1483 (1978).
  7. Cahill, H., Nathans, J. The optokinetic reflex as a tool for quantitative analyses of nervous system function in mice: Application to genetic and drug-induced variation. PLoS One. 3 (4), e2055 (2008).
  8. Cameron, D. J., et al. The optokinetic response as a quantitative measure of visual acuity in zebrafish. J Vis Exp. (80), e50832 (2013).
  9. Al-Khindi, T., et al. The transcription factor Tbx5 regulates direction-selective retinal ganglion cell development and image stabilization. Curr Biol. 32 (19), 4286-4298 (2022).
  10. Harris, S. C., Dunn, F. A. Asymmetric retinal direction tuning predicts optokinetic eye movements across stimulus conditions. eLife. 12, 81780 (2015).
  11. Sun, L. O., et al. Functional assembly of accessory optic system circuitry critical for compensatory eye movements. Neuron. 86 (4), 971-984 (2015).
  12. Yonehara, K., et al. Congenital Nystagmus gene FRMD7 is necessary for establishing a neuronal circuit asymmetry for direction selectivity. Neuron. 89 (1), 177-193 (2016).
  13. Kodama, T., Du Lac, S. Adaptive acceleration of visually evoked smooth eye movements in mice. J Neurosci. 36 (25), 6836-6849 (2016).
  14. Stahl, J. S., Van Alphen, A. M., De Zeeuw, C. I. A comparison of video and magnetic search coil recordings of mouse eye movements. J Neurosci Methods. 99 (1-2), 101-110 (2000).

Play Video

Cite This Article
Kiraly, J. K., Harris, S. C., Al-Khindi, T., Dunn, F. A., Kolodkin, A. L. PyOKR: A Semi-Automated Method for Quantifying Optokinetic Reflex Tracking Ability. J. Vis. Exp. (206), e66779, doi:10.3791/66779 (2024).

View Video