Summary

Tracking Ratten in Operant Conditioning Chambers mit einer vielseitigen hausgemachten Videokamera und DeepLabCut

Published: June 15, 2020
doi:

Summary

Dieses Protokoll beschreibt, wie man eine kleine und vielseitige Videokamera baut und wie man von ihm erhaltene Videos verwendet, um ein neuronales Netzwerk zu trainieren, um die Position eines Tieres in Opernkonditionierungskammern zu verfolgen. Dies ist eine wertvolle Ergänzung zu Standardanalysen von Datenprotokollen, die aus Operant-Konditionierungstests gewonnen wurden.

Abstract

Operant-Konditionierungskammern werden verwendet, um eine breite Palette von Verhaltenstests auf dem Gebiet der Neurowissenschaften durchzuführen. Die aufgezeichneten Daten basieren in der Regel auf der Auslösung von Hebel- und Nasen-Poke-Sensoren, die in den Kammern vorhanden sind. Dies bietet zwar eine detaillierte Ansicht, wann und wie Tiere bestimmte Antworten ausführen, kann jedoch nicht verwendet werden, um Verhaltensweisen zu bewerten, die keine Sensoren auslösen. Daher ist es selten möglich, zu beurteilen, wie sich Tiere positionieren und sich innerhalb der Kammer bewegen. Um diese Informationen zu erhalten, müssen Forscher in der Regel Videos aufzeichnen und analysieren. Hersteller von Operant-Konditionskammern können ihre Kunden in der Regel mit hochwertigen Kamera-Setups beliefern. Diese können jedoch sehr kostspielig sein und passen nicht unbedingt zu Kammern anderer Hersteller oder anderen Verhaltenstests. Das aktuelle Protokoll beschreibt, wie man eine kostengünstige und vielseitige Videokamera mit Hobby-Elektronikkomponenten baut. Weiter wird beschrieben, wie das Bildanalyse-Softwarepaket DeepLabCut verwendet wird, um den Status eines starken Lichtsignals sowie die Position einer Ratte in Videos zu verfolgen, die aus einer Operant-Konditionierungskammer gesammelt wurden. Ersteres ist eine große Hilfe bei der Auswahl kurzer Segmente von Interesse an Videos, die ganze Testsitzungen abdecken, und letztere ermöglicht die Analyse von Parametern, die nicht aus den von den Opernkammern erstellten Datenprotokollen gewonnen werden können.

Introduction

Im Bereich der Verhaltensneurowissenschaften verwenden Forscher häufig Opernkonditionierungskammern, um eine breite Palette verschiedener kognitiver und psychiatrischer Merkmale bei Nagetieren zu bewerten. Zwar gibt es mehrere verschiedene Hersteller solcher Systeme, sie haben in der Regel bestimmte Attribute und haben ein fast standardisiertes Design1,2,3. Die Kammern sind in der Regel quadratisch oder rechteckig, mit einer Wand, die für die Platzierung von Tieren im Inneren geöffnet werden kann, und eine oder zwei der verbleibenden Wände mit Komponenten wie Hebel, Nasen-Poke-Öffnungen, Belohnungsschalen, Reaktionsräder und Lichter verschiedener Arten1,2,3. Die in den Kammern vorhandenen Leuchten und Sensoren werden verwendet, um sowohl das Testprotokoll zu steuern als auch das Verhalten der Tiere zu verfolgen1,2,3,4,5. Die typischen Operant-Konditionierungssysteme ermöglichen eine sehr detaillierte Analyse, wie die Tiere mit den verschiedenen Operanden und Öffnungen in den Kammern interagieren. Im Allgemeinen können alle Fälle, in denen Sensoren ausgelöst werden, vom System aufgezeichnet werden, und aus diesen Daten können Benutzer detaillierte Protokolldateien erhalten, die beschreiben, was das Tier während bestimmter Schritte des Tests4,5getan hat. Dies bietet zwar eine umfassende Darstellung der Leistung eines Tieres, kann aber nur zur Beschreibung von Verhaltensweisen verwendet werden, die direkt einen oder mehrere Sensoren auslösen4,5. Als solche, Aspekte im Zusammenhang damit, wie das Tier sich selbst positioniert und bewegt sich innerhalb der Kammer während der verschiedenen Phasen des Tests sind nicht gut beschrieben6,7,8,9,10. Dies ist bedauerlich, da solche Informationen wertvoll sein können, um das Verhalten des Tieres vollständig zu verstehen. Zum Beispiel kann es verwendet werden, um zu klären, warum bestimmte Tiere in einem bestimmten Test schlecht abschneiden6, um die Strategien zu beschreiben, die Tiere entwickeln könnten, um schwierige Aufgaben zu bewältigen6,7,8,9,,10, oder um die wahre Komplexität vermeintlich einfacher Verhaltensweisen zu schätzen11,12. Um solche artikulierten Informationen zu erhalten, wenden sich Forscher häufig der manuellen Analyse von Videos6,7,8,9,10,11zu.

Bei der Aufnahme von Videos aus Operat-Konditionierungskammern ist die Wahl der Kamera entscheidend. Die Kammern befinden sich häufig in Isolationskabinen, mit Protokollen, die häufig Schritte verwenden, in denen kein sichtbares Licht leuchtet3,6,7,8,9. Daher ist die Verwendung von Infrarotbeleuchtung (IR) in Kombination mit einer IR-empfindlichen Kamera notwendig, da sie auch bei völliger Dunkelheit Sichtbarkeit ermöglicht. Darüber hinaus ist der Platz für die Platzierung einer Kamera in der Isolationskabine oft sehr begrenzt, was bedeutet, dass man stark von kleinen Kameras profitiert, die Objektive mit einem weiten Sichtfeld (z.B. Fischaugenlinsen) verwenden9. Während Hersteller von Operant-Konditionierungssystemen ihren Kunden oft hochwertige Kamera-Setups liefern können, können diese Systeme teuer sein und nicht unbedingt Kammern anderer Hersteller oder Setups für andere Verhaltenstests passen. Ein bemerkenswerter Vorteil gegenüber der Verwendung von Stand-Alone-Videokameras ist jedoch, dass diese Setups oft direkt mit den Operant-Konditionierungssystemen13,14in Verbindung stehen können. Dadurch können sie so eingerichtet werden, dass sie nur bestimmte Ereignisse aufzeichnen, anstatt vollständige Testsitzungen aufzuzeichnen, was bei der folgenden Analyse sehr helfen kann.

Das aktuelle Protokoll beschreibt, wie man eine kostengünstige und vielseitige Videokamera mit Hobby-Elektronikkomponenten baut. Die Kamera verwendet ein Fisheye-Objektiv, ist empfindlich auf IR-Beleuchtung und hat eine Reihe von IR-Lichtemittierdioden (IR-LEDs) daran befestigt. Darüber hinaus ist es gebaut, um ein flaches und schlankes Profil zu haben. Zusammen bilden diese Aspekte ideal für die Aufnahme von Videos aus den meisten kommerziell erhältlichen Operant-Konditionierungskammern sowie anderen Verhaltenstest-Setups. Das Protokoll beschreibt weiter, wie man mit der Kamera erhaltene Videos verarbeitet und wie man das Softwarepaket DeepLabCut15,16 verwendet, um Videosequenzen von Interesse zu extrahieren sowie die Bewegungen eines Tieres darin zu verfolgen. Dies umgeht teilweise den Rückzieher einer Stand-Alone-Kamera über die integrierten Lösungen von Operant-Herstellern von Konditionierungssystemen und bietet eine Ergänzung zur manuellen Bewertung von Verhaltensweisen.

Es wurden Anstrengungen unternommen, das Protokoll in einem allgemeinen Format zu schreiben, um hervorzuheben, dass der gesamte Prozess an Videos aus verschiedenen Operant-Konditionierungstests angepasst werden kann. Zur Veranschaulichung bestimmter Schlüsselkonzepte werden als Beispiele Videos von Ratten verwendet, die den 5-Wahl-Serienreaktionszeittest (5CSRTT)17 durchführen.

Protocol

Alle Verfahren, die den Umgang mit Tieren umfassen, wurden von der Ethikkommission Malmö-Lund für Tierforschung genehmigt. 1. Aufbau der Videokamera HINWEIS: Eine Liste der Komponenten, die für den Aufbau der Kamera benötigt werden, finden Sie in der Tabelle der Materialien. Siehe auch Abbildung 1, Abbildung 2, Abbildung 3, Abbildung 4</s…

Representative Results

Videokameraleistung Die repräsentativen Ergebnisse wurden in Opernkonditionierungskammern für Ratten mit Einer Bodenfläche von 28,5 cm x 25,5 cm und einer Höhe von 28,5 cm gesammelt. Mit dem Fisheye-Objektiv befestigt, erfasst die Kamera die gesamte Bodenfläche und große Teile der umgebenden Wände, wenn sie über der Kammer platziert (Abbildung 7A). Als solche kann eine gute Sicht erhalten werden, auch wenn die Kamera außerhalb der Mitte a…

Discussion

Dieses Protokoll beschreibt, wie eine kostengünstige und flexible Videokamera erstellt wird, mit der Videos aus Operant-Konditionierungskammern und anderen Verhaltenstest-Setups aufgenommen werden können. Es zeigt weiter, wie DeepLabCut verwendet wird, um ein starkes Lichtsignal in diesen Videos zu verfolgen, und wie dies verwendet werden kann, um bei der Identifizierung kurzer Videosegmente von Interesse an Videodateien zu helfen, die vollständige Testsitzungen abdecken. Schließlich wird beschrieben, wie die Verfolg…

Offenlegungen

The authors have nothing to disclose.

Acknowledgements

Diese Arbeit wurde durch Stipendien der Schwedischen Brain Foundation, der Schwedischen Parkinson-Stiftung und der Schwedischen Regierungsfonds für klinische Forschung (M.A.C.) sowie der Wenner-Gren-Stiftungen (M.A.C, E.K.H.C),ehlén Foundation (M.A.C) und der Stiftung Blanceflor Boncompagni Ludovisi, geb.

Materials

32 Gb micro SD card with New Our Of Box Software (NOOBS) preinstalled The Pi hut (https://thpihut.com) 32GB
330-Ohm resistor The Pi hut (https://thpihut.com) 100287 This article is for a package with mixed resistors, where 330-ohm resistors are included.
Camera module (Raspberry Pi NoIR camera v.2) The Pi hut (https://thpihut.com) 100004
Camera ribbon cable (Raspberry Pi Zero camera cable stub) The Pi hut (https://thpihut.com) MMP-1294 This is only needed if a Raspberry Pi zero is used. If another Raspberry Pi board is used, a suitable camera ribbon cable accompanies the camera component
Colored LEDs The Pi hut (https://thpihut.com) ADA4203 This article is for a package with mixed colors of LEDs. Any color can be used.
Female-Female jumper cables The Pi hut (https://thpihut.com) ADA266
IR LED module (Bright Pi) Pi Supply (https://uk.pi-supply.com) PIS-0027
microcomputer motherboard (Raspberry Pi Zero board with presoldered headers) The Pi hut (https://thpihut.com) 102373 Other Raspberry Pi boards can also be used, although the method for automatically starting the Python script only works with Raspberry Pi zero. If using other models, the python script needs to be started manually.
Push button switch The Pi hut (https://thpihut.com) ADA367
Raspberry Pi power supply cable The Pi hut (https://thpihut.com) 102032
Raspberry Pi Zero case The Pi hut (https://thpihut.com) 102118
Raspberry Pi, Mod my pi, camera stand with magnetic fish eye lens and magnetic metal ring attachment The Pi hut (https://thpihut.com) MMP-0310-KIT

Referenzen

  1. Pritchett, K., Mulder, G. B. Operant conditioning. Contemporary Topics in Laboratory Animal Science. 43 (4), (2004).
  2. Clemensson, E. K. H., Novati, A., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntington disease shows slowed learning in a Go/No-Go-like test of visual discrimination. Behavioural Brain Research. 359, 116-126 (2019).
  3. Asinof, S. K., Paine, T. A. The 5-choice serial reaction time task: a task of attention and impulse control for rodents. Journal of Visualized Experiments. (90), e51574 (2014).
  4. Coulbourn instruments. Graphic State: Graphic State 4 user’s manual. Coulbourn instruments. , 12-17 (2013).
  5. Med Associates Inc. Med-PC IV: Med-PC IV programmer’s manual. Med Associates Inc. , 21-44 (2006).
  6. Clemensson, E. K. H., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntingon disease shows signs of fronto-striatal dysfunction in two operant conditioning tests of short-term memory. PloS One. 12 (1), (2017).
  7. Herremans, A. H. J., Hijzen, T. H., Welborn, P. F. E., Olivier, B., Slangen, J. L. Effect of infusion of cholinergic drugs into the prefrontal cortex area on delayed matching to position performance in the rat. Brain Research. 711 (1-2), 102-111 (1996).
  8. Chudasama, Y., Muir, J. L. A behavioral analysis of the delayed non-matching to position task: the effects of scopolamine, lesions of the fornix and of the prelimbic region on mediating behaviours by rats. Psychopharmacology. 134 (1), 73-82 (1997).
  9. Talpos, J. C., McTighe, S. M., Dias, R., Saksida, L. M., Bussey, T. J. Trial-unique, delayed nonmatching-to-location (TUNL): A novel, highly hippocampus-dependent automated touchscreen test of location memory and pattern separation. Neurobiology of Learning and Memory. 94 (3), 341 (2010).
  10. Rayburn-Reeves, R. M., Moore, M. K., Smith, T. E., Crafton, D. A., Marden, K. L. Spatial midsession reversal learning in rats: Effects of egocentric cue use and memory. Behavioural Processes. 152, 10-17 (2018).
  11. Gallo, A., Duchatelle, E., Elkhessaimi, A., Le Pape, G., Desportes, J. Topographic analysis of the rat’s behavior in the Skinner box. Behavioural Processes. 33 (3), 318-328 (1995).
  12. Iversen, I. H. Response-initiated imaging of operant behavior using a digital camera. Journal of the Experimental Analysis of Behavior. 77 (3), 283-300 (2002).
  13. Med Associates Inc. Video monitor: Video monitor SOF-842 user’s manual. Med Associates Inc. , 26-30 (2004).
  14. . Coulbourn Instruments Available from: https://www.coulbourn.com/product_p/h39-16.htm (2020)
  15. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).
  16. Nath, T., Mathis, A., Chen, A. C., Patel, A., Bethge, M., Mathis, M. W. Using DeepLabCut for 3D markerless pose estimation across species and behaviors. Nature Protocols. 14 (7), 2152-2176 (2019).
  17. Bari, A., Dalley, J. W., Robbins, T. W. The application of the 5-chopice serial reaction time task for the assessment of visual attentional processes and impulse control in rats. Nature Protocols. 3 (5), 759-767 (2008).
  18. . Raspberry Pi foundation Available from: https://thepi.io/how-to-install-raspbian-on-the-raspberry-pi/ (2020)
  19. . Pi-supply Available from: https://learn.pi-supply.com/make/bright-pi-quickstart-faq/ (2018)
  20. . Python Available from: https://wiki.python.org/moin/BeginnersGuide/NonProgrammers (2020)
  21. . MathWorks Available from: https://mathworks.com/academia/highschool/ (2020)
  22. . Cran.R-Project.org Available from: https://cran.r-project.org/manuals.html (2020)
  23. Liu, Y., Tian, C., Huang, Y. . Critical assessment of correction methods for fisheye lens distortion. The international archives of the photogrammetry, remote sensing and spatial information sciences. , (2016).
  24. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  25. Graving, J. M., et al. DeepPoseKit, a software toolkit for fast and robust animal pose estimation using deep learning. Elife. 8 (47994), (2019).
  26. Geuther, B. Q., et al. Robust mouse tracking in complex environments using neural networks. Communications Biology. 2 (124), (2019).

Play Video

Diesen Artikel zitieren
Clemensson, E. K. H., Abbaszadeh, M., Fanni, S., Espa, E., Cenci, M. A. Tracking Rats in Operant Conditioning Chambers Using a Versatile Homemade Video Camera and DeepLabCut. J. Vis. Exp. (160), e61409, doi:10.3791/61409 (2020).

View Video