Summary

Sporing rotter i operant condition kamre ved hjelp av en allsidig hjemmelaget videokamera og deeplabcut

Published: June 15, 2020
doi:

Summary

Denne protokollen beskriver hvordan du bygger et lite og allsidig videokamera, og hvordan du bruker videoer hentet fra det til å trene et nevrale nettverk for å spore posisjonen til et dyr inne i operant condition kamre. Dette er et verdifullt supplement til standard analyser av datalogger hentet fra operant kondisjoneringstester.

Abstract

Operant condition kamre brukes til å utføre et bredt spekter av atferdstester innen nevrovitenskap. De registrerte dataene er vanligvis basert på utløsing av spak- og nese-poke-sensorer som finnes inne i kamrene. Selv om dette gir en detaljert oversikt over når og hvordan dyr utfører visse svar, kan det ikke brukes til å evaluere atferd som ikke utløser noen sensorer. Som sådan er det sjelden mulig å vurdere hvordan dyr posisjonerer seg og beveger seg inne i kammeret. For å få denne informasjonen må forskerne vanligvis ta opp og analysere videoer. Produsenter av operant condition kamre kan vanligvis forsyne sine kunder med høy kvalitet kameraoppsett. Disse kan imidlertid være svært kostbare og passer ikke nødvendigvis kamre fra andre produsenter eller andre atferdstestoppsett. Den nåværende protokollen beskriver hvordan du bygger et billig og allsidig videokamera ved hjelp av hobbyelektronikkkomponenter. Den beskriver videre hvordan du bruker bildeanalyseprogramvarepakken DeepLabCut til å spore statusen til et sterkt lyssignal, samt posisjonen til en rotte, i videoer samlet fra et operant kondisjoneringskammer. Førstnevnte er et godt hjelpemiddel når du velger korte segmenter av interesse for videoer som dekker hele testøkter, og sistnevnte muliggjør analyse av parametere som ikke kan hentes fra dataloggene produsert av operantkamrene.

Introduction

Innen atferdsnevrovitenskap bruker forskere ofte operant kondisjoneringskamre for å vurdere et bredt spekter av forskjellige kognitive og psykiatriske egenskaper hos gnagere. Mens det er flere forskjellige produsenter av slike systemer, deler de vanligvis visse attributter og har en nesten standardisert design1,,2,,3. Kamrene er generelt firkantet- eller rektangelformede, med en vegg som kan åpnes for å plassere dyr inne, og en eller to av de gjenværende veggene som inneholder komponenter som spaker, nese-poke åpninger, belønning skuffer, responshjul og lys av ulike typer1,2,3. Lysene og sensorene som finnes i kamrene brukes til både å kontrollere testprotokollen og spore dyrenes atferd1,,2,,3,,4,5. De typiske operant condition systemer tillate en svært detaljert analyse av hvordan dyrene samhandler med de forskjellige operanda og åpninger tilstede i kamrene. Generelt kan alle anledninger der sensorer utløses registreres av systemet, og fra disse dataene kan brukerne få detaljerte loggfiler som beskriver hva dyret gjorde under bestemte trinn i testen4,5. Selv om dette gir en omfattende representasjon av et dyrs ytelse, kan det bare brukes til å beskrive atferd som direkte utløser en eller flere sensorer4,5. Som sådan er aspekter knyttet til hvordan dyret posisjonerer seg selv og beveger seg inne i kammeret i forskjellige faser av testen ikke godt beskrevet6,7,8,9,10. Dette er uheldig, da slik informasjon kan være verdifull for å forstå dyrets oppførsel fullt ut. For eksempel kan det brukes til å avklare hvorfor visse dyr utfører dårlig på en gitt test6, for å beskrive strategiene som dyr kan utvikle for å håndtere vanskelige oppgaver6,7,8,9,10, eller å sette pris på den sanne kompleksiteten av angivelig enkel atferd11,12. For å få slik artikulert informasjon, går forskerne vanligvis til manuell analyse av videoer6,7,8,9,10,11.

Når du tar opp videoer fra operant condition kamre, valg av kamera er kritisk. Kamrene er vanligvis plassert isolert båser, med protokoller ofte gjør bruk av trinn der ingen synlig lys skinner3,,6,7,8,9. Derfor er bruk av infrarød (IR) belysning i kombinasjon med et IR-sensitivt kamera nødvendig, da det tillater synlighet selv i fullstendig mørke. Videre er plassen som er tilgjengelig for å plassere et kamera inne i isolasjonskabinettet ofte svært begrenset, noe som betyr at man fordeler sterkt fra å ha små kameraer som bruker linser med et bredt synsfelt (f.eks fiskeøyelinser)9. Mens produsenter av operant condition-systemer ofte kan levere høykvalitets kameraoppsett til sine kunder, kan disse systemene være dyre og ikke nødvendigvis passe kamre fra andre produsenter eller oppsett for andre atferdstester. En bemerkelsesverdig fordel med frittstående videokameraer er imidlertid at disse oppsettene ofte kan grensesnitt direkte med de operant kondisjoneringssystemene13,,14. Gjennom dette kan de settes opp til å bare registrere bestemte hendelser i stedet for fullstendige testøkter, noe som i stor grad kan hjelpe til med analysen som følger.

Den nåværende protokollen beskriver hvordan du bygger et billig og allsidig videokamera ved hjelp av hobbyelektronikkkomponenter. Kameraet bruker en fisheye linse, er følsom for IR belysning og har et sett med IR lysdioder (IR lysdioder) festet til den. Videre er det bygget for å ha en flat og slank profil. Sammen gjør disse aspektene det ideelt for opptak av videoer fra de mest kommersielt tilgjengelige operant kondisjoneringskamrene, samt andre atferdstestoppsett. Protokollen beskriver videre hvordan man behandler videoer innhentet med kameraet og hvordan du bruker programvarepakken DeepLabCut15,16 for å hjelpe til med å trekke ut videosekvenser av interesse, samt spore et dyrs bevegelser deri. Dette omgår delvis tilbaketrekkingen av å bruke et frittstående kamera over de integrerte løsningene som tilbys av operaniske produsenter av kondisjoneringssystemer, og gir et supplement til manuell skåring av atferd.

Det er gjort forsøk på å skrive protokollen i et generelt format for å markere at den generelle prosessen kan tilpasses videoer fra forskjellige operant kondisjoneringstester. For å illustrere visse viktige begreper brukes videoer av rotter som utfører 5-valg seriell reaksjonstidstest (5CSRTT)17 som eksempler.

Protocol

Alle prosedyrer som inkluderer dyrehåndtering er godkjent av Malmö-Lund Etisk utvalg for dyreforskning. 1. Bygge videokameraet MERK: En liste over komponentene som trengs for å bygge kameraet, finnes i tabellen over materialer. Se også figur 1, figur 2, figur 3, figur 4, figur 5. Fest den…

Representative Results

Videokameraytelse De representative resultatene ble samlet i operant condition kamre for rotter med gulvarealer på 28,5 cm x 25,5 cm, og høyder på 28,5 cm. Når fiskeøyelinsen er festet, fanger kameraet opp hele etasjes området og store deler av de omkringliggende veggene, når det plasseres over kammeret (Figur 7A). Som sådan kan en god utsikt oppnås, selv om kameraet er plassert utenfor sentrum på kammerets topp. Dette bør gjelde for sa…

Discussion

Denne protokollen beskriver hvordan du bygger et billig og fleksibelt videokamera som kan brukes til å ta opp videoer fra operant condition-kamre og andre atferdstestoppsett. Den demonstrerer videre hvordan du bruker DeepLabCut til å spore et sterkt lyssignal i disse videoene, og hvordan det kan brukes til å identifisere korte videosegmenter av interesse for videofiler som dekker full testøkter. Til slutt beskriver den hvordan man bruker sporing av en rottes hode for å utfylle analysen av atferd under operant kondis…

Offenlegungen

The authors have nothing to disclose.

Acknowledgements

Dette arbeidet ble støttet av tilskudd fra Den svenske hjernestiftelsen, Den svenske Parkinsonstiftelsen og den svenske regjeringen fond for klinisk forskning (M.A.C.), samt Wenner-Gren stiftelser (M.A.C, E.K.H.C), Åhlén foundation (M.A.C) og stiftelsen Blanceflor Boncompa Ludgniovisi, née Bildt (S.F).

Materials

32 Gb micro SD card with New Our Of Box Software (NOOBS) preinstalled The Pi hut (https://thpihut.com) 32GB
330-Ohm resistor The Pi hut (https://thpihut.com) 100287 This article is for a package with mixed resistors, where 330-ohm resistors are included.
Camera module (Raspberry Pi NoIR camera v.2) The Pi hut (https://thpihut.com) 100004
Camera ribbon cable (Raspberry Pi Zero camera cable stub) The Pi hut (https://thpihut.com) MMP-1294 This is only needed if a Raspberry Pi zero is used. If another Raspberry Pi board is used, a suitable camera ribbon cable accompanies the camera component
Colored LEDs The Pi hut (https://thpihut.com) ADA4203 This article is for a package with mixed colors of LEDs. Any color can be used.
Female-Female jumper cables The Pi hut (https://thpihut.com) ADA266
IR LED module (Bright Pi) Pi Supply (https://uk.pi-supply.com) PIS-0027
microcomputer motherboard (Raspberry Pi Zero board with presoldered headers) The Pi hut (https://thpihut.com) 102373 Other Raspberry Pi boards can also be used, although the method for automatically starting the Python script only works with Raspberry Pi zero. If using other models, the python script needs to be started manually.
Push button switch The Pi hut (https://thpihut.com) ADA367
Raspberry Pi power supply cable The Pi hut (https://thpihut.com) 102032
Raspberry Pi Zero case The Pi hut (https://thpihut.com) 102118
Raspberry Pi, Mod my pi, camera stand with magnetic fish eye lens and magnetic metal ring attachment The Pi hut (https://thpihut.com) MMP-0310-KIT

Referenzen

  1. Pritchett, K., Mulder, G. B. Operant conditioning. Contemporary Topics in Laboratory Animal Science. 43 (4), (2004).
  2. Clemensson, E. K. H., Novati, A., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntington disease shows slowed learning in a Go/No-Go-like test of visual discrimination. Behavioural Brain Research. 359, 116-126 (2019).
  3. Asinof, S. K., Paine, T. A. The 5-choice serial reaction time task: a task of attention and impulse control for rodents. Journal of Visualized Experiments. (90), e51574 (2014).
  4. Coulbourn instruments. Graphic State: Graphic State 4 user’s manual. Coulbourn instruments. , 12-17 (2013).
  5. Med Associates Inc. Med-PC IV: Med-PC IV programmer’s manual. Med Associates Inc. , 21-44 (2006).
  6. Clemensson, E. K. H., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntingon disease shows signs of fronto-striatal dysfunction in two operant conditioning tests of short-term memory. PloS One. 12 (1), (2017).
  7. Herremans, A. H. J., Hijzen, T. H., Welborn, P. F. E., Olivier, B., Slangen, J. L. Effect of infusion of cholinergic drugs into the prefrontal cortex area on delayed matching to position performance in the rat. Brain Research. 711 (1-2), 102-111 (1996).
  8. Chudasama, Y., Muir, J. L. A behavioral analysis of the delayed non-matching to position task: the effects of scopolamine, lesions of the fornix and of the prelimbic region on mediating behaviours by rats. Psychopharmacology. 134 (1), 73-82 (1997).
  9. Talpos, J. C., McTighe, S. M., Dias, R., Saksida, L. M., Bussey, T. J. Trial-unique, delayed nonmatching-to-location (TUNL): A novel, highly hippocampus-dependent automated touchscreen test of location memory and pattern separation. Neurobiology of Learning and Memory. 94 (3), 341 (2010).
  10. Rayburn-Reeves, R. M., Moore, M. K., Smith, T. E., Crafton, D. A., Marden, K. L. Spatial midsession reversal learning in rats: Effects of egocentric cue use and memory. Behavioural Processes. 152, 10-17 (2018).
  11. Gallo, A., Duchatelle, E., Elkhessaimi, A., Le Pape, G., Desportes, J. Topographic analysis of the rat’s behavior in the Skinner box. Behavioural Processes. 33 (3), 318-328 (1995).
  12. Iversen, I. H. Response-initiated imaging of operant behavior using a digital camera. Journal of the Experimental Analysis of Behavior. 77 (3), 283-300 (2002).
  13. Med Associates Inc. Video monitor: Video monitor SOF-842 user’s manual. Med Associates Inc. , 26-30 (2004).
  14. . Coulbourn Instruments Available from: https://www.coulbourn.com/product_p/h39-16.htm (2020)
  15. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).
  16. Nath, T., Mathis, A., Chen, A. C., Patel, A., Bethge, M., Mathis, M. W. Using DeepLabCut for 3D markerless pose estimation across species and behaviors. Nature Protocols. 14 (7), 2152-2176 (2019).
  17. Bari, A., Dalley, J. W., Robbins, T. W. The application of the 5-chopice serial reaction time task for the assessment of visual attentional processes and impulse control in rats. Nature Protocols. 3 (5), 759-767 (2008).
  18. . Raspberry Pi foundation Available from: https://thepi.io/how-to-install-raspbian-on-the-raspberry-pi/ (2020)
  19. . Pi-supply Available from: https://learn.pi-supply.com/make/bright-pi-quickstart-faq/ (2018)
  20. . Python Available from: https://wiki.python.org/moin/BeginnersGuide/NonProgrammers (2020)
  21. . MathWorks Available from: https://mathworks.com/academia/highschool/ (2020)
  22. . Cran.R-Project.org Available from: https://cran.r-project.org/manuals.html (2020)
  23. Liu, Y., Tian, C., Huang, Y. . Critical assessment of correction methods for fisheye lens distortion. The international archives of the photogrammetry, remote sensing and spatial information sciences. , (2016).
  24. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  25. Graving, J. M., et al. DeepPoseKit, a software toolkit for fast and robust animal pose estimation using deep learning. Elife. 8 (47994), (2019).
  26. Geuther, B. Q., et al. Robust mouse tracking in complex environments using neural networks. Communications Biology. 2 (124), (2019).

Play Video

Diesen Artikel zitieren
Clemensson, E. K. H., Abbaszadeh, M., Fanni, S., Espa, E., Cenci, M. A. Tracking Rats in Operant Conditioning Chambers Using a Versatile Homemade Video Camera and DeepLabCut. J. Vis. Exp. (160), e61409, doi:10.3791/61409 (2020).

View Video