Un’analisi costi-benefici è un approccio di scala di pesatura che il cervello esegue nel corso del processo decisionale. Qui, vi proponiamo un protocollo per addestrare i ratti su un paradigma decisionale basato su operant dove ratti scegliere premi più elevati, a scapito in attesa per 15 s a riceverli.
Rinforzo-guidato processo decisionale è la possibilità di scegliere tra concorrenti corsi d’azione basato sul valore relativo i benefici e le loro conseguenze. Questo processo è parte integrante del comportamento umano normale e ha dimostrato di essere disturbato da disturbi neurologici e psichiatrici quali dipendenza, schizofrenia e la depressione. Roditori sono stati utilizzati a lungo per scoprire la neurobiologia della cognizione umana. A tal fine, sono state sviluppate diverse attività comportamentali; Tuttavia, la maggior parte sono non automatizzati e sono alta intensità di lavoro. Il recente sviluppo del microcontrollore open source ha permesso ai ricercatori di automatizzare attività basate su strumentale per valutare una gamma di compiti cognitivi, standardizzando la presentazione dello stimolo, migliorandone la registrazione di dati e di conseguenza, l’output di ricerca. Qui, descriviamo una ritardo-base rinforzo-guida decisionale operazione automatica, usando un operant t-labirinto controllato da programmi software personalizzato. Utilizzando questi compiti decisionali, mostriamo le modifiche alle attività potenziali di campo locale nella corteccia anteriore del cingulate di un ratto mentre esegue un compito decisionale basato su ritardo costi e benefici.
Processo decisionale è il processo di riconoscimento e selezione di scelte basate sui valori e le preferenze del decisore e le conseguenze dell’ azione selezionata1. Anche se il processo decisionale è stato ampiamente studiato in diversi campi (cioè, economia, psicologia e neuroscienze), i meccanismi neurali alla base di tali capacità cognitive ancora completamente non sono capiti. Due sottocategorie del processo decisionale sono decisioni percettive e rinforzo-guida del processo decisionale. Anche se essi incorporano concetti e considerevole degli elementi sovrapposti, percettivo processo decisionale si basa su informazioni sensoriali disponibili1,2, considerando che il processo decisionale di rinforzo-guida offerte con il valore relativo delle azioni maturate nel corso di una specifica scala cronologica3. Un aspetto importante del rinforzo processo decisionale è l’analisi costi-benefici che viene eseguita in modo intuitivo dal cervello calcolando i benefici delle scelte determinate e sottraendo i costi di ogni alternativa1.
Il t-labirinto (o la variante Y-labirinto) è uno dei labirinti più utilizzati in esperimenti cognitivi usando i roditori. Gli animali sono collocati nel braccio di inizio (la base della T) e consentiti di scegliere il braccio di obiettivo (uno dei bracci laterali). Attività come un forzato alternanza o sinistra-destra discriminazione sono usata principalmente con i roditori nel t-labirinto per testare riferimento e lavoro memoria4. T-labirinti sono anche ampiamente utilizzati nel processo decisionale esperimenti5,6,7. Nel modello più semplice, la ricompensa viene inserita nel braccio un solo obiettivo. La scelta è prevedibile, e animali certamente preferirebbe la ricompensa piuttosto che niente, indipendentemente dal valore di ricompensa. Un’altra opzione è di posizionare ricompense in entrambi i bracci obiettivo e poi lasciare che gli animali fanno una scelta di quale percorso a prendere a seconda di diversi parametri (cioè, la preferenza naturale dell’animale, la differenza nel valore di ricompense e i costi da pagare). Nella progettazione basata sul valore, il compito è più complicato avendo proprietà scala di pesatura. In questo modo, un animale riceve premi valutati in modo diverso, scegliendo tra le due alternative, nonché tra i costi delle azioni [cioè, la quantità di attesa (ritardo-base) o la quantità di sforzo (sforzo-basato) necessario per ricevere ricompense], ciascuno contribuendo alla decisione che è stata effettuata5,6.
Nel tradizionale basato su ritardo t-labirinto processo decisionale, gli animali sono addestrati per selezionare il braccio alta ricompensa (HRA) ed evitare l’opposto braccio basso ricompensa (LRA). I lati dell’Autorità registrazione integrità e il LRA rimangono invariati in tutto l’esperimento. Anche se l’attività descritta sopra è stata ben documentata nella letteratura, soffre di diversi inconvenienti procedurali. In primo luogo, avendo un braccio di obiettivo fisso, l’animale sa che braccio da scegliere all’inizio di ogni prova. In questo scenario, gli animali possono selezionare il braccio di obiettivo basato sulla loro memoria, piuttosto che il processo decisionale. Quindi, in un paradigma decisionale basato su ritardo, se un animale seleziona la ricompensa bassa a causa dell’intervento di studio, non sarà chiaro se questo è a causa di una perdita di memoria o l’intervento di studio. Un gruppo di controllo di memoria per segregare il comportamento osservato dal problema di memoria potrebbe essere considerato, ma questo oneri ricercatori e animali simili a causa del lavoro aggiuntivo7. Una seconda preoccupazione è il momento del processo decisionale da parte dell’animale: una volta che gli animali raggiungono la zona di decisione (incrocio di tutte le tre armi), di solito guardare a sinistra e a destra, pesano i costi e i benefici per quanto riguarda ogni braccio e quindi la loro decisione. Tuttavia, dopo un paio di prove, calcoli prima di arrivare alla zona della decisione e semplicemente eseguire direttamente al braccio ricompensa. Di conseguenza, questi due inconvenienti — una pre-distorsione per un braccio e trovare il momento del processo decisionale — entrambi altamente interrompere l’interpretazione di elettrofisiologici e dati di neuroimaging.
Nel metodo spiegato in questo documento, il braccio comodo (HRA) viene ricercato da un segnale uditivo e può variare da prova a prova. Animali avviare le prove di entrare nella zona di test (Figura 1) e innescando il cue uditivo da “naso-frugando” un cancello a infrarossi che è stato inserito all’incrocio delle tre armi. Il segnale audio (20 dB, tra 500 e 1.000 ms) viene riprodotto da un altoparlante all’estremità del braccio obiettivo.
Roditori lungamente sono stati usati negli studi sulle neuroscienze che trattano diversi argomenti, da abilità cognitive quali apprendimento e memoria2,14 e comportamento rinforzato7,15,16 al controllo centrale di organi17,18 e neurofarmacologia19,20. Pr…
The authors have nothing to disclose.
Questa ricerca è stata sostenuta dalla Fondazione neuroscienze di RMH, Australia; la Fondazione di cervello australiano; il RACP Thyne Reid Fellowship, Australia; e da un progetto di concedere le Scienze Cognitive e tecnologie Consiglio, l’Iran ad Abbas Haghparast.
T-maze | Self made | ||
Dustless Precision Sugar Pellets | TSE Systems Intl. Group | F0023 | 45 mg, Sucrose |
Ketamine Hydrochloride Injection, USP | Sigma-Aldrich | 6740-87-0 | |
Xylazine | Sigma-Aldrich | 7361-61-7 | |
stereotaxic device | Stoelting | ||
Isofluran | Santa Cruz Biotechnology | sc-363629Rx | |
PFA-coated stainless-steel wires | A-M systems | ||
acrylic cement | Vertex, MA, USA | ||
(wooden or PVC (polyvinyl chloride)-made) | local suppliers | ||
Mini-Fit Power Connector | Molex | 15243048 | |
ethannol 70% | Local suppliers | ||
buprenorphine | diamondback drugs | ||
Arduino UNO | Arduino | https://www.arduino.cc/ | |
Infrared emitting diode | Sharp | GL480E00000F | http://www.sharp-world.com/ |
Chronux Toolbox | Chronux.org | ||
Arduino codes | https://github.com/dechuans/arduino-maze |