Uma análise de custo-benefício é uma abordagem de escala pesando que o cérebro executa no decurso da tomada de decisão. Aqui, propomos um protocolo para treinar os ratos em uma paradigma de tomada de decisão baseada em operante onde ratos escolhem maiores recompensas em detrimento à espera de 15 s para recebê-los.
Tomada de decisão orientada para o reforço é a capacidade de escolher entre concorrentes cursos de ação com base no valor relativo dos benefícios e suas consequências. Este processo é parte integrante do comportamento humano normal e foi mostrado para ser interrompida por desordens neurológicas e psiquiátricas como vício, esquizofrenia e depressão. Roedores têm sido muito utilizados para descobrir a neurobiologia da cognição humana. Para este efeito, foram desenvolvidas várias tarefas comportamentais; no entanto, a maioria é não-automatizados e é trabalhosas. O desenvolvimento recente do microcontrolador aberto permitiu aos investigadores automatizar tarefas baseadas em operante para avaliar uma variedade de tarefas cognitivas, padronizar a apresentação do estímulo, melhorar a gravação de dados e consequentemente, melhorar a a saída da pesquisa. Aqui, descrevemos uma baseado em atraso orientada para o reforço de decisão tarefa automatizada, usando um operante ZIF controlado por programas de software personalizados. Usando essas tarefas de tomada de decisão, nós mostramos as mudanças nas atividades potenciais locais de campo no córtex cingulado anterior de um rato enquanto ele executa uma tarefa de tomada de decisão baseada em atraso e custo-benefício.
Tomada de decisão é o processo de reconhecimento e selecionando opções com base nos valores e preferências do tomador de decisão e as consequências da ação selecionada1. Embora a tomada de decisão foi estudada extensivamente em campos diferentes (ou seja, economia, psicologia e neurociência), mecanismos neurais subjacentes a tais habilidades cognitivas não são ainda totalmente compreendidos. Duas subcategorias de tomada de decisão são perceptivas de tomada de decisões e tomada de decisão orientada por reforço. Embora eles incorporam conceitos e elementos de sobreposição consideráveis, perceptual de tomada de decisões se baseia em informações sensoriais disponíveis1,2, Considerando que a tomada de decisões guiadas reforço lida com o valor relativo de ações adquirida ao longo de uma escala de tempo específico3. Um aspecto importante do processo de decisão reforçado é a análise de custo-benefício que é intuitivamente realizada pelo cérebro computação os benefícios das escolhas determinados e subtraindo os custos associados de cada alternativa1.
A ZIF (ou a variante Y-labirinto) é um dos labirintos mais utilizados em experiências cognitivas usando roedores. Os animais são colocados no início (a base do T) braço e autorizados a escolher o braço de gol (um dos braços do lado). Tarefas como uma alternância forçada ou discriminação esquerda-direita são usadas principalmente com roedores na ZIF para testar a memória de referência e trabalho4. T-labirintos são também amplamente utilizados em experiências de tomada de decisão5,6,7. O design mais simples, a recompensa é colocada no braço de apenas um gol. A escolha é previsível, e os animais certamente preferiria a recompensa ao invés de nada, independentemente do valor da recompensa. Outra opção é colocar recompensas em ambos os braços do objetivo e então deixar os animais uma escolha de qual caminho tomar, dependendo de vários parâmetros(ou seja, a preferência natural do animal, a diferença do valor das recompensas e os custos a pagar). Na concepção baseada em valor, a tarefa é mais complicada por ter propriedades de escala pesando. Desta forma, um animal recebe recompensas valorizadas de forma diferente, escolhendo entre as duas alternativas, bem como entre os custos das ações [ou seja, a quantidade de espera (baseado em atraso) ou a quantidade de esforço (baseada no esforço) necessários para receber recompensas], cada contribuindo para a decisão que é feita de5,6.
Tradicional baseado em atraso ZIF na tomada de decisão, os animais são treinados para selecionar o braço de alta recompensa (HRA) e evitar o oposto braço baixa recompensa (LRA). Os lados do HRA e LRA permanecem inalterados durante todo o experimento. Embora a tarefa descrita acima tem sido bem documentada na literatura, sofre várias desvantagens processuais. Em primeiro lugar, por ter um braço de objetivo fixo, o animal sabe qual braço escolher desde o início de cada julgamento. Neste cenário, animais podem selecionar o braço objetivo baseado na sua memória, em vez de tomada de decisão. Portanto, em um paradigma de tomada de decisão baseada em atraso, se um animal seleciona a recompensa baixa por causa da intervenção de estudo, não ficará claro se isto é devido a uma perda de memória ou para a estudo de intervenção. Pode ser considerado um grupo de controle de memória para segregar o comportamento observado com o problema de memória, mas isto encargos pesquisadores e animais parecidos devido o trabalho adicional de7. Uma segunda preocupação é o momento de tomada de decisão pelo animal: uma vez animais chegarem à zona de decisão (a junção de todas as três armas), eles geralmente olhar à esquerda e à direita, pesar os custos e benefícios em relação a cada braço e então tomar sua decisão. No entanto, após alguns ensaios, executar tal um cálculo antes de chegar na zona de decisão e simplesmente vão directamente para o braço de recompensa. Como resultado, estes dois inconvenientes — um pre-viés para um braço e encontrar o momento de tomada de decisão — ambos altamente interromper a interpretação de eletrofisiológicos e dados de neuroimagem.
No método explicado neste artigo, o braço preferencial (HRA) é preparado por um sinal auditivo e pode variar de um julgamento para o julgamento. Animais iniciar os ensaios ao entrar na zona de teste (Figura 1) e acionar o sinal auditivo pelo “nariz-cutucando” uma porta de infravermelha que foi colocada na junção das três armas. O sinal de áudio (20 dB, entre 500 e 1.000 ms) é jogado de um alto-falante no final do braço do objetivo.
Roedores têm sido muito utilizados em estudos neurocientíficos que lidam com temas diferentes, desde as habilidades cognitivas como a aprendizagem e memória2,14 e comportamento reforçado7,15,16 para o controle central de órgãos17,18 e Neurofarmacologia19,…
The authors have nothing to disclose.
Esta pesquisa foi apoiada pela Fundação de neurociência RMH, Austrália; a Fundação australiana do cérebro; o RACP Thyne Reid Fellowship, Austrália; e por um projeto de concessão da ciências cognitivas e do Conselho de tecnologias, Irã de Abbas Haghparast.
T-maze | Self made | ||
Dustless Precision Sugar Pellets | TSE Systems Intl. Group | F0023 | 45 mg, Sucrose |
Ketamine Hydrochloride Injection, USP | Sigma-Aldrich | 6740-87-0 | |
Xylazine | Sigma-Aldrich | 7361-61-7 | |
stereotaxic device | Stoelting | ||
Isofluran | Santa Cruz Biotechnology | sc-363629Rx | |
PFA-coated stainless-steel wires | A-M systems | ||
acrylic cement | Vertex, MA, USA | ||
(wooden or PVC (polyvinyl chloride)-made) | local suppliers | ||
Mini-Fit Power Connector | Molex | 15243048 | |
ethannol 70% | Local suppliers | ||
buprenorphine | diamondback drugs | ||
Arduino UNO | Arduino | https://www.arduino.cc/ | |
Infrared emitting diode | Sharp | GL480E00000F | http://www.sharp-world.com/ |
Chronux Toolbox | Chronux.org | ||
Arduino codes | https://github.com/dechuans/arduino-maze |