Une analyse coûts-avantages est une approche de plateau de balance qui le cerveau effectue au cours du processus décisionnel. Ici, nous vous proposons un protocole pour former les rats sur un modèle décisionnel basé sur l’opérant, où les rats choisissent des récompenses supérieures au détriment d’attendre 15 s à les recevoir.
Prise de décision guidée par renforcement est la possibilité de choisir entre concurrents cours d’action fondée sur la valeur relative des avantages et de leurs conséquences. Ce processus fait partie intégrante du comportement humain normal et s’est avéré être perturbée par des troubles neurologiques et psychiatriques tels que la toxicomanie, la schizophrénie et la dépression. Les rongeurs ont longtemps été utilisés pour découvrir la neurobiologie de la cognition humaine. À cette fin, plusieurs tâches comportementales ont été développés ; Cependant, la plupart sont non automatisées et est fastidieuse. Le développement récent du microcontrôleur open source a permis aux chercheurs automatiser les tâches de base opérant pour évaluer une variété de tâches cognitives, normaliser la présentation du stimulus, améliorer l’enregistrement de données et par conséquent, les résultats de la recherche. Nous décrivons ici une axée sur le retard guidée par renforcement décisionnelle tâche automatisée, à l’aide d’un opérant en labyrinthe en t contrôlée par les logiciels écriture personnalisée. En utilisant ces tâches décisionnelles, nous montrons les changements dans les activités potentielles de champ local dans le cortex cingulaire antérieur d’un rat alors qu’il joue un rôle décisionnel de rentabilité-et axée sur le retard.
Prise de décision est le processus de reconnaissance et en sélectionnant le choix basés sur les valeurs et les préférences du décideur et les conséquences de l’ action sélectionnée1. Bien que le processus décisionnel a été étudiée dans différents domaines (p. ex., économie, psychologie et neurosciences), des mécanismes neuronaux qui sous-tendent ces fonctions cognitives ne sont pas encore bien compris. Deux sous-catégories de prise de décision sont perceptuelle de prise de décisions et de la prise de décision guidée par renforcement. Bien qu’ils intègrent les concepts et les éléments qui se chevauchent considérables, perceptuel de prise de décision s’appuie sur l’information sensorielle disponible1,2, alors que la prise de décision guidée par renforcement porte sur la valeur relative des actions acquises sur une échelle de temps spécifique3. Un aspect important du processus décisionnel renforcé est l’analyse de rentabilité effectuée intuitivement par le cerveau en informatique les avantages des choix donné et en soustrayant les coûts associés à chaque variante1.
Le labyrinthe en t (ou la variante labyrinthe en Y) est l’un des labyrinthes plus utilisés dans les expériences cognitives à l’aide de rongeurs. Les animaux sont placés dans le bras de départ (la base du T) et autorisés à choisir le bras d’objectif (une des branches latérales). Tâches comme une alternance forcée ou de la discrimination gauche-droite servent surtout sur des rongeurs dans le labyrinthe en t pour tester la référence et le travail de mémoire4. T-labyrinthes sont également largement utilisés dans des expériences de prise de décision5,6,7. Dans la conception la plus simple, la récompense est placée dans les bras qu’un seul but. Le choix est prévisible et animaux préféreraient certainement la récompense plutôt que rien, quelle que soit la valeur de la récompense. Une autre option consiste à placer des récompenses dans les deux bras de l’objectif et de laisser les animaux font un choix de quel chemin prendre selon plusieurs paramètres(p. ex., la préférence naturelle de l’animal, la différence dans la valeur de la récompense et les coûts à payer). Lors de la conception basée sur les valeurs, la tâche est plus compliquée en ayant des propriétés de plateau de balance. De cette façon, un animal reçoit des récompenses évaluées différemment en choisissant entre les deux variantes, ainsi qu’entre les coûts des actions [c’est-à-dire, la quantité d’attente (délai de base) ou la somme d’efforts (fondé sur l’effort) pour recevoir des récompenses], chacun contribuant à la décision qui est prise5,6.
Dans traditionnelle axée sur le retard labyrinthe en t prise de décisions, les animaux sont entraînés pour sélectionner le bras grand récompense (HRA) et éviter le contraire bras faible récompense (du Seigneur LRA). Les côtés de l’autorité HRA et la LRA restent inchangées tout au long de l’expérience. Bien que la tâche décrite ci-dessus a été bien documentée dans la littérature, il souffre de plusieurs inconvénients procédurales. Tout d’abord, en ayant un bras objectif fixe, l’animal sait qui armer de choisir dès le début de chaque essai. Dans ce scénario, les animaux peut choisir le bras objectif basé sur leur mémoire plutôt que sur la prise de décision. Par conséquent, dans un modèle décisionnel basé sur le délai, si un animal sélectionne la récompense faible en raison de l’intervention de l’étude, il sera pas clair si cela est dû à une perte de mémoire ou à l’intervention de l’étude. Un groupe de contrôle de mémoire à séparer le comportement observé d’un problème de mémoire pourrait être considéré, mais cela pèse sur les chercheurs et les animaux en raison du travail supplémentaire7. Un deuxième sujet de préoccupation est le moment de la prise de décision par l’animal : une fois que les animaux atteindre la zone de décision (la jonction de toutes les trois armes), ils ressemblent généralement à gauche et à droite, peser les coûts et avantages au sujet de chaque bras et ensuite prendre leur décision. Cependant, après quelques essais, ils effectuent un tel calcul avant d’arriver à la zone de décision et il suffit de lancer directement sur le bras de la récompense. En conséquence, ces deux inconvénients — un biais préalable à un bras et à trouver le moment de la prise de décisions — tous deux fortement interrompent l’interprétation d’électrophysiologiques et données de neuro-imagerie.
Dans la méthode expliquée dans cet article, le bras préféré (HRA) est repéré par un signal auditif et peuvent varier d’un procès à un procès. Animaux entamer les essais en entrant dans la zone de test (Figure 1) et en déclenchant le signal auditif par « nez-piquer » une barrière infrarouge qui a été placée à la jonction des trois armes. Le signal audio (20 dB, entre 500 et 1 000 ms) est joué par un haut-parleur à l’extrémité du bras du but.
Rongeurs ont longtemps été utilisés dans des études neuroscientifiques qui traitent de sujets différents, des fonctions cognitives telles que l’apprentissage et mémoire2,14 et comportement renforcé7,15,16 pour le contrôle central des organes17,18 et neuropharmacologie19,</su…
The authors have nothing to disclose.
Cette recherche a été financée par la Fondation pour les neurosciences RMH, Australie ; la Fondation australienne de cerveau ; la bourse de Thyne Reid ARPC, Australie ; et par un projet de subvention des Sciences cognitives et Technologies Conseil, Iran à Abbas Haghparast.
T-maze | Self made | ||
Dustless Precision Sugar Pellets | TSE Systems Intl. Group | F0023 | 45 mg, Sucrose |
Ketamine Hydrochloride Injection, USP | Sigma-Aldrich | 6740-87-0 | |
Xylazine | Sigma-Aldrich | 7361-61-7 | |
stereotaxic device | Stoelting | ||
Isofluran | Santa Cruz Biotechnology | sc-363629Rx | |
PFA-coated stainless-steel wires | A-M systems | ||
acrylic cement | Vertex, MA, USA | ||
(wooden or PVC (polyvinyl chloride)-made) | local suppliers | ||
Mini-Fit Power Connector | Molex | 15243048 | |
ethannol 70% | Local suppliers | ||
buprenorphine | diamondback drugs | ||
Arduino UNO | Arduino | https://www.arduino.cc/ | |
Infrared emitting diode | Sharp | GL480E00000F | http://www.sharp-world.com/ |
Chronux Toolbox | Chronux.org | ||
Arduino codes | https://github.com/dechuans/arduino-maze |