Summary

Оперантной протоколы для оценки анализа затрат выгод во время усиленного решений грызуны

Published: September 10, 2018
doi:

Summary

Анализ затрат выгод является весы подход, который мозг выполняет в ходе принятия решений. Здесь, мы предлагаем протокол обучить крыс на оперантного решений парадигмы где крыс выбрать высшие награды за счет ждет 15 s, чтобы получить их.

Abstract

Армирование руководствуясь решений является возможность выбора между конкурирующими курсы действий, основанных на значении относительного преимущества и их последствий. Этот процесс является неотъемлемой частью нормального человеческого поведения и было показано, чтобы быть нарушена неврологических и психиатрических расстройств, таких как наркомания, шизофрения и депрессия. Грызуны давно используется для раскрыть нейробиологии человеческого познания. С этой целью были разработаны несколько поведенческих задач; Однако большинство не автоматизирован и трудоемкий. Недавнее развитие открытым исходным кодом микроконтроллера позволило исследователей для автоматизации задач на основе оперантного для оценки различных когнитивных задач, стандартизации стимул презентации, улучшение записи данных и следовательно, улучшение Результаты этих исследований. Здесь мы описываем автоматизированной задержки задачи на основе подкрепления руководствуясь принятия решений, используя оперантного t-лабиринту контролируется пользовательской программы. С помощью этих решений задач, мы показывают изменения в местах потенциальной деятельности в передней поясной коры крыса, пока он выполняет задачу на основе задержки принятия затрат и выгод.

Introduction

Принятия решений — это процесс признания и выбор вариантов, основанных на ценностях и предпочтениями принимающего решения и последствия выбранного действия1. Хотя принятие решений широко изучены в различных областях (например, экономика, психология и нейронауки), нейронные механизмы, лежащие в основе таких когнитивных способностей являются полностью не поняли. Две подкатегории принятия решений являются восприятия решений и усиления руководствуясь принятия решений. Хотя они включают значительным пересекающихся элементов и концепций, восприятия решений опирается на имеющиеся сенсорной информации1,2, тогда как подкрепление руководствуясь принятия решений занимается относительное значение накопленный за конкретные сроки3действий. Одним из важных аспектов усиленного решений является анализ затрат выгод, который выполняется интуитивно мозга путем вычисления преимущества данного выбора и вычитая расходы каждого альтернативного варианта1.

T-лабиринту (или вариант Y-лабиринт) является одним из наиболее часто используемых лабиринты в научные эксперименты, используя грызунов. Животные помещены в начало руку (база T) и разрешено выбрать цели руку (один из стороны оружия). Такие задачи, как принудительное чередование или влево вправо дискриминации главным образом используются с грызунами в t-лабиринту для проверки ссылок и рабочей памяти4. T-лабиринты также широко используются в принятии решений эксперименты5,6,7. В простой дизайн вознаграждение помещается в руке только одна цель. Выбор является предсказуемым, и животных безусловно предпочли бы вознаграждение, а не ничего, независимо от значения награду. Другой вариант заключается в том, чтобы место награды в обе цели оружия и затем пусть животных сделать выбор какой путь принять в зависимости от нескольких параметров (т.е., природные предпочтение животного, разница в стоимости награды и расходы оплачиваются). В разработке на основе значений задача более сложная, задав свойства весы. Таким образом животное получает по-разному ценные награды, выбирая между двумя альтернативами, а также между расходами действий [то есть, количество ожидания (задержка основе) или количество усилий (на основе усилий) необходимо получать награды], Каждый вклад в решение, которое производится5,6.

В традиционной основе задержки t-лабиринту решений, животные проходят подготовку для выберите высокую награду руку (HRA) и избежать обратное низкое вознаграждение руку (ЛРА). По бокам HRA и ЛРА остаются неизменными на протяжении всего эксперимента. Хотя описанные выше задачи хорошо задокументировано в литературе, она страдает от нескольких процедурных недостатков. Во-первых имея фиксированной цели руку, животное знает, который руку на выбор с самого начала каждого судебного разбирательства. В этом случае животные могут выбрать цели руку, основанный на их памяти, а не на процесс принятия решений. Таким образом в основе задержки принятия парадигмы, если животное выбирает низкое вознаграждение за исследование вмешательство, он не будет ясно ли это из-за потери памяти или для изучения интервенции. Памяти контрольной группы для разделения наблюдаемое поведение от памяти проблемы могли бы быть рассмотрены, но это бремя исследователей и животных из-за дополнительной работы7. Второй проблемой является на момент принятия решений по животное: как только животные достигают решение зоны (соединение всех трех оружия), они обычно выглядят влево и вправо, взвесить затраты и выгоды относительно каждой руки и затем сделать их решение. Однако после нескольких испытаний, они выполняют такие вычисления до прибытия в зону в решение и просто запустить непосредственно на руки вознаграждения. Как результат, эти два недостатка — предварительно уклоном одной рукой и нахождение на момент принятия решений — как высоко прервать интерпретации электрофизиологических и данных нейровизуализации.

В методе, описано в этом документе предпочтительным руку (HRA) cued, слуховой сигнал и может варьироваться от судебного разбирательства в суде. Животных инициировать судебные процессы, введя тестовый зоны (рис. 1) и вызывая слуховой сигнал, «нос тыкая» инфракрасный ворота, который был размещен на стыке трех оружия. Звуковой сигнал (20 дБ, между 500 и 1000 мс) играют от диктора в конце цели руку.

Protocol

Все процедуры объяснил здесь были утверждены и осуществляются в соответствии с руководство по уходу и использованию лабораторных животных и были одобрены Флори Комитет по этике в области Институт животного или исследовательский центр неврологии. 1. жилья, обработка и ог?…

Representative Results

Здесь представлены данные записанные LFP от левой орбитофронтальной коры (OFC) и передней поясной коры (АКК) шести самцов крыс Wistar с помощью биполярного электрода (из PFA-покрытием из нержавеющей стали). Таблица 1 показывает длину поведенческих приобретение для ка?…

Discussion

Грызуны давно используется в neuroscientific исследований, которые занимаются различные темы, от когнитивных способностей, таких как обучения и памяти2,14 и армированных поведение7,,1516 для централизованного кон?…

Declarações

The authors have nothing to disclose.

Acknowledgements

Это исследование было поддержано RMH нейронауки Foundation, Австралия; в Австралии мозга фонд; РПИК Тйн Рид стипендий, Австралия; и проект грант от когнитивных наук и технологии Совета, Иран Аббас Haghparast.

Materials

T-maze Self made
Dustless Precision Sugar Pellets TSE Systems Intl. Group F0023 45 mg, Sucrose
Ketamine Hydrochloride Injection, USP Sigma-Aldrich 6740-87-0
Xylazine Sigma-Aldrich 7361-61-7
stereotaxic device Stoelting
Isofluran Santa Cruz Biotechnology sc-363629Rx
PFA-coated stainless-steel wires A-M systems
acrylic cement Vertex, MA, USA
(wooden or PVC (polyvinyl chloride)-made) local suppliers
Mini-Fit Power Connector Molex 15243048
ethannol 70% Local suppliers
buprenorphine diamondback drugs
Arduino UNO Arduino https://www.arduino.cc/
Infrared emitting diode Sharp GL480E00000F http://www.sharp-world.com/
Chronux Toolbox Chronux.org
Arduino codes https://github.com/dechuans/arduino-maze

Referências

  1. Gold, J. I., Shadlen, M. N. The neural basis of decision making. Annual Review of Neuroscience. 30, 535-574 (2007).
  2. Shi, Z., Müller, H. J. Multisensory perception and action: development, decision-making, and neural mechanisms. Frontiers in Integrative Neuroscience. 7, 81 (2013).
  3. Sutton, R. S., Barto, A. G. . Reinforcement Learning: An Introduction. 1, (1998).
  4. Khani, A., Rainer, G. Neural and neurochemical basis of reinforcement-guided decision making. Journal of Neurophysiology. 116, 724-741 (2016).
  5. Fatahi, Z., Haghparast, A., Khani, A., Kermani, M. Functional connectivity between anterior cingulate cortex and orbitofrontal cortex during value-based decision making. Neurobiology of Learning and Memory. 147, 74-78 (2018).
  6. Khani, A., et al. Activation of cannabinoid system in anterior cingulate cortex and orbitofrontal cortex modulates cost-benefit decision making. Psychopharmacology. 232, 2097-2112 (2015).
  7. Rudebeck, P. H., Walton, M. E., Smyth, A. N., Bannerman, D. M., Rushworth, M. F. Separate neural pathways process different decision costs. Nature Neuroscience. 9, 1161-1168 (2006).
  8. Gage, G. J., et al. Surgical implantation of chronic neural electrodes for recording single unit activity and electrocorticographic signals. Journal of Visualized Experiments. (60), e3565 (2012).
  9. Paxinos, G., Watson, C. . The Rat Brain in Stereotaxic Coordinates. , (1998).
  10. Bokil, H., Andrews, P., Kulkarni, J. E., Mehta, S., Mitra, P. P. Chronux: a platform for analyzing neural signals. Journal of Neuroscience Methods. 192, 146-151 (2010).
  11. Cohen, M. X. . Analyzing Neural Time Series Data: Theory and Practice. , (2014).
  12. Luk, C. -. H., Wallis, J. D. Choice coding in frontal cortex during stimulus-guided or action-guided decision-making. Journal of Neuroscience. 33, 1864-1871 (2013).
  13. Rudebeck, P. H., et al. Frontal cortex subregions play distinct roles in choices between actions and stimuli. Journal of Neuroscience. 28, 13775-13785 (2008).
  14. Goshadrou, F., Kermani, M., Ronaghi, A., Sajjadi, S. The effect of ghrelin on MK-801 induced memory impairment in rats. Peptides. 44, 60-65 (2013).
  15. Haghparast, A., et al. Intrahippocampal administration of D2 but not D1 dopamine receptor antagonist suppresses the expression of conditioned place preference induced by morphine in the ventral tegmental area. Neuroscience Letters. 541, 138-143 (2013).
  16. Esmaeili, M. -. H., Kermani, M., Parvishan, A., Haghparast, A. Role of D1/D2 dopamine receptors in the CA1 region of the rat hippocampus in the rewarding effects of morphine administered into the ventral tegmental area. Behavioural Brain Research. 231, 111-115 (2012).
  17. Chaleek, N., Kermani, M., Eliassi, A., Haghparast, A. Effects of orexin and glucose microinjected into the hypothalamic paraventricular nucleus on gastric acid secretion in conscious rats. Neurogastroenterology & Motility. 24, e94-e102 (2012).
  18. Kermani, M., Eliassi, A. Gastric acid secretion induced by paraventricular nucleus microinjection of orexin A is mediated through activation of neuropeptide Yergic system. Neurociência. 226, 81-88 (2012).
  19. Kermani, M., Azizi, P., Haghparast, A. The role of nitric oxide in the effects of cumin (Cuminum Cyminum L.) fruit essential oil on the acquisition of morphine-induced conditioned place preference in adult male mice. Chinese Journal of Integrative Medicine. , 1-6 (2012).
  20. Ahmadi, A., et al. Synthesis and antinociceptive behaviors of new methyl and hydroxyl derivatives of phencyclidine. Current Medicinal Chemistry. 19, 763-769 (2012).

Play Video

Citar este artigo
Kermani, M., Fatahi, Z., Sun, D., Haghparast, A., French, C. Operant Protocols for Assessing the Cost-benefit Analysis During Reinforced Decision Making by Rodents. J. Vis. Exp. (139), e57907, doi:10.3791/57907 (2018).

View Video