Анализ затрат выгод является весы подход, который мозг выполняет в ходе принятия решений. Здесь, мы предлагаем протокол обучить крыс на оперантного решений парадигмы где крыс выбрать высшие награды за счет ждет 15 s, чтобы получить их.
Армирование руководствуясь решений является возможность выбора между конкурирующими курсы действий, основанных на значении относительного преимущества и их последствий. Этот процесс является неотъемлемой частью нормального человеческого поведения и было показано, чтобы быть нарушена неврологических и психиатрических расстройств, таких как наркомания, шизофрения и депрессия. Грызуны давно используется для раскрыть нейробиологии человеческого познания. С этой целью были разработаны несколько поведенческих задач; Однако большинство не автоматизирован и трудоемкий. Недавнее развитие открытым исходным кодом микроконтроллера позволило исследователей для автоматизации задач на основе оперантного для оценки различных когнитивных задач, стандартизации стимул презентации, улучшение записи данных и следовательно, улучшение Результаты этих исследований. Здесь мы описываем автоматизированной задержки задачи на основе подкрепления руководствуясь принятия решений, используя оперантного t-лабиринту контролируется пользовательской программы. С помощью этих решений задач, мы показывают изменения в местах потенциальной деятельности в передней поясной коры крыса, пока он выполняет задачу на основе задержки принятия затрат и выгод.
Принятия решений — это процесс признания и выбор вариантов, основанных на ценностях и предпочтениями принимающего решения и последствия выбранного действия1. Хотя принятие решений широко изучены в различных областях (например, экономика, психология и нейронауки), нейронные механизмы, лежащие в основе таких когнитивных способностей являются полностью не поняли. Две подкатегории принятия решений являются восприятия решений и усиления руководствуясь принятия решений. Хотя они включают значительным пересекающихся элементов и концепций, восприятия решений опирается на имеющиеся сенсорной информации1,2, тогда как подкрепление руководствуясь принятия решений занимается относительное значение накопленный за конкретные сроки3действий. Одним из важных аспектов усиленного решений является анализ затрат выгод, который выполняется интуитивно мозга путем вычисления преимущества данного выбора и вычитая расходы каждого альтернативного варианта1.
T-лабиринту (или вариант Y-лабиринт) является одним из наиболее часто используемых лабиринты в научные эксперименты, используя грызунов. Животные помещены в начало руку (база T) и разрешено выбрать цели руку (один из стороны оружия). Такие задачи, как принудительное чередование или влево вправо дискриминации главным образом используются с грызунами в t-лабиринту для проверки ссылок и рабочей памяти4. T-лабиринты также широко используются в принятии решений эксперименты5,6,7. В простой дизайн вознаграждение помещается в руке только одна цель. Выбор является предсказуемым, и животных безусловно предпочли бы вознаграждение, а не ничего, независимо от значения награду. Другой вариант заключается в том, чтобы место награды в обе цели оружия и затем пусть животных сделать выбор какой путь принять в зависимости от нескольких параметров (т.е., природные предпочтение животного, разница в стоимости награды и расходы оплачиваются). В разработке на основе значений задача более сложная, задав свойства весы. Таким образом животное получает по-разному ценные награды, выбирая между двумя альтернативами, а также между расходами действий [то есть, количество ожидания (задержка основе) или количество усилий (на основе усилий) необходимо получать награды], Каждый вклад в решение, которое производится5,6.
В традиционной основе задержки t-лабиринту решений, животные проходят подготовку для выберите высокую награду руку (HRA) и избежать обратное низкое вознаграждение руку (ЛРА). По бокам HRA и ЛРА остаются неизменными на протяжении всего эксперимента. Хотя описанные выше задачи хорошо задокументировано в литературе, она страдает от нескольких процедурных недостатков. Во-первых имея фиксированной цели руку, животное знает, который руку на выбор с самого начала каждого судебного разбирательства. В этом случае животные могут выбрать цели руку, основанный на их памяти, а не на процесс принятия решений. Таким образом в основе задержки принятия парадигмы, если животное выбирает низкое вознаграждение за исследование вмешательство, он не будет ясно ли это из-за потери памяти или для изучения интервенции. Памяти контрольной группы для разделения наблюдаемое поведение от памяти проблемы могли бы быть рассмотрены, но это бремя исследователей и животных из-за дополнительной работы7. Второй проблемой является на момент принятия решений по животное: как только животные достигают решение зоны (соединение всех трех оружия), они обычно выглядят влево и вправо, взвесить затраты и выгоды относительно каждой руки и затем сделать их решение. Однако после нескольких испытаний, они выполняют такие вычисления до прибытия в зону в решение и просто запустить непосредственно на руки вознаграждения. Как результат, эти два недостатка — предварительно уклоном одной рукой и нахождение на момент принятия решений — как высоко прервать интерпретации электрофизиологических и данных нейровизуализации.
В методе, описано в этом документе предпочтительным руку (HRA) cued, слуховой сигнал и может варьироваться от судебного разбирательства в суде. Животных инициировать судебные процессы, введя тестовый зоны (рис. 1) и вызывая слуховой сигнал, «нос тыкая» инфракрасный ворота, который был размещен на стыке трех оружия. Звуковой сигнал (20 дБ, между 500 и 1000 мс) играют от диктора в конце цели руку.
Грызуны давно используется в neuroscientific исследований, которые занимаются различные темы, от когнитивных способностей, таких как обучения и памяти2,14 и армированных поведение7,,1516 для централизованного кон?…
The authors have nothing to disclose.
Это исследование было поддержано RMH нейронауки Foundation, Австралия; в Австралии мозга фонд; РПИК Тйн Рид стипендий, Австралия; и проект грант от когнитивных наук и технологии Совета, Иран Аббас Haghparast.
T-maze | Self made | ||
Dustless Precision Sugar Pellets | TSE Systems Intl. Group | F0023 | 45 mg, Sucrose |
Ketamine Hydrochloride Injection, USP | Sigma-Aldrich | 6740-87-0 | |
Xylazine | Sigma-Aldrich | 7361-61-7 | |
stereotaxic device | Stoelting | ||
Isofluran | Santa Cruz Biotechnology | sc-363629Rx | |
PFA-coated stainless-steel wires | A-M systems | ||
acrylic cement | Vertex, MA, USA | ||
(wooden or PVC (polyvinyl chloride)-made) | local suppliers | ||
Mini-Fit Power Connector | Molex | 15243048 | |
ethannol 70% | Local suppliers | ||
buprenorphine | diamondback drugs | ||
Arduino UNO | Arduino | https://www.arduino.cc/ | |
Infrared emitting diode | Sharp | GL480E00000F | http://www.sharp-world.com/ |
Chronux Toolbox | Chronux.org | ||
Arduino codes | https://github.com/dechuans/arduino-maze |