Summary

Diseño y uso de un aparato para presentar objetos agarrables en el espacio de trabajo 3D

Published: August 08, 2019
doi:

Summary

Aquí se presenta un protocolo para construir un aparato automático que guía a un mono a realizar la tarea flexible de alcance a agarre. El aparato combina un dispositivo traslacional 3D y una mesa giratoria para presentar múltiples objetos en una posición arbitraria en el espacio 3D.

Abstract

Alcanzar y agarrar son movimientos altamente acoplados, y su dinámica neuronal subyacente ha sido ampliamente estudiada en la última década. Para distinguir las codificaciones de alcance y comprensión, es esencial presentar diferentes identidades de objeto independientes de sus posiciones. Aquí se presenta el diseño de un aparato automático que se monta con una mesa giratoria y un dispositivo traslacional tridimensional (3D) para lograr este objetivo. La mesa de torneado cambia diferentes objetos correspondientes a diferentes tipos de pinzamiento, mientras que el dispositivo traslacional 3D transporta la mesa de torneado en espacio 3D. Ambos son impulsados independientemente por motores para que la posición de destino y el objeto se combinen arbitrariamente. Mientras tanto, la trayectoria de la muñeca y los tipos de agarre se registran a través del sistema de captura de movimiento y los sensores táctiles, respectivamente. Además, se describen los resultados representativos que demuestran el mono entrenado con éxito utilizando este sistema. Se espera que este aparato facilite a los investigadores el estudio de la cinemática, los principios neuronales y las interfaces cerebro-máquina relacionadas con la función de las extremidades superiores.

Introduction

Se han desarrollado varios aparatos para estudiar los principios neuronales subyacentes al movimiento de alcance y agarre en primates no humanos. Al llegar a las tareas, pantalla táctil1,2, cursor de pantalla controlado por un joystick3,4,5,6,7, y la tecnología de realidad virtual8 , 9 , 10 se han empleado todos para presentar objetivos 2D y 3D, respectivamente. Para introducir diferentes tipos de pinzamientos, los objetos de forma diferente fijados en una posición o girando alrededor de un eje se utilizaron ampliamente en las tareas de agarre11,12,13. Una alternativa es utilizar señales visuales para informar a los sujetos para agarrar el mismo objeto con diferentes tipos de agarre14,15,16,17. Más recientemente, los movimientos de alcance y agarre se han estudiado juntos (es decir, los sujetos alcanzan múltiples posiciones y se agarran con diferentes tipos de agarre en una sesión experimental)18,19,20, 21,22,23,24,25,26,27,28,29. Los primeros experimentos han presentado objetos manualmente, lo que inevitablemente conduce a un tiempo bajo y precisión espacial20,21. Para mejorar la precisión experimental y ahorrar mano de obra, los dispositivos de presentación automática controlados por programas han sido ampliamente utilizados. Para variar la posición de destino y el tipo de pinzamiento, los experimentadores han expuesto varios objetos simultáneamente, pero la posición relativa (o absoluta) de los objetivos y los tipos de pinzamiento están unidos entre sí, lo que provoca patrones de disparo rígidos a través del entrenamiento a largo plazo22 ,27,28. Los objetos se presentan generalmente en un plano 2D, lo que limita la diversidad de alcanzar el movimiento y la actividad neuronal19,25,26. Recientemente, la realidad virtual24 y el brazo robot23,29 se han introducido para presentar objetos en el espacio 3D.

Aquí se presentan protocolos detallados para la construcción y el uso de un aparato automatizado30 que puede lograr cualquier combinación de múltiples posiciones de destino y tipos de agarre en el espacio 3D. Diseñamos una mesa de torneado para cambiar objetos y dispositivos traslacionales 3D para transportar la mesa de torneado en espacio 3D. Tanto la mesa de torneado como el dispositivo traslacional son impulsados por motores independientes. Mientras tanto, la trayectoria 3D de las señales neuronales y de muñeca del sujeto se registra simultáneamente a lo largo del experimento. El aparato proporciona una plataforma valiosa para el estudio de la función de las extremidades superiores en el mono rhesus.

Protocol

Todos los procedimientos conductuales y quirúrgicos se ajustaban a la Guía para el Cuidado y Uso de Animales de Laboratorio (Ministerio de Salud de China) y fueron aprobados por el Comité de Cuidado Animal de la Universidad de Zhejiang, China. 1.Ensamblaje del dispositivo traslacional 3D Construir un marco de tamaño 920 mm x 690 mm x 530 mm con rieles de construcción de aluminio (sección transversal: 40 mm x 40 mm). Fije cuatro pedestales a los dos extremos de los rie…

Representative Results

El tamaño del espacio de trabajo completo del aparato es de 600 mm, 300 mm y 500 mm en los ejes x, y y z, respectivamente. La carga máxima del dispositivo traslacional 3D es de 25 kg, mientras que la mesa giratoria (incluido el motor paso a paso) tiene un peso de 15 kg y se puede transportar a una velocidad de hasta 500 mm/s. La precisión cinemática del dispositivo traslacional 3D es inferior a 0,1 mm y el ruido del aparato es inferior a 60 dB. Para demostrar la utilidad del sistema, el mo…

Discussion

El aparato conductual se describe aquí permite una combinación en sentido de prueba de diferentes movimientos de alcance y agarre (es decir, el mono puede agarrar objetos de formas diferentes en cualquier lugar 3D arbitrario en cada ensayo). Esto se logra mediante la combinación de una tabla de torneado personalizada que cambia diferentes objetos y un dispositivo de traslacional lineal que transporta la tabla de torneado a varias posiciones en el espacio 3D. Además, las señales neuronales del mono, la trayectoria de…

Disclosures

The authors have nothing to disclose.

Acknowledgements

Agradecemos al Sr. Shijiang Shen su consejo sobre el diseño de aparatos y a la Sra. Guihua Wang por su asistencia en el cuidado y el entrenamiento de los animales. Este trabajo fue apoyado por el Programa Nacional De Investigación y Desarrollo Clave de China (2017YFC1308501), la Fundación Nacional de Ciencias Naturales de China (31627802), los Proyectos Públicos de la Provincia de Zhejiang (2016C33059), y los Fondos Fundamentales de Investigación para la Universidades Centrales.

Materials

Active X-rail CCM Automation technology Inc., China W50-25 Effective travel, 600 mm; Load, 25 kg
Active Y-rail CCM Automation technology Inc., China W60-35 Effective travel, 300 mm, Load 35 kg
Active Z-rail CCM Automation technology Inc., China W50-25 Effective travel, 500 mm; Load 25 kg
Bearing Taobao.com 6004-2RSH Acrylic
Case Custom mechanical processing TT-C Acrylic
Connecting ring CCM Automation technology Inc., China 57/60-W50
Connecting shaft CCM Automation technology Inc., China D12-700 Diam., 12 mm;Length, 700 mm
Diaphragm coupling CCM Automation technology Inc., China CCM 12-12 Inner diam., 12-12mm
Diaphragm coupling CCM Automation technology Inc., China CCM 12-14 Inner diam., 14-12mm
Electric slip ring Semring Inc., China SNH020a-12 Acrylic
Locating bar Custom mechanical processing TT-L Acrylic
Motion capture system Motion Analysis Corp. US Eagle-2.36
Neural signal acquisition system Blackrock Microsystems Corp. US Cerebus
NI DAQ device National Instruments, US USB-6341
Object Custom mechanical processing TT-O Acrylic
Passive Y-rail CCM Automation technology Inc., China W60-35 Effective travel, 300 mm; Load 35 kg
Passive Z-rail CCM Automation technology Inc., China W50-25 Effective travel, 500 mm; Load 25 kg
Pedestal CCM Automation technology Inc., China 80-W60
Peristaltic pump Longer Inc., China BT100-1L
Planetary gearhead CCM Automation technology Inc., China PLF60-5 Flange, 60×60 mm; Reduction ratio, 1:5
Right triangle frame CCM Automation technology Inc., China 290-300
Rotator Custom mechanical processing TT-R Acrylic
Servo motor Yifeng Inc., China 60ST-M01930 Flange, 60×60 mm; Torque, 1.91 N·m; for Y- and Z-rail
Servo motor Yifeng Inc., China 60ST-M01330 Flange, 60×60 mm; Torque, 1.27 N·m; for X-rail
Shaft Custom mechanical processing TT-S Acrylic
Stepping motor Taobao.com 86HBS120 Flange, 86×86 mm; Torque, 1.27 N·m; Driving turning table
Touch sensor Taobao.com CM-12X-5V
Tricolor LED Taobao.com CK017, RGB
T-shaped connecting board CCM Automation technology Inc., China 110-120

References

  1. Leone, F. T., Monaco, S., Henriques, D. Y., Toni, I., Medendorp, W. P. Flexible Reference Frames for Grasp Planning in Human Parietofrontal Cortex. eNeuro. 2 (3), (2015).
  2. Caminiti, R., et al. Early coding of reaching: frontal and parietal association connections of parieto-occipital cortex. European Journal of Neuroscience. 11 (9), 3339-3345 (1999).
  3. Georgopoulos, A. P., Schwartz, A. B., Kettner, R. E. Neuronal population coding of movement direction. Science. 233 (4771), 1416-1419 (1986).
  4. Fu, Q. G., Flament, D., Coltz, J. D., Ebner, T. J. Temporal encoding of movement kinematics in the discharge of primate primary motor and premotor neurons. Journal of Neurophysiology. 73 (2), 836-854 (1995).
  5. Moran, D. W., Schwartz, A. B. Motor cortical representation of speed and direction during reaching. Journal of Neurophysiology. 82 (5), 2676-2692 (1999).
  6. Carmena, J. M., et al. Learning to control a brain-machine interface for reaching and grasping by primates. PLoS Biology. 1 (2), E42 (2003).
  7. Li, H., et al. Prior Knowledge of Target Direction and Intended Movement Selection Improves Indirect Reaching Movement Decoding. Behavioral Neurology. , 2182843 (2017).
  8. Reina, G. A., Moran, D. W., Schwartz, A. B. On the relationship between joint angular velocity and motor cortical discharge during reaching. Journal of Neurophysiology. 85 (6), 2576-2589 (2001).
  9. Taylor, D. M., Tillery, S. I., Schwartz, A. B. Direct cortical control of 3D neuroprosthetic devices. Science. 296 (5574), 1829-1832 (2002).
  10. Wang, W., Chan, S. S., Heldman, D. A., Moran, D. W. Motor cortical representation of hand translation and rotation during reaching. Journal of Neuroscience. 30 (3), 958-962 (2010).
  11. Murata, A., Gallese, V., Luppino, G., Kaseda, M., Sakata, H. Selectivity for the shape, size, and orientation of objects for grasping in neurons of monkey parietal area AIP. Journal of Neurophysiology. 83 (5), 2580-2601 (2000).
  12. Raos, V., Umiltá, M. A., Murata, A., Fogassi, L., Gallese, V. Functional Properties of Grasping-Related Neurons in the Ventral Premotor Area F5 of the Macaque Monkey. Journal of Neurophysiology. 95 (2), 709 (2006).
  13. Schaffelhofer, S., Scherberger, H. Object vision to hand action in macaque parietal, premotor, and motor cortices. eLife. 5, (2016).
  14. Baumann, M. A., Fluet, M. C., Scherberger, H. Context-specific grasp movement representation in the macaque anterior intraparietal area. Journal of Neuroscience. 29 (20), 6436-6448 (2009).
  15. Riehle, A., Wirtssohn, S., Grun, S., Brochier, T. Mapping the spatio-temporal structure of motor cortical LFP and spiking activities during reach-to-grasp movements. Frontiers in Neural Circuits. 7, 48 (2013).
  16. Michaels, J. A., Scherberger, H. Population coding of grasp and laterality-related information in the macaque fronto-parietal network. Scientific Reports. 8 (1), 1710 (2018).
  17. Fattori, P., et al. Hand orientation during reach-to-grasp movements modulates neuronal activity in the medial posterior parietal area V6A. Journal of Neuroscience. 29 (6), 1928-1936 (2009).
  18. Asher, I., Stark, E., Abeles, M., Prut, Y. Comparison of direction and object selectivity of local field potentials and single units in macaque posterior parietal cortex during prehension. Journal of Neurophysiology. 97 (5), 3684-3695 (2007).
  19. Stark, E., Asher, I., Abeles, M. Encoding of reach and grasp by single neurons in premotor cortex is independent of recording site. Journal of Neurophysiology. 97 (5), 3351-3364 (2007).
  20. Velliste, M., Perel, S., Spalding, M. C., Whitford, A. S., Schwartz, A. B. Cortical control of a prosthetic arm for self-feeding. Nature. 453 (7198), 1098-1101 (2008).
  21. Vargas-Irwin, C. E., et al. Decoding complete reach and grasp actions from local primary motor cortex populations. Journal of Neuroscience. 30 (29), 9659-9669 (2010).
  22. Mollazadeh, M., et al. Spatiotemporal variation of multiple neurophysiological signals in the primary motor cortex during dexterous reach-to-grasp movements. Journal of Neuroscience. 31 (43), 15531-15543 (2011).
  23. Saleh, M., Takahashi, K., Hatsopoulos, N. G. Encoding of coordinated reach and grasp trajectories in primary motor cortex. Journal of Neuroscience. 32 (4), 1220-1232 (2012).
  24. Collinger, J. L., et al. High-performance neuroprosthetic control by an individual with tetraplegia. The Lancet. 381 (9866), 557-564 (2013).
  25. Lehmann, S. J., Scherberger, H. Reach and gaze representations in macaque parietal and premotor grasp areas. Journal of Neuroscience. 33 (16), 7038-7049 (2013).
  26. Rouse, A. G., Schieber, M. H. Spatiotemporal distribution of location and object effects in reach-to-grasp kinematics. Journal of Neuroscience. 114 (6), 3268-3282 (2015).
  27. Rouse, A. G., Schieber, M. H. Spatiotemporal Distribution of Location and Object effects in Primary Motor Cortex Neurons during Reach-to-Grasp. Journal of Neuroscience. 36 (41), 10640-10653 (2016).
  28. Hao, Y., et al. Neural synergies for controlling reach and grasp movement in macaques. Neuroscience. 357, 372-383 (2017).
  29. Takahashi, K., et al. Encoding of Both Reaching and Grasping Kinematics in Dorsal and Ventral Premotor Cortices. Journal of Neuroscience. 37 (7), 1733-1746 (2017).
  30. Chen, J., et al. An automated behavioral apparatus to combine parameterized reaching and grasping movements in 3D space. Journal of Neuroscience Methods. 312, 139-147 (2019).
  31. Zhang, Q., et al. Development of an invasive brain-machine interface with a monkey model. Chinese Science Bulletin. 57 (16), 2036 (2012).
  32. Hao, Y., et al. Distinct neural patterns enable grasp types decoding in monkey dorsal premotor cortex. Journal of Neural Engineering. 11 (6), 066011 (2014).

Play Video

Cite This Article
Xu, K., Chen, J., Sun, G., Hao, Y., Zhang, S., Ran, X., Chen, W., Zheng, X. Design and Use of an Apparatus for Presenting Graspable Objects in 3D Workspace. J. Vis. Exp. (150), e59932, doi:10.3791/59932 (2019).

View Video