Summary

Conception et utilisation d'un apparatus pour la présentation d'objets graspables dans l'espace de travail 3D

Published: August 08, 2019
doi:

Summary

Présenté ici est un protocole pour construire un appareil automatique qui guide un singe pour effectuer la tâche flexible de portée à saisir. L’appareil combine un dispositif de traduction 3D et une table tournante pour présenter plusieurs objets dans une position arbitraire dans l’espace 3D.

Abstract

Atteindre et saisir sont des mouvements très couplés, et leur dynamique neuronale sous-jacente ont été largement étudiés au cours de la dernière décennie. Pour distinguer les codages d’atteindre et de saisir, il est essentiel de présenter différentes identités d’objets indépendamment de leurs positions. Présenté ici est la conception d’un appareil automatique qui est assemblé avec une table tournante et en trois dimensions (3D) dispositif de traduction pour atteindre cet objectif. La table tournante change différents objets correspondant à différents types d’adhérence tandis que l’appareil de traduction 3D transporte la table tournante dans l’espace 3D. Les deux sont entraînés indépendamment par des moteurs de sorte que la position cible et l’objet sont combinés arbitrairement. Pendant ce temps, la trajectoire du poignet et les types d’adhérence sont enregistrés via le système de capture de mouvement et les capteurs tactiles, respectivement. En outre, les résultats représentatifs qui démontrent le singe avec succès formé utilisant ce système sont décrits. On s’attend à ce que cet appareil facilite des chercheurs pour étudier la cinématique, les principes neuraux, et les interfaces cerveau-machine liées à la fonction supérieure de membre.

Introduction

Divers appareils ont été développés pour étudier les principes neuronaux sous-jacents à l’atteinte et à la saisie du mouvement chez les primates non humains. Dans l’atteinte des tâches, écran tactile1,2, curseur d’écran contrôlé par un joystick3,4,5,6,7, et la technologie de réalité virtuelle8 , 9 (en) , 10 ont tous été employés pour présenter des cibles 2D et 3D, respectivement. Pour introduire différents types d’adhérence, des objets de forme différente fixés dans une position ou tournant autour d’un axe ont été largement utilisés dans les tâches de saisie11,12,13. Une alternative consiste à utiliser des repères visuels pour informer les sujets de saisir le même objet avec différents types d’adhérence14,15,16,17. Plus récemment, les mouvements d’atteinte et de saisie ont été étudiés ensemble (c.-à-d. que les sujets atteignent de multiples positions et saisissent différents types d’adhérence lors d’une session expérimentale)18,19,20, 21,22,23,24,25,26,27,28,29. Les premières expériences ont présenté des objets manuellement, ce qui conduit inévitablement à un temps faible et la précision spatiale20,21. Pour améliorer la précision expérimentale et économiser de la main-d’œuvre, les dispositifs de présentation automatique contrôlés par les programmes ont été largement utilisés. Pour varier la position cible et le type d’adhérence, les expérimentateurs ont exposé plusieurs objets simultanément, mais la position relative (ou absolue) des cibles et les types d’adhérence sont liés entre eux, ce qui provoque des schémas de tir rigides grâce à une formation à long terme22 ,27,28. Les objets sont généralement présentés dans un plan 2D, ce qui limite la diversité du mouvement d’atteinte et de l’activité neuronale19,25,26. Récemment, la réalité virtuelle24 et le bras robot23,29 ont été introduits pour présenter des objets dans l’espace 3D.

Présentés ici sont des protocoles détaillés pour la construction et l’utilisation d’un appareil automatisé30 qui peut atteindre n’importe quelle combinaison de positions cibles multiples et les types d’adhérence dans l’espace 3D. Nous avons conçu une table tournante pour changer d’objet et un dispositif de traduction 3D pour transporter la table tournante dans l’espace 3D. La table tournante et l’appareil de traduction sont pilotés par des moteurs indépendants. Pendant ce temps, la trajectoire 3D du poignet du sujet et les signaux neuronaux sont enregistrés simultanément tout au long de l’expérience. L’appareil fournit une plate-forme précieuse pour l’étude de la fonction des membres supérieurs chez le singe rhésus.

Protocol

Toutes les procédures comportementales et chirurgicales étaient conformes au Guide for the Care and Use of Laboratory Animals (China Ministry of Health) et ont été approuvées par le Comité des soins aux animaux de l’Université de Zhejiang, en Chine. 1.Assemblage de l’appareil de traduction 3D Construire un cadre de taille 920 mm x 690 mm x 530 mm avec rails de construction en aluminium (section transversale : 40 mm x 40 mm). Fixer quatre piédestaux aux deux extrémi…

Representative Results

La taille de l’espace de travail complet de l’appareil est de 600 mm, 300 mm et 500 mm en x-, y-, et z-axes, respectivement. La charge maximale de l’appareil de traduction 3D est de 25 kg, tandis que la table tournante (y compris le moteur de marche) est pondérée de 15 kg et peut être transportée à une vitesse allant jusqu’à 500 mm/s. La précision cinématique de l’appareil de traduction 3D est inférieure à 0,1 mm et le bruit de l’appareil est inférieur à 60 dB. Pour démontrer l’ut…

Discussion

L’appareil comportemental est décrit ici permet une combinaison d’essai-sage de différents mouvements d’atteindre et de saisir (c.-à-d., le singe peut saisir des objets de forme différente dans n’importe quel emplacement 3D arbitraire dans chaque essai). Ceci est accompli grâce à la combinaison d’une table tournante personnalisée qui change différents objets et d’un dispositif de traduction linéaire qui transporte la table tournante à plusieurs positions dans l’espace 3D. En outre, les signaux neuronaux du sing…

Disclosures

The authors have nothing to disclose.

Acknowledgements

Nous remercions M. Shijiang Shen pour ses conseils sur la conception d’appareils et Mme Guihua Wang pour son aide en matière de soins et de formation des animaux. Ce travail a été soutenu par le National Key Research and Development Program of China (2017YFC1308501), la National Natural Science Foundation of China (31627802), les Projets publics de la province du Zhejiang (2016C33059) et les Fonds de recherche fondamentale pour le Universités centrales.

Materials

Active X-rail CCM Automation technology Inc., China W50-25 Effective travel, 600 mm; Load, 25 kg
Active Y-rail CCM Automation technology Inc., China W60-35 Effective travel, 300 mm, Load 35 kg
Active Z-rail CCM Automation technology Inc., China W50-25 Effective travel, 500 mm; Load 25 kg
Bearing Taobao.com 6004-2RSH Acrylic
Case Custom mechanical processing TT-C Acrylic
Connecting ring CCM Automation technology Inc., China 57/60-W50
Connecting shaft CCM Automation technology Inc., China D12-700 Diam., 12 mm;Length, 700 mm
Diaphragm coupling CCM Automation technology Inc., China CCM 12-12 Inner diam., 12-12mm
Diaphragm coupling CCM Automation technology Inc., China CCM 12-14 Inner diam., 14-12mm
Electric slip ring Semring Inc., China SNH020a-12 Acrylic
Locating bar Custom mechanical processing TT-L Acrylic
Motion capture system Motion Analysis Corp. US Eagle-2.36
Neural signal acquisition system Blackrock Microsystems Corp. US Cerebus
NI DAQ device National Instruments, US USB-6341
Object Custom mechanical processing TT-O Acrylic
Passive Y-rail CCM Automation technology Inc., China W60-35 Effective travel, 300 mm; Load 35 kg
Passive Z-rail CCM Automation technology Inc., China W50-25 Effective travel, 500 mm; Load 25 kg
Pedestal CCM Automation technology Inc., China 80-W60
Peristaltic pump Longer Inc., China BT100-1L
Planetary gearhead CCM Automation technology Inc., China PLF60-5 Flange, 60×60 mm; Reduction ratio, 1:5
Right triangle frame CCM Automation technology Inc., China 290-300
Rotator Custom mechanical processing TT-R Acrylic
Servo motor Yifeng Inc., China 60ST-M01930 Flange, 60×60 mm; Torque, 1.91 N·m; for Y- and Z-rail
Servo motor Yifeng Inc., China 60ST-M01330 Flange, 60×60 mm; Torque, 1.27 N·m; for X-rail
Shaft Custom mechanical processing TT-S Acrylic
Stepping motor Taobao.com 86HBS120 Flange, 86×86 mm; Torque, 1.27 N·m; Driving turning table
Touch sensor Taobao.com CM-12X-5V
Tricolor LED Taobao.com CK017, RGB
T-shaped connecting board CCM Automation technology Inc., China 110-120

References

  1. Leone, F. T., Monaco, S., Henriques, D. Y., Toni, I., Medendorp, W. P. Flexible Reference Frames for Grasp Planning in Human Parietofrontal Cortex. eNeuro. 2 (3), (2015).
  2. Caminiti, R., et al. Early coding of reaching: frontal and parietal association connections of parieto-occipital cortex. European Journal of Neuroscience. 11 (9), 3339-3345 (1999).
  3. Georgopoulos, A. P., Schwartz, A. B., Kettner, R. E. Neuronal population coding of movement direction. Science. 233 (4771), 1416-1419 (1986).
  4. Fu, Q. G., Flament, D., Coltz, J. D., Ebner, T. J. Temporal encoding of movement kinematics in the discharge of primate primary motor and premotor neurons. Journal of Neurophysiology. 73 (2), 836-854 (1995).
  5. Moran, D. W., Schwartz, A. B. Motor cortical representation of speed and direction during reaching. Journal of Neurophysiology. 82 (5), 2676-2692 (1999).
  6. Carmena, J. M., et al. Learning to control a brain-machine interface for reaching and grasping by primates. PLoS Biology. 1 (2), E42 (2003).
  7. Li, H., et al. Prior Knowledge of Target Direction and Intended Movement Selection Improves Indirect Reaching Movement Decoding. Behavioral Neurology. , 2182843 (2017).
  8. Reina, G. A., Moran, D. W., Schwartz, A. B. On the relationship between joint angular velocity and motor cortical discharge during reaching. Journal of Neurophysiology. 85 (6), 2576-2589 (2001).
  9. Taylor, D. M., Tillery, S. I., Schwartz, A. B. Direct cortical control of 3D neuroprosthetic devices. Science. 296 (5574), 1829-1832 (2002).
  10. Wang, W., Chan, S. S., Heldman, D. A., Moran, D. W. Motor cortical representation of hand translation and rotation during reaching. Journal of Neuroscience. 30 (3), 958-962 (2010).
  11. Murata, A., Gallese, V., Luppino, G., Kaseda, M., Sakata, H. Selectivity for the shape, size, and orientation of objects for grasping in neurons of monkey parietal area AIP. Journal of Neurophysiology. 83 (5), 2580-2601 (2000).
  12. Raos, V., Umiltá, M. A., Murata, A., Fogassi, L., Gallese, V. Functional Properties of Grasping-Related Neurons in the Ventral Premotor Area F5 of the Macaque Monkey. Journal of Neurophysiology. 95 (2), 709 (2006).
  13. Schaffelhofer, S., Scherberger, H. Object vision to hand action in macaque parietal, premotor, and motor cortices. eLife. 5, (2016).
  14. Baumann, M. A., Fluet, M. C., Scherberger, H. Context-specific grasp movement representation in the macaque anterior intraparietal area. Journal of Neuroscience. 29 (20), 6436-6448 (2009).
  15. Riehle, A., Wirtssohn, S., Grun, S., Brochier, T. Mapping the spatio-temporal structure of motor cortical LFP and spiking activities during reach-to-grasp movements. Frontiers in Neural Circuits. 7, 48 (2013).
  16. Michaels, J. A., Scherberger, H. Population coding of grasp and laterality-related information in the macaque fronto-parietal network. Scientific Reports. 8 (1), 1710 (2018).
  17. Fattori, P., et al. Hand orientation during reach-to-grasp movements modulates neuronal activity in the medial posterior parietal area V6A. Journal of Neuroscience. 29 (6), 1928-1936 (2009).
  18. Asher, I., Stark, E., Abeles, M., Prut, Y. Comparison of direction and object selectivity of local field potentials and single units in macaque posterior parietal cortex during prehension. Journal of Neurophysiology. 97 (5), 3684-3695 (2007).
  19. Stark, E., Asher, I., Abeles, M. Encoding of reach and grasp by single neurons in premotor cortex is independent of recording site. Journal of Neurophysiology. 97 (5), 3351-3364 (2007).
  20. Velliste, M., Perel, S., Spalding, M. C., Whitford, A. S., Schwartz, A. B. Cortical control of a prosthetic arm for self-feeding. Nature. 453 (7198), 1098-1101 (2008).
  21. Vargas-Irwin, C. E., et al. Decoding complete reach and grasp actions from local primary motor cortex populations. Journal of Neuroscience. 30 (29), 9659-9669 (2010).
  22. Mollazadeh, M., et al. Spatiotemporal variation of multiple neurophysiological signals in the primary motor cortex during dexterous reach-to-grasp movements. Journal of Neuroscience. 31 (43), 15531-15543 (2011).
  23. Saleh, M., Takahashi, K., Hatsopoulos, N. G. Encoding of coordinated reach and grasp trajectories in primary motor cortex. Journal of Neuroscience. 32 (4), 1220-1232 (2012).
  24. Collinger, J. L., et al. High-performance neuroprosthetic control by an individual with tetraplegia. The Lancet. 381 (9866), 557-564 (2013).
  25. Lehmann, S. J., Scherberger, H. Reach and gaze representations in macaque parietal and premotor grasp areas. Journal of Neuroscience. 33 (16), 7038-7049 (2013).
  26. Rouse, A. G., Schieber, M. H. Spatiotemporal distribution of location and object effects in reach-to-grasp kinematics. Journal of Neuroscience. 114 (6), 3268-3282 (2015).
  27. Rouse, A. G., Schieber, M. H. Spatiotemporal Distribution of Location and Object effects in Primary Motor Cortex Neurons during Reach-to-Grasp. Journal of Neuroscience. 36 (41), 10640-10653 (2016).
  28. Hao, Y., et al. Neural synergies for controlling reach and grasp movement in macaques. Neuroscience. 357, 372-383 (2017).
  29. Takahashi, K., et al. Encoding of Both Reaching and Grasping Kinematics in Dorsal and Ventral Premotor Cortices. Journal of Neuroscience. 37 (7), 1733-1746 (2017).
  30. Chen, J., et al. An automated behavioral apparatus to combine parameterized reaching and grasping movements in 3D space. Journal of Neuroscience Methods. 312, 139-147 (2019).
  31. Zhang, Q., et al. Development of an invasive brain-machine interface with a monkey model. Chinese Science Bulletin. 57 (16), 2036 (2012).
  32. Hao, Y., et al. Distinct neural patterns enable grasp types decoding in monkey dorsal premotor cortex. Journal of Neural Engineering. 11 (6), 066011 (2014).

Play Video

Cite This Article
Xu, K., Chen, J., Sun, G., Hao, Y., Zhang, S., Ran, X., Chen, W., Zheng, X. Design and Use of an Apparatus for Presenting Graspable Objects in 3D Workspace. J. Vis. Exp. (150), e59932, doi:10.3791/59932 (2019).

View Video