Summary

Progettazione e utilizzo di un apparatus per la presentazione di oggetti afferbenati nell'area di lavoro 3D

Published: August 08, 2019
doi:

Summary

Presentato qui è un protocollo per costruire un apparato automatico che guida una scimmia per eseguire il compito flessibile reach-to-grasp. L’apparecchio combina un dispositivo di traslazione 3D e una tabella di tornitura per presentare più oggetti in una posizione arbitraria nello spazio 3D.

Abstract

Raggiungere e afferrare sono movimenti altamente accoppiati, e le loro dinamiche neurali sottostanti sono state ampiamente studiate nell’ultimo decennio. Per distinguere le codifiche di raggiungere e afferrare le codifiche, è essenziale presentare identità di oggetti diverse indipendentemente dalle loro posizioni. Qui è presentato il design di un apparato automatico che viene assemblato con una tabella di tornitura e un dispositivo traslazionale tridimensionale (3D) per raggiungere questo obiettivo. La tabella di tornitura consente di passare da diversi oggetti corrispondenti a diversi tipi di grip, mentre il dispositivo di traslazione 3D trasporta la tabella di tornitura nello spazio 3D. Entrambi sono guidati in modo indipendente dai motori in modo che la posizione di destinazione e l’oggetto siano combinati arbitrariamente. Nel frattempo, la traiettoria del polso e i tipi di grip vengono registrati rispettivamente tramite il sistema di acquisizione del movimento e i sensori touch. Inoltre, vengono descritti i risultati rappresentativi che dimostrano con successo la scimmia addestrata utilizzando questo sistema. Si prevede che questo apparato faciliterà i ricercatori a studiare la cinematica, i principi neurali e le interfacce cervello-macchina legate alla funzione degli arti superiori.

Introduction

Sono stati sviluppati vari apparati per studiare i principi neurali alla base del movimento di raggiungimento e presa in primati non umani. Nel raggiungere le attività, touch screen1,2, cursore dello schermo controllato da un joystick3,4,5,6,7, e la tecnologia di realtà virtuale8 , 9 (in vie , 10 sono stati tutti impiegati per presentare obiettivi 2D e 3D, rispettivamente. Per introdurre diversi tipi di grip, oggetti di forma diversa fissati in una posizione o ruotanti intorno a un asse sono stati ampiamente utilizzati nelle attività di presa11,12,13. Un’alternativa consiste nell’utilizzare segnali visivi per informare i soggetti a cogliere lo stesso oggetto con diversi tipi di grip14,15,16,17. Più recentemente, i movimenti di raggiungimento e presa sono stati studiati insieme (cioè i soggetti raggiungono molteplici posizioni e afferrano con diversi tipi di impugnatura in una sessione sperimentale)18,19,20, 21,22,23,24,25,26,27,28,29. I primi esperimenti hanno presentato gli oggetti manualmente, che inevitabilmente portano a basso tempo e precisione spaziale20,21. Per migliorare la precisione sperimentale e risparmiare manodopera, sono stati ampiamente utilizzati i dispositivi di presentazione automatica controllati dai programmi. Per variare la posizione di destinazione e il tipo di grip, gli sperimentatori hanno esposto più oggetti contemporaneamente, ma la posizione relativa (o assoluta) dei bersagli e i tipi di grip sono legati tra loro, il che causa modelli di cottura rigidi tramite l’addestramento a lungo termine22 ,27,28. Gli oggetti sono di solito presentati in un piano 2D, che limita la diversità di raggiungere il movimento e l’attività neurale19,25,26. Recentemente, realtà virtuale24 e braccio robot23,29 sono stati introdotti per presentare gli oggetti nello spazio 3D.

Qui sono presentati protocolli dettagliati per la costruzione e l’utilizzo di un apparato automatizzato30 che può ottenere qualsiasi combinazione di più posizioni di destinazione e tipi di grip nello spazio 3D. Abbiamo progettato un tavolo di tornitura per passare da oggetti e un dispositivo di traslazione 3D per trasportare la tabella di tornitura nello spazio 3D. Sia la tabella di tornitura che il dispositivo di traslazione sono guidati da motori indipendenti. Nel frattempo, la traiettoria 3D del polso e i segnali neurali del soggetto vengono registrati contemporaneamente durante l’esperimento. L’apparecchio fornisce una piattaforma preziosa per lo studio della funzione dell’arto superiore nella scimmia rhesus.

Protocol

Tutte le procedure comportamentali e chirurgiche conformate alla Guida per la cura e l’uso degli animali da laboratorio (Ministero della Salute cinese) e sono state approvate dal Comitato per la cura degli animali presso l’Università di ehejiang, in Cina. 1.Assemblaggio del dispositivo di traslazione 3D Costruire un telaio di dimensioni 920 mm x 690 mm x 530 mm con rotaie di costruzione in alluminio (sezione trasversale: 40 mm x 40 mm). Fissare quattro piedistalli alle due…

Representative Results

La dimensione dello spazio di lavoro completo dell’apparato è rispettivamente di 600 mm, 300 mm e 500 mm negli assi x, y e z. Il carico massimo del dispositivo di traslazione 3D è di 25 kg, mentre il tavolo di tornitura (compreso il motore a prua) è pesato 15 kg e può essere trasportato ad una velocità fino a 500 mm/s. La precisione cinematica del dispositivo di traslazione 3D è inferiore a 0,1 mm e il rumore dell’apparato è inferiore a 60 dB. Per dimostrare l’utilità del sistema, la s…

Discussion

L’apparato comportamentale è descritto qui consente una combinazione di prova-saggio di diversi movimenti di raggiungendo e presa (cioè, la scimmia può afferrare oggetti di forma diversa in qualsiasi posizione 3D arbitraria in ogni prova). Ciò avviene attraverso la combinazione di una tabella di tornitura personalizzata che passa da diversi oggetti e un dispositivo di traslazione lineare che trasporta la tabella di tornitura in più posizioni nello spazio 3D. Inoltre, i segnali neurali della scimmia, la traiettoria d…

Disclosures

The authors have nothing to disclose.

Acknowledgements

Ringraziamo Shijiang Shen per i suoi consigli sulla progettazione di apparati e la signora Guihua Wang per la sua assistenza nella cura e formazione degli animali. Questo lavoro è stato sostenuto dal Programma Nazionale di Ricerca e Sviluppo della Cina (2017YFC1308501), dalla National Natural Science Foundation of China (31627802), dai Progetti Pubblici della Provincia di Università centrali.

Materials

Active X-rail CCM Automation technology Inc., China W50-25 Effective travel, 600 mm; Load, 25 kg
Active Y-rail CCM Automation technology Inc., China W60-35 Effective travel, 300 mm, Load 35 kg
Active Z-rail CCM Automation technology Inc., China W50-25 Effective travel, 500 mm; Load 25 kg
Bearing Taobao.com 6004-2RSH Acrylic
Case Custom mechanical processing TT-C Acrylic
Connecting ring CCM Automation technology Inc., China 57/60-W50
Connecting shaft CCM Automation technology Inc., China D12-700 Diam., 12 mm;Length, 700 mm
Diaphragm coupling CCM Automation technology Inc., China CCM 12-12 Inner diam., 12-12mm
Diaphragm coupling CCM Automation technology Inc., China CCM 12-14 Inner diam., 14-12mm
Electric slip ring Semring Inc., China SNH020a-12 Acrylic
Locating bar Custom mechanical processing TT-L Acrylic
Motion capture system Motion Analysis Corp. US Eagle-2.36
Neural signal acquisition system Blackrock Microsystems Corp. US Cerebus
NI DAQ device National Instruments, US USB-6341
Object Custom mechanical processing TT-O Acrylic
Passive Y-rail CCM Automation technology Inc., China W60-35 Effective travel, 300 mm; Load 35 kg
Passive Z-rail CCM Automation technology Inc., China W50-25 Effective travel, 500 mm; Load 25 kg
Pedestal CCM Automation technology Inc., China 80-W60
Peristaltic pump Longer Inc., China BT100-1L
Planetary gearhead CCM Automation technology Inc., China PLF60-5 Flange, 60×60 mm; Reduction ratio, 1:5
Right triangle frame CCM Automation technology Inc., China 290-300
Rotator Custom mechanical processing TT-R Acrylic
Servo motor Yifeng Inc., China 60ST-M01930 Flange, 60×60 mm; Torque, 1.91 N·m; for Y- and Z-rail
Servo motor Yifeng Inc., China 60ST-M01330 Flange, 60×60 mm; Torque, 1.27 N·m; for X-rail
Shaft Custom mechanical processing TT-S Acrylic
Stepping motor Taobao.com 86HBS120 Flange, 86×86 mm; Torque, 1.27 N·m; Driving turning table
Touch sensor Taobao.com CM-12X-5V
Tricolor LED Taobao.com CK017, RGB
T-shaped connecting board CCM Automation technology Inc., China 110-120

References

  1. Leone, F. T., Monaco, S., Henriques, D. Y., Toni, I., Medendorp, W. P. Flexible Reference Frames for Grasp Planning in Human Parietofrontal Cortex. eNeuro. 2 (3), (2015).
  2. Caminiti, R., et al. Early coding of reaching: frontal and parietal association connections of parieto-occipital cortex. European Journal of Neuroscience. 11 (9), 3339-3345 (1999).
  3. Georgopoulos, A. P., Schwartz, A. B., Kettner, R. E. Neuronal population coding of movement direction. Science. 233 (4771), 1416-1419 (1986).
  4. Fu, Q. G., Flament, D., Coltz, J. D., Ebner, T. J. Temporal encoding of movement kinematics in the discharge of primate primary motor and premotor neurons. Journal of Neurophysiology. 73 (2), 836-854 (1995).
  5. Moran, D. W., Schwartz, A. B. Motor cortical representation of speed and direction during reaching. Journal of Neurophysiology. 82 (5), 2676-2692 (1999).
  6. Carmena, J. M., et al. Learning to control a brain-machine interface for reaching and grasping by primates. PLoS Biology. 1 (2), E42 (2003).
  7. Li, H., et al. Prior Knowledge of Target Direction and Intended Movement Selection Improves Indirect Reaching Movement Decoding. Behavioral Neurology. , 2182843 (2017).
  8. Reina, G. A., Moran, D. W., Schwartz, A. B. On the relationship between joint angular velocity and motor cortical discharge during reaching. Journal of Neurophysiology. 85 (6), 2576-2589 (2001).
  9. Taylor, D. M., Tillery, S. I., Schwartz, A. B. Direct cortical control of 3D neuroprosthetic devices. Science. 296 (5574), 1829-1832 (2002).
  10. Wang, W., Chan, S. S., Heldman, D. A., Moran, D. W. Motor cortical representation of hand translation and rotation during reaching. Journal of Neuroscience. 30 (3), 958-962 (2010).
  11. Murata, A., Gallese, V., Luppino, G., Kaseda, M., Sakata, H. Selectivity for the shape, size, and orientation of objects for grasping in neurons of monkey parietal area AIP. Journal of Neurophysiology. 83 (5), 2580-2601 (2000).
  12. Raos, V., Umiltá, M. A., Murata, A., Fogassi, L., Gallese, V. Functional Properties of Grasping-Related Neurons in the Ventral Premotor Area F5 of the Macaque Monkey. Journal of Neurophysiology. 95 (2), 709 (2006).
  13. Schaffelhofer, S., Scherberger, H. Object vision to hand action in macaque parietal, premotor, and motor cortices. eLife. 5, (2016).
  14. Baumann, M. A., Fluet, M. C., Scherberger, H. Context-specific grasp movement representation in the macaque anterior intraparietal area. Journal of Neuroscience. 29 (20), 6436-6448 (2009).
  15. Riehle, A., Wirtssohn, S., Grun, S., Brochier, T. Mapping the spatio-temporal structure of motor cortical LFP and spiking activities during reach-to-grasp movements. Frontiers in Neural Circuits. 7, 48 (2013).
  16. Michaels, J. A., Scherberger, H. Population coding of grasp and laterality-related information in the macaque fronto-parietal network. Scientific Reports. 8 (1), 1710 (2018).
  17. Fattori, P., et al. Hand orientation during reach-to-grasp movements modulates neuronal activity in the medial posterior parietal area V6A. Journal of Neuroscience. 29 (6), 1928-1936 (2009).
  18. Asher, I., Stark, E., Abeles, M., Prut, Y. Comparison of direction and object selectivity of local field potentials and single units in macaque posterior parietal cortex during prehension. Journal of Neurophysiology. 97 (5), 3684-3695 (2007).
  19. Stark, E., Asher, I., Abeles, M. Encoding of reach and grasp by single neurons in premotor cortex is independent of recording site. Journal of Neurophysiology. 97 (5), 3351-3364 (2007).
  20. Velliste, M., Perel, S., Spalding, M. C., Whitford, A. S., Schwartz, A. B. Cortical control of a prosthetic arm for self-feeding. Nature. 453 (7198), 1098-1101 (2008).
  21. Vargas-Irwin, C. E., et al. Decoding complete reach and grasp actions from local primary motor cortex populations. Journal of Neuroscience. 30 (29), 9659-9669 (2010).
  22. Mollazadeh, M., et al. Spatiotemporal variation of multiple neurophysiological signals in the primary motor cortex during dexterous reach-to-grasp movements. Journal of Neuroscience. 31 (43), 15531-15543 (2011).
  23. Saleh, M., Takahashi, K., Hatsopoulos, N. G. Encoding of coordinated reach and grasp trajectories in primary motor cortex. Journal of Neuroscience. 32 (4), 1220-1232 (2012).
  24. Collinger, J. L., et al. High-performance neuroprosthetic control by an individual with tetraplegia. The Lancet. 381 (9866), 557-564 (2013).
  25. Lehmann, S. J., Scherberger, H. Reach and gaze representations in macaque parietal and premotor grasp areas. Journal of Neuroscience. 33 (16), 7038-7049 (2013).
  26. Rouse, A. G., Schieber, M. H. Spatiotemporal distribution of location and object effects in reach-to-grasp kinematics. Journal of Neuroscience. 114 (6), 3268-3282 (2015).
  27. Rouse, A. G., Schieber, M. H. Spatiotemporal Distribution of Location and Object effects in Primary Motor Cortex Neurons during Reach-to-Grasp. Journal of Neuroscience. 36 (41), 10640-10653 (2016).
  28. Hao, Y., et al. Neural synergies for controlling reach and grasp movement in macaques. 神经科学. 357, 372-383 (2017).
  29. Takahashi, K., et al. Encoding of Both Reaching and Grasping Kinematics in Dorsal and Ventral Premotor Cortices. Journal of Neuroscience. 37 (7), 1733-1746 (2017).
  30. Chen, J., et al. An automated behavioral apparatus to combine parameterized reaching and grasping movements in 3D space. Journal of Neuroscience Methods. 312, 139-147 (2019).
  31. Zhang, Q., et al. Development of an invasive brain-machine interface with a monkey model. Chinese Science Bulletin. 57 (16), 2036 (2012).
  32. Hao, Y., et al. Distinct neural patterns enable grasp types decoding in monkey dorsal premotor cortex. Journal of Neural Engineering. 11 (6), 066011 (2014).

Play Video

Cite This Article
Xu, K., Chen, J., Sun, G., Hao, Y., Zhang, S., Ran, X., Chen, W., Zheng, X. Design and Use of an Apparatus for Presenting Graspable Objects in 3D Workspace. J. Vis. Exp. (150), e59932, doi:10.3791/59932 (2019).

View Video