Lorsque nous saisissons un objet, plusieurs régions des doigts et de la main entrent généralement en contact avec la surface de l’objet. La reconstruction de ces régions de contact est un défi. Ici, nous présentons une méthode pour estimer approximativement les régions de contact en combinant la capture de mouvement basée sur des marqueurs avec la reconstruction existante du maillage manuel basée sur l’apprentissage profond.
Pour saisir un objet avec succès, nous devons sélectionner les régions de contact appropriées pour nos mains sur la surface de l’objet. Cependant, il est difficile d’identifier ces régions. Ce document décrit un flux de travail permettant d’estimer les régions de contact à partir de données de suivi basées sur des marqueurs. Les participants saisissent des objets réels, tandis que nous suivons la position 3D des objets et de la main, y compris les articulations des doigts. Nous déterminons d’abord les angles d’Euler articulaires à partir d’une sélection de marqueurs suivis positionnés sur le dos de la main. Ensuite, nous utilisons des algorithmes de reconstruction de mailles de main de pointe pour générer un modèle de maillage de la main du participant dans la pose actuelle et la position 3D.
L’utilisation d’objets imprimés en 3D ou scannés en 3D – et donc disponibles à la fois en tant qu’objets réels et données de maillage – permet de co-enregistrer les maillages de la main et de l’objet. À son tour, cela permet d’estimer les régions de contact approximatives en calculant les intersections entre le maillage manuel et le maillage d’objet 3D co-enregistré. La méthode peut être utilisée pour estimer où et comment les humains saisissent des objets dans diverses conditions. Par conséquent, la méthode pourrait intéresser les chercheurs qui étudient la perception visuelle et haptique, le contrôle moteur, l’interaction homme-machine en réalité virtuelle et augmentée et la robotique.
La capacité de saisir et de manipuler des objets est une capacité clé qui permet aux humains de remodeler l’environnement en fonction de leurs désirs et de leurs besoins. Cependant, contrôler efficacement les mains multi-articulées est une tâche difficile qui nécessite un système de contrôle sophistiqué. Ce système de contrôle moteur est guidé par plusieurs formes d’entrées sensorielles, parmi lesquelles la vision est primordiale. Grâce à la vision, les individus peuvent identifier les objets dans l’environnement et estimer leur position et leurs propriétés physiques, puis atteindre, saisir et manipuler facilement ces objets. Comprendre le système complexe qui relie l’entrée au niveau de la rétine aux commandes motrices qui contrôlent les mains est un défi clé de la neuroscience sensorimotrice. Pour modéliser, prédire et comprendre le fonctionnement de ce système, nous devons d’abord pouvoir l’étudier en détail. Cela nécessite des mesures haute fidélité des entrées visuelles et des sorties du moteur manuel.
La technologie de suivi de mouvement passée a imposé un certain nombre de limites à l’étude de la préhension humaine. Par exemple, les systèmes nécessitant des câbles attachés aux mains des participants1,2 ont tendance à restreindre l’amplitude des mouvements des doigts, modifiant potentiellement les mouvements de préhension ou les mesures elles-mêmes. Malgré ces limites, des recherches antérieures ont permis d’identifier plusieurs facteurs qui influencent la saisie guidée visuellement. Certains de ces facteurs incluent la forme de l’objet 3,4,5,6, la rugosité de surface 7,8,9, ou l’orientation d’un objet par rapport à la main4,8,10. Cependant, pour surmonter les limitations technologiques antérieures, la majorité de ces recherches antérieures ont utilisé des stimuli simples et des tâches très contraintes, se concentrant ainsi principalement sur les facteurs individuels 3,4,6,7,10, poignées de précision à deux chiffres3,4,6,9,11,12, 13,14,15,16,17,18, objets uniques19, ou formes 2D très simples 20,21. On ne sait pas comment les résultats antérieurs se généralisent au-delà de ces conditions de laboratoire réduites et artificielles. De plus, la mesure du contact main-objet est souvent réduite à l’estimation des points de contact à chiffres22. Cette simplification peut être appropriée pour décrire un petit sous-ensemble de préhensions dans lequel seuls le bout des doigts est en contact avec un objet. Cependant, dans la majorité des saisies du monde réel, de vastes régions des doigts et de la paume entrent en contact avec un objet. De plus, une étude récente23 a démontré, à l’aide d’un gant haptique, que les objets peuvent être reconnus par la façon dont leur surface empiète sur la main. Cela souligne l’importance d’étudier les régions de contact étendues entre les mains et les objets saisis, et pas seulement les points de contact entre les objets et le bout des doigts22.
Les progrès récents de la capture de mouvement et de la modélisation manuelle 3D nous ont permis de dépasser les limites précédentes et d’étudier la saisie dans toute sa complexité. Le suivi de mouvement passif basé sur des marqueurs est maintenant disponible avec des marqueurs de taille millimétrique qui peuvent être attachés à l’arrière des mains du participant pour suivre les mouvements articulaires24. De plus, les algorithmes d’identification automatique des marqueurs pour les systèmes de marqueurs passifs sont maintenant suffisamment robustes pour presque éliminer le besoin de post-traitement manuel étendu des données de marqueurs25,26,27. Les solutions sans marqueurs atteignent également des niveaux de performance impressionnants pour le suivi des parties du corps animal dans les vidéos28. Ces méthodes de suivi des mouvements permettent ainsi enfin des mesures fiables et non invasives des mouvements complexes à plusieurs chiffres de la main24. De telles mesures peuvent nous renseigner sur la cinématique des articulations et nous permettre d’estimer les points de contact entre la main et un objet. En outre, ces dernières années, la communauté de la vision par ordinateur s’est attaquée au problème de la construction de modèles de mains humaines capables de reproduire les déformations des tissus mous lors de la préhension d’objets et même lors d’un contact personnel entre les parties de la main 29,30,31,32. De telles reconstructions de maillage 3D peuvent être dérivées de différents types de données, telles que les séquences vidéo 33,34, les articulations squelettiques (dérivées du suivi35 ou sans marqueur36) et les images de profondeur37. La première avancée clé dans ce domaine a été fournie par Romero et al.38, qui ont dérivé un modèle de main paramétrique (MANO) à partir de plus de 1 000 balayages manuels de 31 sujets dans diverses poses. Le modèle contient des paramètres pour la pose et la forme de la main, facilitant la régression de différentes sources de données vers une reconstruction complète de la main. La solution DeepHandMesh29, plus récente, s’appuie sur cette approche en construisant un modèle paramétré grâce à l’apprentissage profond et en ajoutant l’évitement de la pénétration, qui reproduit plus précisément les interactions physiques entre les parties de la main. En combinant de telles reconstructions de maillage manuel avec des maillages d’objets suivis en 3D, il est donc désormais possible d’estimer les régions de contact non seulement à la surface des objets32 mais aussi à la surface de la main.
Ici, nous proposons un flux de travail qui associe le suivi 3D haute fidélité des objets et des articulations des mains avec de nouveaux algorithmes de reconstruction de maillage de main. La méthode produit des cartes détaillées des surfaces de contact main-objet. Ces mesures aideront les neuroscientifiques sensorimoteurs à approfondir notre compréhension théorique de la saisie guidée visuelle humaine. De plus, la méthode pourrait être utile aux chercheurs dans des domaines adjacents. Par exemple, les chercheurs en facteurs humains peuvent utiliser cette méthode pour construire de meilleurs systèmes d’interface homme-machine en réalité virtuelle et augmentée18. Les mesures haute fidélité des comportements de préhension humaine peuvent également aider les roboticiens à concevoir des systèmes de préhension robotiques inspirés de l’homme basés sur les principes de la perception interactive 39,40,41,42,43. Nous espérons donc que cette méthode aidera à faire progresser la recherche sur la compréhension dans les domaines des neurosciences et de l’ingénierie, des descriptions éparses de tâches très contraintes aux caractérisations plus complètes des comportements de préhension naturalistes avec des objets complexes et des tâches du monde réel. L’approche globale est décrite à la figure 1.
Figure 1 : Principales étapes de la méthode proposée. (A) Les caméras de capture de mouvement immortalisent un établi sous plusieurs angles. (B) Un objet stimulus est imprimé en 3D à partir d’un modèle de maillage triangulé. (C) Quatre marqueurs réfléchissants sphériques sont collés à la surface de l’objet réel. Une procédure semi-automatisée identifie quatre points correspondants sur la surface de l’objet maillé. Cette correspondance nous permet de roto-traduire le modèle de maillage à la position suivie 3D de l’objet réel. (D) Des marqueurs réfléchissants sont fixés à différents repères sur le dos de la main d’un participant à l’aide de ruban adhésif double face. (E) Le système de capture de mouvement acquiert les trajectoires dans l’espace 3D de l’objet suivi et des marqueurs de la main au cours d’un seul essai. (F) Un squelette de main spécifique au participant est construit à l’aide d’un logiciel d’infographie 3D. Les poses des articulations squelettiques sont ensuite estimées pour chaque image de chaque essai dans une expérience grâce à la cinématique inverse. (G) Les poses articulaires sont entrées dans une version modifiée de DeepHandMesh29, qui produit un maillage de main 3D estimé dans la pose et la position 3D actuelles. (H) Enfin, nous utilisons l’intersection de maillage pour calculer les régions de contact main-objet. Veuillez cliquer ici pour voir une version agrandie de cette figure.
Nous proposons une méthode qui permet d’estimer les régions de contact pour les interactions main-objet lors de préhensions à plusieurs chiffres. Comme le suivi complet de toute la surface d’une main est actuellement intraitable, nous proposons d’utiliser une reconstruction d’un maillage de main dont la pose est déterminée par des points clés clairsemés sur la main. Pour suivre ces points clés clairsemés, notre solution utilise un système de capture de mouvement de qualité recherche basé sur le suivi passif des marqueurs. Bien entendu, d’autres systèmes de capture de mouvement pourraient également être utilisés avec la méthode proposée, à condition qu’ils fournissent des données de position 3D suffisamment précises. Nous déconseillons les systèmes de capture de mouvement de marqueurs actifs (tels que le populaire mais abandonné Optotrak Certus), car ils nécessitent de fixer des câbles et / ou des appareils électroniques aux mains des participants, ce qui peut restreindre les mouvements ou au moins donner des préhensions moins typiques car les participants sont rendus plus conscients de la pose de leurs mains. Des gants de suivi de mouvement utilisant des unités de mesure inertielle peuvent être une possibilité, même si ces systèmes sont connus pour souffrir de dérive, peuvent également restreindre les mouvements de la main et ne permettent pas à la surface de la main d’entrer en contact complet et direct avec les surfaces de l’objet. Les solutions commerciales de suivi des mains sans marqueur (p. ex., le Leap Motion46,47,48) peuvent également être une possibilité, bien qu’il ne soit pas possible de suivre la position des objets avec ces systèmes seuls. L’option alternative la plus prometteuse à un système de capture de mouvement de qualité recherche est donnée par des solutions de suivi open source sans marqueur (par exemple, Mathis et al.28). S’ils sont utilisés avec plusieurs caméras co-enregistrées49, ces systèmes pourraient potentiellement suivre les positions des articulations des mains et des objets en 3D sans avoir besoin de marqueurs, de gants ou de câbles. Ces solutions, ainsi que ce système basé sur des marqueurs, peuvent toutefois souffrir de problèmes de perte de données dus à des occlusions.
Limites et orientations futures
Comme les reconstructions manuelles obtenues par cette méthode ne seront pas entièrement précises, il existe certaines limites aux types d’expériences pour lesquelles la méthode devrait être utilisée. Les écarts dans les reconstructions de mailles manuelles par rapport à la réalité du terrain se manifesteront par des écarts dans les régions estimées de contact main/objet. Ainsi, l’application de cette méthode pour calculer des mesures absolues nécessiterait d’évaluer la fidélité des estimations de la région de contact. Cependant, même des estimations approximatives peuvent toujours être utiles dans les plans expérimentaux intra-participants, car les biais potentiels de la méthode sont susceptibles d’affecter différentes conditions expérimentales au sein d’un participant de la même manière. Par conséquent, les analyses statistiques et les inférences ne doivent être effectuées que sur des mesures telles que les différences de surface de contact entre les conditions, où la direction d’un effet sera corrélée avec la réalité de terrain respective. Dans les recherches futures, nous prévoyons de valider davantage notre approche, par exemple en comparant les estimations de la région de contact aux empreintes thermiques sur les objets recouverts de peinture thermochromique.
La plupart des étapes de traitement, de la collecte des données à l’estimation finale de la région de contact, sont entièrement automatisées et, par conséquent, offrent des contributions importantes à une procédure normalisée pour l’estimation de la région de contact main-objet. Cependant, un ajustement initial des squelettes individualisés aux positions 3D des marqueurs suivis doit toujours être effectué manuellement pour obtenir une définition du squelette pour chaque participant. À mesure que le nombre de participants à une expérience augmente, le nombre d’ajustements manuels augmente également, et il s’agit actuellement de l’étape la plus longue de la procédure et nécessite une certaine familiarité avec le gréement manuel dans le logiciel Autodesk Maya. À l’avenir, nous visons à automatiser cette étape pour éviter toute influence humaine sur la procédure en ajoutant une procédure d’étalonnage automatique du squelette.
Le flux de travail décrit ici repose sur le matériel et les logiciels Qualisys (par exemple, le solveur squelette QTM). Cela limite actuellement l’accessibilité de notre méthode aux laboratoires qui ont une configuration similaire. En principe, cependant, la méthode peut être appliquée à n’importe quelle source de données de capture de mouvement. Pour élargir l’accessibilité, dans le cadre des travaux en cours, nous explorons des alternatives qui devraient généraliser notre flux de travail et le rendre moins dépendant de licences matérielles et logicielles spécifiques.
Une autre limitation importante de la méthode est que, dans sa forme actuelle, elle ne peut être appliquée qu’à des objets rigides (non déformables). À l’avenir, cette limitation pourrait être surmontée en utilisant des méthodes pour enregistrer la forme de surface de l’objet saisi à mesure qu’il se déforme. De plus, en raison de sa nature approximative, la méthode n’est actuellement pas bien adaptée aux objets très petits ou minces.
En conclusion, en intégrant le suivi de mouvement de pointe à la modélisation haute fidélité de la surface de la main, nous fournissons une méthode pour estimer les régions de contact main-objet pendant la préhension et la manipulation. Dans les recherches futures, nous prévoyons de déployer cette méthode pour étudier et modéliser le comportement de préhension visuellement guidé chez l’homme16. Nous prévoyons également d’intégrer ces outils avec le suivi oculaire 46,50,51,52 et les systèmes de réalité virtuelle / augmentée 53,54,55 pour étudier le contrôle moteur des mouvements des mains et des yeux guidé visuellement dans des environnements naturalistes réels et virtuels 18,46,56,57 . Pour ces raisons, la méthode proposée pourrait intéresser les chercheurs qui étudient la perception haptique58, le contrôle moteur et l’interaction homme-machine en réalité virtuelle et augmentée. Enfin, des mesures précises des capacités de préhension humaines pourraient éclairer la conception de systèmes robotiques robustes basés sur les principes de perception interactive 39,40,41,42,43 et pourraient avoir des applications translationnelles pour les prothèses des membres supérieurs.
The authors have nothing to disclose.
Cette recherche a été financée par Deutsche Forschungsgemeinschaft (DFG, Fondation allemande pour la recherche: projet n ° 222641018-SFB / TRR 135 TP C1 et IRTG-1901 « Le cerveau en action ») et par le groupe de recherche « L’esprit adaptatif » financé par le programme d’excellence du ministère hessois de l’enseignement supérieur, des sciences, de la recherche et des arts. Les auteurs remercient l’équipe de support de Qualisys, y compris Mathias Bankay et Jeffrey Thingvold, pour leur aide dans le développement de nos méthodes. Les auteurs remercient également Michaela Jeschke d’avoir posé comme modèle de la main. Toutes les données et les scripts d’analyse pour reproduire la méthode et les résultats présentés dans le manuscrit sont disponibles sur Zenodo (doi: 10.5281 / zenodo.7458911).
Anaconda Python distribution | (Anaconda 5.3.1 or later); https://repo.anaconda.com/archive/ | scripts and functions were generated in Python version 3.7 | |
Autodesk Maya | Autodesk, Inc. | Maya2022; https://www.autodesk.com/products/maya/overview | 3D computer graphics application. |
Blender | Blender Foundation | Blender 2.92; https://download.blender.org/release/ | 3D computer graphics application. |
Computer Workstation | N/A | N/A | OS: Windows 10 or higher. |
DeepHandMesh | Meta Platforms, Inc. (Meta Open Source) | https://github.com/facebookresearch/DeepHandMesh | Pre-trained hand mesh generation tool. |
Miqus M5 | Qualisys Ab | https://www.qualisys.com/cameras/miqus/ | Passive marker motion tracking camera (8 units). |
Miqus video camera | Qualisys Ab | https://www.qualisys.com/cameras/miqus-video/ | Color video camera, synchronized with Miquis M5 tracking cameras (6 units). |
Project repository | N/A | Data and Code Repository | Data and code to replicate the current project. The repository is currently under construction, but we provide a private link where reviewers can download the current and most up-to-date version of the repository. The final repository will be made publicly available upon acceptance. |
Python 3 | Python Software Foundation | Python Version 3.7 | Python3 and associated built-in libraries. |
QTM Connect for Maya | Qualisys Ab | https://github.com/qualisys/QTM-Connect-For-Maya | Stream skeleton, rigid bodies and marker data from QTM to Maya |
QTM Qualisys Track Manager | Qualisys Ab | Qualisys Track Manager 2021.2; https://www.qualisys.com/software/qualisys-track-manager/ | Motion capture software |
Qualisys SDK for Python | Qualisys Ab | https://github.com/qualisys/qualisys_python_sdk | Implements communication between QTM and Python |