Quando afferriamo un oggetto, più regioni delle dita e della mano in genere entrano in contatto con la superficie dell’oggetto. Ricostruire tali regioni di contatto è impegnativo. Qui, presentiamo un metodo per stimare approssimativamente le regioni di contatto combinando l’acquisizione del movimento basata su marker con la ricostruzione della mesh manuale basata sul deep learning esistente.
Per afferrare un oggetto con successo, dobbiamo selezionare le regioni di contatto appropriate per le nostre mani sulla superficie dell’oggetto. Tuttavia, identificare tali regioni è difficile. Questo documento descrive un flusso di lavoro per stimare le aree di contatto dai dati di rilevamento basati su marker. I partecipanti afferrano oggetti reali, mentre noi tracciamo la posizione 3D sia degli oggetti che della mano, comprese le articolazioni delle dita. Per prima cosa determiniamo gli angoli di Eulero del giunto da una selezione di marcatori tracciati posizionati sul dorso della mano. Quindi, utilizziamo algoritmi di ricostruzione della mesh a mano all’avanguardia per generare un modello mesh della mano del partecipante nella posa corrente e nella posizione 3D.
L’utilizzo di oggetti stampati in 3D o scansionati in 3D e quindi disponibili sia come oggetti reali che come dati mesh, consente di registrare congiuntamente le mesh di mani e oggetti. A sua volta, ciò consente la stima di regioni di contatto approssimative calcolando le intersezioni tra la mesh manuale e la mesh di oggetti 3D co-registrata. Il metodo può essere utilizzato per stimare dove e come gli esseri umani afferrano gli oggetti in una varietà di condizioni. Pertanto, il metodo potrebbe essere di interesse per i ricercatori che studiano la percezione visiva e tattile, il controllo motorio, l’interazione uomo-computer nella realtà virtuale e aumentata e la robotica.
La capacità di afferrare e manipolare gli oggetti è un’abilità chiave che consente agli esseri umani di rimodellare l’ambiente secondo i loro desideri e bisogni. Tuttavia, controllare efficacemente le mani multi-articolate è un compito impegnativo che richiede un sofisticato sistema di controllo. Questo sistema di controllo motorio è guidato da diverse forme di input sensoriali, tra cui la visione è fondamentale. Attraverso la visione, gli individui possono identificare gli oggetti nell’ambiente e stimare la loro posizione e proprietà fisiche e possono quindi raggiungere, afferrare e manipolare quegli oggetti con facilità. Comprendere il complesso sistema che collega l’input alle retine con i comandi motori che controllano le mani è una sfida chiave delle neuroscienze sensomotorie. Per modellare, prevedere e capire come funziona questo sistema, dobbiamo prima essere in grado di studiarlo in dettaglio. Ciò richiede misurazioni ad alta fedeltà sia degli input visivi che delle uscite del motore manuale.
La passata tecnologia di tracciamento del movimento ha imposto una serie di limitazioni allo studio della presa umana. Ad esempio, i sistemi che richiedono cavi attaccati alle mani dei partecipanti1,2 tendono a limitare la gamma di movimenti delle dita, alterando potenzialmente i movimenti di presa o le misurazioni stesse. Nonostante tali limitazioni, la ricerca precedente è stata in grado di identificare diversi fattori che influenzano la presa guidata visivamente. Alcuni di questi fattori includono la forma dell’oggetto 3,4,5,6, la rugosità superficiale 7,8,9 o l’orientamento di un oggetto rispetto alla mano 4,8,10. Tuttavia, per superare i precedenti limiti tecnologici, la maggior parte di questa ricerca precedente ha impiegato stimoli semplici e compiti altamente vincolati, concentrandosi quindi prevalentemente su fattori individuali 3,4,6,7,10, impugnature di precisione a due cifre3,4,6,9,11,12, 13,14,15,16,17,18, oggetti singoli19, o forme 2D molto semplici 20,21. Come i risultati precedenti si generalizzano al di là di tali condizioni di laboratorio ridotte e artificiali è sconosciuto. Inoltre, la misurazione del contatto mano-oggetto è spesso ridotta alla stima dei punti di contatto delle cifre22. Questa semplificazione può essere appropriata per descrivere un piccolo sottoinsieme di impugnature in cui solo i polpastrelli sono in contatto con un oggetto. Tuttavia, nella maggior parte delle prese del mondo reale, ampie regioni delle dita e del palmo entrano in contatto con un oggetto. Inoltre, un recente studio23 ha dimostrato, usando un guanto tattile, che gli oggetti possono essere riconosciuti da come la loro superficie colpisce la mano. Ciò evidenzia l’importanza di studiare le regioni di contatto estese tra le mani e gli oggetti afferrati, non solo i punti di contatto tra gli oggetti e la punta delle dita22.
I recenti progressi nella motion capture e nella modellazione 3D della mano ci hanno permesso di superare i limiti precedenti e di studiare la comprensione nella sua piena complessità. Il tracciamento del movimento passivo basato su marker è ora disponibile con marcatori di dimensioni millimetriche che possono essere attaccati al dorso delle mani del partecipante per tracciare i movimenti articolari24. Inoltre, gli algoritmi automatici di identificazione dei marcatori per i sistemi di marcatori passivi sono ora sufficientemente robusti da eliminare quasi la necessità di un’ampia post-elaborazione manuale dei dati dei marcatori25,26,27. Le soluzioni senza marker stanno anche raggiungendo livelli impressionanti di prestazioni nel tracciare parti del corpo di animali nei video28. Questi metodi di tracciamento del movimento, quindi, consentono finalmente misurazioni affidabili e non invasive di complessi movimenti della mano a più cifre24. Tali misurazioni possono informarci sulla cinematica articolare e consentirci di stimare i punti di contatto tra la mano e un oggetto. Inoltre, negli ultimi anni, la comunità della visione artificiale ha affrontato il problema della costruzione di modelli delle mani umane in grado di replicare le deformazioni dei tessuti molli durante la presa dell’oggetto e persino durante l’auto-contatto tra le parti della mano 29,30,31,32. Tali ricostruzioni mesh 3D possono essere derivate da diversi tipi di dati, come riprese video 33,34, articolazioni scheletriche (derivate da35 basato su marker o markerless tracking36) e immagini di profondità37. Il primo progresso chiave in questo campo è stato fornito da Romero et al.38, che hanno derivato un modello parametrico della mano (MANO) da oltre 1.000 scansioni della mano da 31 soggetti in varie pose. Il modello contiene parametri sia per la posa che per la forma della mano, facilitando la regressione da diverse fonti di dati a una ricostruzione completa della mano. La soluzione più recente DeepHandMesh29 si basa su questo approccio costruendo un modello parametrizzato attraverso il deep learning e aggiungendo l’evitamento della penetrazione, che replica in modo più accurato le interazioni fisiche tra le parti della mano. Combinando tali ricostruzioni di mesh manuali con mesh di oggetti tracciati 3D, è quindi ora possibile stimare le regioni di contatto non solo sulla superficie degli oggetti32 ma anche sulla superficie della mano.
Qui, proponiamo un flusso di lavoro che riunisce il tracciamento 3D ad alta fedeltà di oggetti e giunti delle mani con nuovi algoritmi di ricostruzione della maglia manuale. Il metodo produce mappe dettagliate delle superfici di contatto mano-oggetto. Queste misurazioni aiuteranno i neuroscienziati sensomotori ad estendere la nostra comprensione teorica della presa umana guidata visivamente. Inoltre, il metodo potrebbe essere utile ai ricercatori in campi adiacenti. Ad esempio, i ricercatori del fattore umano possono utilizzare questo metodo per costruire migliori sistemi di interfaccia uomo-macchina nella realtà virtuale e aumentata18. Le misurazioni ad alta fedeltà dei comportamenti di presa umana possono anche aiutare i robotici a progettare sistemi di presa robotica ispirati all’uomo basati sui principi della percezione interattiva 39,40,41,42,43. Noi, quindi, speriamo che questo metodo aiuterà a far progredire la ricerca di presa attraverso i campi delle neuroscienze e dell’ingegneria, da descrizioni sparse di compiti altamente vincolati a caratterizzazioni più complete di comportamenti di presa naturalistica con oggetti complessi e compiti del mondo reale. L’approccio generale è illustrato nella Figura 1.
Figura 1: Fasi principali del metodo proposto . (A) Le telecamere di motion capture riprendono un banco da lavoro da più angolazioni. (B) Un oggetto stimolo viene stampato in 3D da un modello di mesh triangolato. (C) Quattro marcatori riflettenti sferici sono incollati alla superficie dell’oggetto reale. Una procedura semi-automatica identifica quattro punti corrispondenti sulla superficie dell’oggetto mesh. Questa corrispondenza ci consente di roto-tradurre il modello mesh nella posizione tracciata 3D dell’oggetto reale. (D) I marcatori riflettenti sono attaccati a diversi punti di riferimento sul dorso della mano di un partecipante usando nastro biadesivo. (E) Il sistema di motion capture acquisisce le traiettorie nello spazio 3D dell’oggetto tracciato e dei marcatori manuali durante una singola prova. (F) Uno scheletro a mano specifico per il partecipante è costruito utilizzando software di computer grafica 3D. Le pose articolari scheletriche vengono quindi stimate per ogni fotogramma di ogni prova in un esperimento attraverso la cinematica inversa. (G) Le pose congiunte vengono inserite in una versione modificata di DeepHandMesh29, che produce una mesh a mano 3D stimata nella posa e nella posizione 3D correnti. (H) Infine, usiamo l’intersezione mesh per calcolare le regioni di contatto mano-oggetto. Fare clic qui per visualizzare una versione ingrandita di questa figura.
Proponiamo un metodo che consente la stima delle regioni di contatto per le interazioni mano-oggetto durante le prese a più cifre. Poiché il tracciamento completo dell’intera superficie di una mano è attualmente intrattabile, proponiamo di utilizzare una ricostruzione di una maglia della mano la cui posa è determinata da punti chiave sparsi sulla mano. Per tenere traccia di questi punti chiave sparsi, la nostra soluzione utilizza un sistema di motion capture di livello di ricerca basato sul tracciamento passivo dei marcatori. Naturalmente, altri sistemi di motion capture potrebbero anche essere impiegati con il metodo proposto, a condizione che forniscano dati di posizione 3D sufficientemente accurati. Sconsigliamo i sistemi di motion capture dei marker attivi (come il popolare ma fuori produzione Optotrak Certus), poiché richiedono il collegamento di cavi e / o dispositivi elettronici alle mani dei partecipanti, che possono limitare i movimenti o almeno produrre prese meno tipiche poiché i partecipanti sono resi più consapevoli della posa delle loro mani. I guanti di tracciamento del movimento che utilizzano unità di misurazione inerziale possono essere una possibilità, anche se questi sistemi sono noti per soffrire di deriva, possono anche limitare i movimenti della mano e non consentono alla superficie della mano di entrare in contatto completo e diretto con le superfici dell’oggetto. Anche le soluzioni commerciali di tracciamento delle mani senza marker (ad esempio, il Leap Motion46,47,48) possono essere una possibilità, sebbene potrebbe non essere possibile tracciare le posizioni degli oggetti con questi soli sistemi. L’alternativa più promettente a un sistema di motion capture di livello di ricerca è data da soluzioni di tracciamento open-source e senza marker (ad esempio, Mathis et al.28). Se utilizzati con più telecamere co-registrate49, tali sistemi potrebbero potenzialmente tracciare le posizioni delle articolazioni delle mani e delle posizioni degli oggetti in 3D senza la necessità di marcatori, guanti o cavi. Queste soluzioni, così come questo sistema basato su marker, possono soffrire, tuttavia, di problemi di perdita di dati a causa di occlusioni.
Limiti e direzioni future
Poiché le ricostruzioni della mano ottenute attraverso questo metodo non saranno completamente accurate, ci sono alcune limitazioni ai tipi di esperimenti per i quali il metodo dovrebbe essere utilizzato. Le deviazioni nelle ricostruzioni della maglia della mano dalla verità del terreno si manifesteranno in deviazioni nelle regioni di contatto stimate mano / oggetto. Pertanto, l’applicazione di questo metodo per derivare misure assolute richiederebbe la valutazione della fedeltà delle stime della regione di contatto. Tuttavia, anche stime approssimative possono ancora essere utili nei disegni sperimentali all’interno dei partecipanti perché è probabile che i potenziali pregiudizi del metodo influenzino diverse condizioni sperimentali all’interno di un partecipante in modo simile. Pertanto, le analisi statistiche e le inferenze dovrebbero essere eseguite solo su misure come le differenze nell’area di contatto tra le condizioni, in cui la direzione di un effetto sarà correlata alla rispettiva verità di base. Nella ricerca futura, abbiamo in programma di convalidare ulteriormente il nostro approccio, ad esempio confrontando le stime della regione di contatto con le impronte digitali termiche su oggetti coperti di vernice termocromica.
La maggior parte delle fasi di elaborazione dalla raccolta dei dati alla stima della regione di contatto finale sono completamente automatizzate e, quindi, offrono importanti contributi verso una procedura standardizzata per la stima della regione di contatto mano-oggetto. Tuttavia, un adattamento iniziale degli scheletri individualizzati alle posizioni 3D dei marcatori tracciati deve ancora essere eseguito manualmente per ottenere una definizione di scheletro per ciascun partecipante. Con l’aumentare del numero di partecipanti a un esperimento, aumenta anche il numero di adattamenti manuali, e questa è attualmente la fase più dispendiosa in termini di tempo nella procedura e richiede una certa familiarità con il rigging manuale nel software Autodesk Maya. In futuro, miriamo ad automatizzare questo passaggio per evitare l’influenza umana sulla procedura aggiungendo una procedura di calibrazione automatica dello scheletro.
Il flusso di lavoro qui descritto si basa sull’hardware e sul software Qualisys (ad esempio, il solutore di scheletro QTM). Questo attualmente limita l’accessibilità del nostro metodo ai laboratori che hanno una configurazione simile. In linea di principio, tuttavia, il metodo può essere applicato a qualsiasi fonte di dati di motion capture. Per espandere l’accessibilità, nel lavoro in corso, stiamo esplorando alternative che dovrebbero generalizzare il nostro flusso di lavoro e renderlo meno dipendente da specifiche licenze hardware e software.
Un’altra importante limitazione del metodo è che, nella sua forma attuale, può essere applicato solo a oggetti rigidi (indeformabili). In futuro, questa limitazione potrebbe essere superata utilizzando metodi per registrare la forma della superficie dell’oggetto afferrato mentre si deforma. Inoltre, a causa della sua natura approssimativa, il metodo non è attualmente adatto a oggetti molto piccoli o sottili.
In conclusione, integrando il tracciamento del movimento all’avanguardia con la modellazione della superficie della mano ad alta fedeltà, forniamo un metodo per stimare le regioni di contatto mano-oggetto durante la presa e la manipolazione. Nella ricerca futura, abbiamo in programma di implementare questo metodo per indagare e modellare il comportamento di presa visivamente guidato negli esseri umani16. Abbiamo inoltre in programma di integrare questi strumenti con l’eye tracking 46,50,51,52 e i sistemi di realtà virtuale / aumentata 53,54,55 per indagare il controllo motorio del movimento delle mani e degli occhi guidato visivamente in ambienti naturalistici reali e virtuali 18,46,56,57 . Per questi motivi, il metodo proposto potrebbe essere di interesse per i ricercatori che studiano la percezione aptica58, il controllo motorio e l’interazione uomo-computer nella realtà virtuale e aumentata. Infine, misurazioni accurate delle capacità di presa umana potrebbero informare la progettazione di robusti sistemi robotici basati sui principi della percezione interattiva 39,40,41,42,43 e potrebbero avere applicazioni traslazionali per protesi degli arti superiori.
The authors have nothing to disclose.
Questa ricerca è stata finanziata dalla Deutsche Forschungsgemeinschaft (DFG, German Research Foundation: progetto n. 222641018-SFB/TRR 135 TP C1 e IRTG-1901 “The Brain in Action”) e dal Research Cluster “The Adaptive Mind” finanziato dal Programma di eccellenza del Ministero dell’istruzione superiore, della scienza, della ricerca e dell’arte dell’Assia. Gli autori ringraziano il team di supporto di Qualisys, tra cui Mathias Bankay e Jeffrey Thingvold, per l’assistenza nello sviluppo dei nostri metodi. Gli autori ringraziano anche Michaela Jeschke per aver posato come modella della mano. Tutti i dati e gli script di analisi per riprodurre il metodo e i risultati presentati nel manoscritto sono disponibili su Zenodo (doi: 10.5281/zenodo.7458911).
Anaconda Python distribution | (Anaconda 5.3.1 or later); https://repo.anaconda.com/archive/ | scripts and functions were generated in Python version 3.7 | |
Autodesk Maya | Autodesk, Inc. | Maya2022; https://www.autodesk.com/products/maya/overview | 3D computer graphics application. |
Blender | Blender Foundation | Blender 2.92; https://download.blender.org/release/ | 3D computer graphics application. |
Computer Workstation | N/A | N/A | OS: Windows 10 or higher. |
DeepHandMesh | Meta Platforms, Inc. (Meta Open Source) | https://github.com/facebookresearch/DeepHandMesh | Pre-trained hand mesh generation tool. |
Miqus M5 | Qualisys Ab | https://www.qualisys.com/cameras/miqus/ | Passive marker motion tracking camera (8 units). |
Miqus video camera | Qualisys Ab | https://www.qualisys.com/cameras/miqus-video/ | Color video camera, synchronized with Miquis M5 tracking cameras (6 units). |
Project repository | N/A | Data and Code Repository | Data and code to replicate the current project. The repository is currently under construction, but we provide a private link where reviewers can download the current and most up-to-date version of the repository. The final repository will be made publicly available upon acceptance. |
Python 3 | Python Software Foundation | Python Version 3.7 | Python3 and associated built-in libraries. |
QTM Connect for Maya | Qualisys Ab | https://github.com/qualisys/QTM-Connect-For-Maya | Stream skeleton, rigid bodies and marker data from QTM to Maya |
QTM Qualisys Track Manager | Qualisys Ab | Qualisys Track Manager 2021.2; https://www.qualisys.com/software/qualisys-track-manager/ | Motion capture software |
Qualisys SDK for Python | Qualisys Ab | https://github.com/qualisys/qualisys_python_sdk | Implements communication between QTM and Python |