Wanneer we een object vastpakken, maken meerdere delen van de vingers en hand meestal contact met het oppervlak van het object. Het reconstrueren van dergelijke contactgebieden is een uitdaging. Hier presenteren we een methode voor het ongeveer schatten van de contactgebieden door marker-gebaseerde motion capture te combineren met bestaande deep learning-gebaseerde handmesh-reconstructie.
Om een object met succes te begrijpen, moeten we geschikte contactgebieden selecteren voor onze handen op het oppervlak van het object. Het identificeren van dergelijke regio’s is echter een uitdaging. In dit document wordt een workflow beschreven om de contactgebieden te schatten op basis van op markeringen gebaseerde trackinggegevens. Deelnemers grijpen echte objecten, terwijl we de 3D-positie van zowel de objecten als de hand volgen, inclusief de gewrichten van de vingers. We bepalen eerst de gezamenlijke Euler-hoeken uit een selectie van gevolgmarkeringen die op de rug van de hand zijn geplaatst. Vervolgens gebruiken we state-of-the-art handmesh-reconstructiealgoritmen om een mesh-model te genereren van de hand van de deelnemer in de huidige pose en de 3D-positie.
Met behulp van objecten die 3D-geprint of 3D gescand zijn – en dus beschikbaar zijn als zowel echte objecten als mesh-gegevens – kunnen de hand- en objectnetten samen worden geregistreerd. Dit maakt op zijn beurt de schatting van geschatte contactgebieden mogelijk door de snijpunten tussen het handgaas en het mede-geregistreerde 3D-objectgaas te berekenen. De methode kan worden gebruikt om in te schatten waar en hoe mensen objecten onder verschillende omstandigheden grijpen. Daarom kan de methode van belang zijn voor onderzoekers die visuele en haptische perceptie, motorische controle, mens-computerinteractie in virtuele en augmented reality en robotica bestuderen.
Het vermogen om objecten te grijpen en te manipuleren is een belangrijk vermogen dat mensen in staat stelt om de omgeving te hervormen naar hun wensen en behoeften. Het effectief besturen van handen met meerdere gewrichten is echter een uitdagende taak die een geavanceerd besturingssysteem vereist. Dit motorbesturingssysteem wordt geleid door verschillende vormen van sensorische input, waaronder het gezichtsvermogen van het grootste belang is. Door middel van visie kunnen individuen de objecten in de omgeving identificeren en hun positie en fysieke eigenschappen schatten en kunnen ze die objecten vervolgens gemakkelijk bereiken, grijpen en manipuleren. Het begrijpen van het complexe systeem dat de input op het netvlies verbindt met de motorische commando’s die de handen besturen, is een belangrijke uitdaging van de sensomotorische neurowetenschappen. Om te modelleren, te voorspellen en te begrijpen hoe dit systeem werkt, moeten we het eerst in detail kunnen bestuderen. Dit vereist high-fidelity metingen van zowel visuele ingangen als handmotoruitgangen.
Eerdere motion-tracking-technologie heeft een aantal beperkingen opgelegd aan de studie van menselijk grijpen. Systemen die kabels vereisen die aan de handen van de deelnemerszijn bevestigd 1,2, hebben bijvoorbeeld de neiging om het bereik van vingerbewegingen te beperken, waardoor mogelijk de grijpbewegingen of de metingen zelf worden gewijzigd. Ondanks dergelijke beperkingen heeft eerder onderzoek verschillende factoren kunnen identificeren die van invloed zijn op visueel geleid grijpen. Enkele van deze factoren zijn objectvorm 3,4,5,6, oppervlakteruwheid 7,8,9 of de oriëntatie van een object ten opzichte van de hand 4,8,10. Om eerdere technologische beperkingen te overwinnen, heeft het grootste deel van dit eerdere onderzoek echter eenvoudige stimuli en zeer beperkte taken gebruikt, waarbij voornamelijk de nadruk ligt op individuele factoren 3,4,6,7,10, tweecijferige precisiegrepen3,4,6,9,11,12, 13,14,15,16,17,18, enkele objecten19, of zeer eenvoudige 2D-vormen 20,21. Hoe eerdere bevindingen generaliseren voorbij dergelijke gereduceerde en kunstmatige laboratoriumomstandigheden is onbekend. Bovendien wordt de meting van hand-objectcontact vaak beperkt tot de schatting van cijfercontactpunten22. Deze vereenvoudiging kan geschikt zijn om een kleine deelverzameling van grepen te beschrijven waarin alleen de vingertoppen in contact staan met een object. In de meeste grepen in de echte wereld komen echter uitgebreide gebieden van de vingers en de handpalm in contact met een object. Verder heeft een recente studie23 aangetoond, met behulp van een haptische handschoen, dat objecten kunnen worden herkend aan hoe hun oppervlak op de hand botst. Dit benadrukt het belang van het bestuderen van de uitgebreide contactgebieden tussen de handen en de gegrepen objecten, niet alleen de contactpunten tussen de objecten en de vingertoppen22.
Recente ontwikkelingen in motion capture en 3D-handmodellering hebben ons in staat gesteld om voorbij eerdere beperkingen te gaan en het grijpen in zijn volledige complexiteit te bestuderen. Passieve marker-gebaseerde motion tracking is nu beschikbaar met millimetergrote markers die aan de achterkant van de handen van de deelnemer kunnen worden bevestigd om gewrichtsbewegingen te volgen24. Verder zijn automatische markeridentificatie-algoritmen voor passieve markersystemen nu voldoende robuust om de noodzaak voor de uitgebreide handmatige nabewerking van markergegevens bijna te elimineren25,26,27. Markerless oplossingen bereiken ook indrukwekkende prestatieniveaus bij het volgen van dierlijke lichaamsdelen in video’s28. Deze motion-tracking methoden maken dus eindelijk betrouwbare en niet-invasieve metingen van complexe meercijferige handbewegingen mogelijk24. Dergelijke metingen kunnen ons informeren over gewrichtskinematica en ons in staat stellen om de contactpunten tussen de hand en een object te schatten. Bovendien heeft de computervisiegemeenschap de afgelopen jaren het probleem aangepakt van het construeren van modellen van de menselijke handen die de vervormingen van zacht weefsel kunnen repliceren tijdens het grijpen van objecten en zelfs tijdens zelfcontact tussen handdelen 29,30,31,32. Dergelijke 3D-mesh-reconstructies kunnen worden afgeleid uit verschillende soorten gegevens, zoals videobeelden 33,34, skeletgewrichten (afgeleid van marker-based 35 of markerless tracking 36) en dieptebeelden 37. De eerste belangrijke vooruitgang op dit gebied werd geleverd door Romero et al.38, die een parametrisch handmodel (MANO) afleidden van meer dan 1.000 handscans van 31 proefpersonen in verschillende houdingen. Het model bevat parameters voor zowel de houding als de vorm van de hand, waardoor regressie van verschillende gegevensbronnen naar een volledige handreconstructie mogelijk wordt. De meer recente DeepHandMesh29-oplossing bouwt voort op deze aanpak door een geparametriseerd model te construeren door middel van deep learning en door penetratievermijding toe te voegen, die fysieke interacties tussen handonderdelen nauwkeuriger repliceert. Door dergelijke handgaasreconstructies te combineren met 3D-gevolgde objectnetten, is het nu dus mogelijk om contactgebieden niet alleen op het oppervlak van objecten32, maar ook op het oppervlak van de hand te schatten.
Hier stellen we een workflow voor die de high-fidelity 3D-tracking van objecten en handgewrichten samenbrengt met nieuwe handmesh-reconstructiealgoritmen. De methode levert gedetailleerde kaarten op van hand-object contactoppervlakken. Deze metingen zullen sensomotorische neurowetenschappers helpen bij het uitbreiden van ons theoretisch begrip van menselijk visueel geleid grijpen. Verder kan de methode nuttig zijn voor onderzoekers in aangrenzende velden. Menselijke factoronderzoekers kunnen deze methode bijvoorbeeld gebruiken om betere mens-machine-interfacesystemen te bouwen in virtuele en augmented reality18. High-fidelity metingen van menselijk grijpgedrag kunnen robotici ook helpen bij het ontwerpen van door mensen geïnspireerde robotgrijpsystemen op basis van de principes van interactieve waarneming 39,40,41,42,43. We hopen dus dat deze methode zal helpen bij het bevorderen van begrijpend onderzoek op neurowetenschappelijke en technische gebieden, van spaarzame beschrijvingen van zeer beperkte taken tot volledigere karakteriseringen van naturalistisch grijpgedrag met complexe objecten en taken uit de echte wereld. De algemene aanpak is weergegeven in figuur 1.
Figuur 1: Belangrijkste stappen in de voorgestelde methode . (A) Motion capture-camera’s beelden een werkbank vanuit meerdere hoeken af. (B) Een stimulusobject wordt 3D-geprint vanuit een driehoekig mesh-model. (C) Vier bolvormige reflecterende markeringen worden op het oppervlak van het echte object gelijmd. Een semi-geautomatiseerde procedure identificeert vier overeenkomstige punten op het oppervlak van het netobject. Deze correspondentie stelt ons in staat om het mesh-model roto-te vertalen naar de 3D-gevolgde positie van het echte object. (D) Reflecterende markeringen worden bevestigd aan verschillende oriëntatiepunten op de rug van de hand van een deelnemer met behulp van dubbelzijdige tape. (E) Het motion capture-systeem verwerft de trajecten in de 3D-ruimte van het gevolgde object en de handmarkeringen tijdens een enkele proef. (F) Een deelnemerspecifiek handskelet wordt geconstrueerd met behulp van 3D-computergrafische software. Skeletgewrichtshoudingen worden vervolgens geschat voor elk frame van elke proef in een experiment door middel van inverse kinematica. (G) Gezamenlijke poses worden ingevoerd in een aangepaste versie van DeepHandMesh29, die een geschat 3D-handgaas in de huidige 3D-pose en -positie uitvoert. (H) Ten slotte gebruiken we mesh-kruising om de hand-objectcontactgebieden te berekenen. Klik hier om een grotere versie van deze figuur te bekijken.
We stellen een methode voor die het mogelijk maakt om contactgebieden te schatten voor hand-object interacties tijdens meercijferige grepen. Omdat het volledige volgen van het hele oppervlak van een hand momenteel onhandelbaar is, stellen we voor om een reconstructie te gebruiken van een handgaas waarvan de houding wordt bepaald door schaarse sleutelpunten op de hand. Om deze schaarse belangrijke punten te volgen, maakt onze oplossing gebruik van een motion capture-systeem van onderzoekskwaliteit op basis van passieve markertracking. Natuurlijk kunnen ook andere motion capture-systemen worden gebruikt met de voorgestelde methode, mits ze voldoende nauwkeurige 3D-positiegegevens opleveren. We raden actieve marker motion capture-systemen af (zoals de populaire maar stopgezette Optotrak Certus), omdat deze kabels en / of elektronische apparaten aan de handen van de deelnemers moeten bevestigen, wat bewegingen kan beperken of op zijn minst minder typische grepen kan opleveren naarmate deelnemers bewuster worden gemaakt van de houding van hun handen. Motion-tracking handschoenen met behulp van traagheidsmeeteenheden kunnen een mogelijkheid zijn, hoewel bekend is dat deze systemen last hebben van drift, ook handbewegingen kunnen beperken en niet toestaan dat het oppervlak van de hand volledig en direct in contact komt met de objectoppervlakken. Commerciële markerless hand-tracking oplossingen (bijv. de Leap Motion46,47,48) kunnen ook een mogelijkheid zijn, hoewel het misschien niet mogelijk is om objectposities alleen met deze systemen te volgen. De meest veelbelovende alternatieve optie voor een motion capture-systeem van onderzoekskwaliteit wordt gegeven door open-source, markerloze trackingoplossingen (bijv. Mathis et al.28). Bij gebruik met meerdere co-geregistreerde camera’s49 kunnen dergelijke systemen mogelijk handgewrichtposities en objectposities in 3D volgen zonder dat markeringen, handschoenen of kabels nodig zijn. Deze oplossingen, evenals dit op markers gebaseerde systeem, kunnen echter last hebben van problemen met gegevensverlies als gevolg van occlusies.
Beperkingen en toekomstige richtingen
Aangezien de handreconstructies die met deze methode worden verkregen niet volledig nauwkeurig zijn, zijn er enkele beperkingen aan de soorten experimenten waarvoor de methode moet worden gebruikt. Afwijkingen in handgaasreconstructies van grondwaarheid zullen zich uiten in afwijkingen in de geschatte hand/object contactgebieden. Het toepassen van deze methode om absolute metingen af te leiden, zou dus een beoordeling van de betrouwbaarheid van de schattingen van het contactgebied vereisen. Zelfs schattingen bij benadering kunnen echter nog steeds nuttig zijn in experimentele ontwerpen binnen de deelnemer, omdat de potentiële vooroordelen van de methode waarschijnlijk verschillende experimentele omstandigheden binnen een deelnemer op een vergelijkbare manier beïnvloeden. Daarom moeten statistische analyses en gevolgtrekkingen alleen worden uitgevoerd op metingen zoals de verschillen in contactgebied tussen omstandigheden, waarbij de richting van een effect zal correleren met de respectieve grondwaarheid. In toekomstig onderzoek zijn we van plan onze aanpak verder te valideren, bijvoorbeeld door schattingen van contactgebieden te vergelijken met thermische vingerafdrukken op objecten bedekt met thermochrome verf.
De meeste verwerkingsstappen van de gegevensverzameling tot de uiteindelijke schatting van het contactgebied zijn volledig geautomatiseerd en bieden dus belangrijke bijdragen aan een gestandaardiseerde procedure voor het schatten van het hand-objectcontactgebied. Een eerste aanpassing van de geïndividualiseerde skeletten aan de 3D-posities van de gevolgde markers moet echter nog steeds handmatig worden uitgevoerd om een skeletdefinitie voor elke deelnemer te verkrijgen. Naarmate het aantal deelnemers voor een experiment toeneemt, neemt ook het aantal handmatige aanpassingen toe, en dit is momenteel de meest tijdrovende stap in de procedure en vereist enige bekendheid met handmatige rigging in de Autodesk Maya-software. In de toekomst willen we deze stap automatiseren om menselijke invloed op de procedure te voorkomen door een automatische skeletkalibratieprocedure toe te voegen.
De hier beschreven workflow is afhankelijk van de Qualisys hardware en software (bijvoorbeeld de QTM skeleton solver). Dit beperkt momenteel de toegankelijkheid van onze methode tot laboratoria die een vergelijkbare opzet hebben. In principe kan de methode echter worden toegepast op elke bron van motion capture-gegevens. Om de toegankelijkheid uit te breiden, onderzoeken we in lopende werkzaamheden alternatieven die onze workflow moeten generaliseren en minder afhankelijk moeten maken van specifieke hardware- en softwarelicenties.
Een andere belangrijke beperking van de methode is dat deze in zijn huidige vorm alleen kan worden toegepast op stijve (niet-vervormbare) objecten. In de toekomst kan deze beperking worden overwonnen met behulp van methoden voor het registreren van de oppervlaktevorm van het gegrepen object terwijl het vervormt. Bovendien is de methode, vanwege de geschatte aard, momenteel niet goed geschikt voor zeer kleine of dunne objecten.
Kortom, door state-of-the-art motion tracking te integreren met high-fidelity handoppervlakmodellering, bieden we een methode om hand-objectcontactgebieden te schatten tijdens grijpen en manipulatie. In toekomstig onderzoek zijn we van plan deze methode in te zetten om visueel geleid grijpgedrag bij mensen te onderzoeken en te modelleren16. We zijn verder van plan om deze tools te integreren met eye tracking 46,50,51,52 en virtual / augmented reality-systemen 53,54,55 om visueel geleide hand- en oogbewegingsmotorbesturing in echte en virtuele naturalistische omgevingen te onderzoeken18,46,56,57. Om deze redenen kan de voorgestelde methode van belang zijn voor onderzoekers die haptische perceptie58, motorische controle en mens-computerinteractie in virtuele en augmented reality bestuderen. Ten slotte kunnen nauwkeurige metingen van menselijke grijpvermogens het ontwerp van robuuste robotsystemen op basis van de principes van interactieve waarneming 39,40,41,42,43 informeren en kunnen translationele toepassingen hebben voor prothesen voor de bovenste ledematen.
The authors have nothing to disclose.
Dit onderzoek werd gefinancierd door Deutsche Forschungsgemeinschaft (DFG, German Research Foundation: project No. 222641018-SFB/TRR 135 TP C1 en IRTG-1901 “The Brain in Action”) en door het Research Cluster “The Adaptive Mind” gefinancierd door het Excellence Program van het Hessische Ministerie van Hoger Onderwijs, Wetenschap, Onderzoek en Kunst. De auteurs bedanken het ondersteuningsteam van Qualisys, waaronder Mathias Bankay en Jeffrey Thingvold, voor hun hulp bij het ontwikkelen van onze methoden. De auteurs bedanken ook Michaela Jeschke voor het poseren als het handmodel. Alle gegevens en analysescripts om de methode en de resultaten in het manuscript te reproduceren zijn beschikbaar op Zenodo (doi: 10.5281/zenodo.7458911).
Anaconda Python distribution | (Anaconda 5.3.1 or later); https://repo.anaconda.com/archive/ | scripts and functions were generated in Python version 3.7 | |
Autodesk Maya | Autodesk, Inc. | Maya2022; https://www.autodesk.com/products/maya/overview | 3D computer graphics application. |
Blender | Blender Foundation | Blender 2.92; https://download.blender.org/release/ | 3D computer graphics application. |
Computer Workstation | N/A | N/A | OS: Windows 10 or higher. |
DeepHandMesh | Meta Platforms, Inc. (Meta Open Source) | https://github.com/facebookresearch/DeepHandMesh | Pre-trained hand mesh generation tool. |
Miqus M5 | Qualisys Ab | https://www.qualisys.com/cameras/miqus/ | Passive marker motion tracking camera (8 units). |
Miqus video camera | Qualisys Ab | https://www.qualisys.com/cameras/miqus-video/ | Color video camera, synchronized with Miquis M5 tracking cameras (6 units). |
Project repository | N/A | Data and Code Repository | Data and code to replicate the current project. The repository is currently under construction, but we provide a private link where reviewers can download the current and most up-to-date version of the repository. The final repository will be made publicly available upon acceptance. |
Python 3 | Python Software Foundation | Python Version 3.7 | Python3 and associated built-in libraries. |
QTM Connect for Maya | Qualisys Ab | https://github.com/qualisys/QTM-Connect-For-Maya | Stream skeleton, rigid bodies and marker data from QTM to Maya |
QTM Qualisys Track Manager | Qualisys Ab | Qualisys Track Manager 2021.2; https://www.qualisys.com/software/qualisys-track-manager/ | Motion capture software |
Qualisys SDK for Python | Qualisys Ab | https://github.com/qualisys/qualisys_python_sdk | Implements communication between QTM and Python |