Cuando agarramos un objeto, múltiples regiones de los dedos y la mano suelen hacer contacto con la superficie del objeto. La reconstrucción de tales regiones de contacto es un desafío. Aquí, presentamos un método para estimar aproximadamente las regiones de contacto combinando la captura de movimiento basada en marcadores con la reconstrucción de malla manual basada en aprendizaje profundo existente.
Para agarrar un objeto con éxito, debemos seleccionar las regiones de contacto apropiadas para nuestras manos en la superficie del objeto. Sin embargo, identificar tales regiones es un desafío. Este documento describe un flujo de trabajo para estimar las regiones de contacto a partir de datos de seguimiento basados en marcadores. Los participantes agarran objetos reales, mientras que nosotros rastreamos la posición 3D tanto de los objetos como de la mano, incluidas las articulaciones de los dedos. Primero determinamos los ángulos de Euler de la articulación a partir de una selección de marcadores de orugas colocados en el dorso de la mano. Luego, utilizamos algoritmos de reconstrucción de malla manual de última generación para generar un modelo de malla de la mano del participante en la pose actual y la posición 3D.
El uso de objetos que fueron impresos en 3D o escaneados en 3D, y que, por lo tanto, están disponibles como objetos reales y datos de malla, permite que las mallas de mano y objeto se registren conjuntamente. A su vez, esto permite la estimación de regiones de contacto aproximadas mediante el cálculo de las intersecciones entre la malla manual y la malla de objetos 3D co-registrada. El método se puede utilizar para estimar dónde y cómo los humanos agarran objetos bajo una variedad de condiciones. Por lo tanto, el método podría ser de interés para los investigadores que estudian la percepción visual y háptica, el control motor, la interacción humano-computadora en realidad virtual y aumentada, y la robótica.
La capacidad de agarrar y manipular objetos es una habilidad clave que permite a los humanos remodelar el entorno según sus deseos y necesidades. Sin embargo, controlar las manos multiarticuladas de manera efectiva es una tarea desafiante que requiere un sistema de control sofisticado. Este sistema de control motor es guiado por varias formas de entrada sensorial, entre las cuales la visión es primordial. A través de la visión, los individuos pueden identificar los objetos en el entorno y estimar su posición y propiedades físicas y luego pueden alcanzar, agarrar y manipular esos objetos con facilidad. Comprender el complejo sistema que vincula la entrada en las retinas con los comandos motores que controlan las manos es un desafío clave de la neurociencia sensoriomotora. Para modelar, predecir y comprender cómo funciona este sistema, primero debemos poder estudiarlo en detalle. Esto requiere mediciones de alta fidelidad tanto de las entradas visuales como de las salidas del motor manual.
La tecnología de seguimiento de movimiento anterior ha impuesto una serie de limitaciones en el estudio del agarre humano. Por ejemplo, los sistemas que requieren cables conectados a las manos de los participantes1,2 tienden a restringir el rango de movimientos de los dedos, alterando potencialmente los movimientos de agarre o las mediciones mismas. A pesar de tales limitaciones, investigaciones anteriores han podido identificar varios factores que influyen en el agarre guiado visualmente. Algunos de estos factores incluyen la forma del objeto 3,4,5,6, la rugosidad de la superficie 7,8,9 o la orientación de un objeto con respecto a la mano4,8,10. Sin embargo, para superar las limitaciones tecnológicas anteriores, la mayoría de esta investigación previa ha empleado estímulos simples y tareas altamente restringidas, centrándose predominantemente en factores individuales 3,4,6,7,10, agarres de precisión de dos dígitos3,4,6,9,11,12, 13,14,15,16,17,18, objetos individuales19, o formas 2D muy simples 20,21. Se desconoce cómo se generalizan los hallazgos anteriores más allá de tales condiciones de laboratorio reducidas y artificiales. Además, la medición del contacto mano-objeto a menudo se reduce a la estimación de los puntos de contacto de los dígitos22. Esta simplificación puede ser apropiada para describir un pequeño subconjunto de agarres en los que solo las yemas de los dedos están en contacto con un objeto. Sin embargo, en la mayoría de las capturas del mundo real, extensas regiones de los dedos y la palma entran en contacto con un objeto. Además, un estudio reciente23 ha demostrado, utilizando un guante háptico, que los objetos pueden ser reconocidos por la forma en que su superficie incide en la mano. Esto resalta la importancia de estudiar las regiones de contacto extendido entre las manos y los objetos agarrados, no solo los puntos de contacto entre los objetos y las yemas de los dedos22.
Los avances recientes en la captura de movimiento y el modelado manual 3D nos han permitido superar las limitaciones anteriores y estudiar el agarre en toda su complejidad. El seguimiento pasivo del movimiento basado en marcadores ahora está disponible con marcadores de tamaño milimétrico que se pueden unir al dorso de las manos del participante para rastrear los movimientos articulares24. Además, los algoritmos automáticos de identificación de marcadores para sistemas de marcadores pasivos son ahora lo suficientemente robustos como para casi eliminar la necesidad del extenso postprocesamiento manual de los datos de marcadores25,26,27. Las soluciones Markerless también están alcanzando niveles impresionantes de rendimiento en el seguimiento de partes del cuerpo de animales en videos28. Estos métodos de seguimiento del movimiento, por lo tanto, finalmente permiten mediciones confiables y no invasivas de movimientos complejos de múltiples dígitosde la mano 24. Tales mediciones pueden informarnos sobre la cinemática articular y permitirnos estimar los puntos de contacto entre la mano y un objeto. Además, en los últimos años, la comunidad de visión artificial ha estado abordando el problema de construir modelos de las manos humanas que puedan replicar las deformaciones de los tejidos blandos durante el agarre de objetos e incluso durante el contacto personal entre las partes de la mano 29,30,31,32. Tales reconstrucciones de malla 3D pueden derivarse de diferentes tipos de datos, como secuencias de video 33,34, articulaciones esqueléticas (derivadas de35 basado en marcadores o seguimiento sin marcador36) e imágenes de profundidad37. El primer avance clave en este dominio fue proporcionado por Romero et al.38, quienes derivaron un modelo paramétrico de mano (MANO) a partir de más de 1.000 escaneos manuales de 31 sujetos en diversas poses. El modelo contiene parámetros tanto para la pose como para la forma de la mano, lo que facilita la regresión de diferentes fuentes de datos a una reconstrucción completa de la mano. La solución más reciente DeepHandMesh29 se basa en este enfoque mediante la construcción de un modelo parametrizado a través del aprendizaje profundo y mediante la adición de evitación de penetración, que replica con mayor precisión las interacciones físicas entre las partes de la mano. Al combinar tales reconstrucciones de malla manual con mallas de objetos rastreados en 3D, ahora es posible estimar las regiones de contacto no solo en la superficie de los objetos32 sino también en la superficie de la mano.
Aquí, proponemos un flujo de trabajo que reúne el seguimiento 3D de alta fidelidad de objetos y articulaciones de mano con nuevos algoritmos de reconstrucción de malla manual. El método produce mapas detallados de superficies de contacto mano-objeto. Estas mediciones ayudarán a los neurocientíficos sensoriomotores a ampliar nuestra comprensión teórica del agarre guiado visualmente humano. Además, el método podría ser útil para los investigadores en campos adyacentes. Por ejemplo, los investigadores del factor humano pueden usar este método para construir mejores sistemas de interfaz hombre-máquina en realidad virtual y aumentada18. Las mediciones de alta fidelidad de los comportamientos de agarre humano también pueden ayudar a los roboticistas a diseñar sistemas de agarre robóticos inspirados en el ser humano basados en los principios de la percepción interactiva 39,40,41,42,43. Por lo tanto, esperamos que este método ayude a avanzar en la investigación de comprensión en los campos de la neurociencia y la ingeniería, desde descripciones dispersas de tareas altamente restringidas hasta caracterizaciones más completas de comportamientos de agarre naturalistas con objetos complejos y tareas del mundo real. El enfoque general se describe en la Figura 1.
Figura 1: Pasos clave en el método propuesto . (A) Las cámaras de captura de movimiento toman imágenes de un banco de trabajo desde múltiples ángulos. (B) Un objeto de estímulo se imprime en 3D a partir de un modelo de malla triangulada. (C) Cuatro marcadores reflectantes esféricos están pegados a la superficie del objeto real. Un procedimiento semiautomatizado identifica cuatro puntos correspondientes en la superficie del objeto de malla. Esta correspondencia nos permite rotar-traducir el modelo de malla a la posición 3D rastreada del objeto real. (D) Los marcadores reflectantes se fijan a diferentes puntos de referencia en el dorso de la mano de un participante con cinta adhesiva de doble cara. (E) El sistema de captura de movimiento adquiere las trayectorias en el espacio 3D del objeto rastreado y los marcadores de mano durante una sola prueba. (F) Un esqueleto de mano específico del participante se construye utilizando software de gráficos por computadora 3D. Las posturas de la articulación esquelética se estiman para cada fotograma de cada ensayo en un experimento a través de la cinemática inversa. (G) Las poses conjuntas se introducen en una versión modificada de DeepHandMesh29, que genera una malla de mano 3D estimada en la pose y posición 3D actuales. (H) Finalmente, usamos la intersección de malla para calcular las regiones de contacto mano-objeto. Haga clic aquí para ver una versión más grande de esta figura.
Proponemos un método que permite la estimación de regiones de contacto para interacciones mano-objeto durante agarres de varios dígitos. Como el seguimiento completo de toda la superficie de una mano es actualmente intratable, proponemos usar una reconstrucción de una malla de mano cuya postura está determinada por puntos clave dispersos en la mano. Para rastrear estos puntos clave dispersos, nuestra solución emplea un sistema de captura de movimiento de grado de investigación basado en el seguimiento pasivo de marcadores. Por supuesto, otros sistemas de captura de movimiento también podrían emplearse con el método propuesto, siempre que produzcan datos de posición 3D suficientemente precisos. Desaconsejamos los sistemas de captura de movimiento de marcadores activos (como el popular pero descontinuado Optotrak Certus), ya que requieren conectar cables y / o dispositivos electrónicos a las manos de los participantes, lo que puede restringir los movimientos o al menos producir agarres menos típicos a medida que los participantes son más conscientes de la pose de sus manos. Los guantes de seguimiento de movimiento que utilizan unidades de medición inercial pueden ser una posibilidad, aunque se sabe que estos sistemas sufren de deriva, también pueden restringir los movimientos de la mano y no permiten que la superficie de la mano entre en contacto total y directo con las superficies del objeto. Las soluciones comerciales de seguimiento manual sin marcadores (por ejemplo, el Leap Motion46,47,48) también pueden ser una posibilidad, aunque puede que no sea posible rastrear las posiciones de los objetos solo con estos sistemas. La opción alternativa más prometedora a un sistema de captura de movimiento de grado de investigación está dada por soluciones de seguimiento sin marcadores de código abierto (por ejemplo, Mathis et al.28). Si se utilizan con múltiples cámaras co-registradas49, tales sistemas podrían rastrear las posiciones de las articulaciones de la mano y las posiciones de los objetos en 3D sin la necesidad de marcadores, guantes o cables. Sin embargo, estas soluciones, así como este sistema basado en marcadores, pueden sufrir problemas de pérdida de datos debido a oclusiones.
Limitaciones y direcciones futuras
Como las reconstrucciones a mano obtenidas a través de este método no serán completamente precisas, existen algunas limitaciones en los tipos de experimentos para los que se debe usar el método. Las desviaciones en las reconstrucciones de malla manual de la verdad del suelo se manifestarán en desviaciones en las regiones estimadas de contacto mano/objeto. Por lo tanto, la aplicación de este método para derivar medidas absolutas requeriría evaluar la fidelidad de las estimaciones de la región de contacto. Sin embargo, incluso las estimaciones aproximadas pueden ser útiles en diseños experimentales dentro del participante porque es probable que los posibles sesgos del método afecten diferentes condiciones experimentales dentro de un participante de manera similar. Por lo tanto, los análisis estadísticos y las inferencias deben realizarse solo en medidas tales como las diferencias en el área de contacto entre las condiciones, donde la dirección de un efecto se correlacionará con la verdad del terreno respectiva. En futuras investigaciones, planeamos validar aún más nuestro enfoque, por ejemplo, comparando las estimaciones de la región de contacto con las huellas térmicas en objetos cubiertos de pintura termocrómica.
La mayoría de los pasos de procesamiento desde la recopilación de datos hasta la estimación final de la región de contacto están completamente automatizados y, por lo tanto, ofrecen contribuciones importantes hacia un procedimiento estandarizado para la estimación de la región de contacto mano-objeto. Sin embargo, un ajuste inicial de los esqueletos individualizados a las posiciones 3D de los marcadores rastreados aún debe realizarse manualmente para obtener una definición de esqueleto para cada participante. A medida que aumenta el número de participantes para un experimento, también lo hace el número de ajustes manuales, y este es actualmente el paso que más tiempo consume en el procedimiento y requiere cierta familiaridad con el aparejo manual en el software Autodesk Maya. En el futuro, nuestro objetivo es automatizar este paso para evitar la influencia humana en el procedimiento mediante la adición de un procedimiento automático de calibración del esqueleto.
El flujo de trabajo descrito aquí se basa en el hardware y software de Qualisys (por ejemplo, el solucionador de esqueleto QTM). Esto actualmente limita la accesibilidad de nuestro método a laboratorios que tienen una configuración similar. En principio, sin embargo, el método se puede aplicar a cualquier fuente de datos de captura de movimiento. Para ampliar la accesibilidad, en el trabajo en curso, estamos explorando alternativas que deberían generalizar nuestro flujo de trabajo y hacerlo menos dependiente de licencias específicas de hardware y software.
Otra limitación importante del método es que, en su forma actual, solo se puede aplicar a objetos rígidos (no deformables). En el futuro, esta limitación podría superarse utilizando métodos para registrar la forma de la superficie del objeto agarrado a medida que se deforma. Además, debido a su naturaleza aproximada, el método no es actualmente adecuado para objetos muy pequeños o delgados.
En conclusión, al integrar el seguimiento de movimiento de última generación con el modelado de superficie de la mano de alta fidelidad, proporcionamos un método para estimar las regiones de contacto mano-objeto durante el agarre y la manipulación. En futuras investigaciones, planeamos implementar este método para investigar y modelar el comportamiento de agarre guiado visualmente en humanos16. Además, planeamos integrar estas herramientas con el seguimiento ocular 46,50,51,52 y sistemas de realidad virtual / aumentada 53,54,55 para investigar el control motor de movimiento visual guiado de manos y ojos en entornos naturalistas reales y virtuales 18,46,56,57 . Por estas razones, el método propuesto podría ser de interés para los investigadores que estudian la percepción háptica58, el control motor y la interacción humano-computadora en realidad virtual y aumentada. Finalmente, las mediciones precisas de las habilidades de agarre humanas podrían informar el diseño de sistemas robóticos robustos basados en los principios de la percepción interactiva 39,40,41,42,43 y pueden tener aplicaciones traslacionales para prótesis de extremidades superiores.
The authors have nothing to disclose.
Esta investigación fue financiada por Deutsche Forschungsgemeinschaft (DFG, Fundación Alemana de Investigación: proyecto No. 222641018-SFB / TRR 135 TP C1 e IRTG-1901 “El cerebro en acción”) y por el Grupo de Investigación “La mente adaptativa” financiado por el Programa de Excelencia del Ministerio de Educación Superior, Ciencia, Investigación y Arte de Hesse. Los autores agradecen al equipo de soporte de Qualisy, incluidos Mathias Bankay y Jeffrey Thingvold, por su ayuda en el desarrollo de nuestros métodos. Los autores también agradecen a Michaela Jeschke por hacerse pasar por la modelo de mano. Todos los datos y guiones de análisis para reproducir el método y los resultados presentados en el manuscrito están disponibles en Zenodo (doi: 10.5281/zenodo.7458911).
Anaconda Python distribution | (Anaconda 5.3.1 or later); https://repo.anaconda.com/archive/ | scripts and functions were generated in Python version 3.7 | |
Autodesk Maya | Autodesk, Inc. | Maya2022; https://www.autodesk.com/products/maya/overview | 3D computer graphics application. |
Blender | Blender Foundation | Blender 2.92; https://download.blender.org/release/ | 3D computer graphics application. |
Computer Workstation | N/A | N/A | OS: Windows 10 or higher. |
DeepHandMesh | Meta Platforms, Inc. (Meta Open Source) | https://github.com/facebookresearch/DeepHandMesh | Pre-trained hand mesh generation tool. |
Miqus M5 | Qualisys Ab | https://www.qualisys.com/cameras/miqus/ | Passive marker motion tracking camera (8 units). |
Miqus video camera | Qualisys Ab | https://www.qualisys.com/cameras/miqus-video/ | Color video camera, synchronized with Miquis M5 tracking cameras (6 units). |
Project repository | N/A | Data and Code Repository | Data and code to replicate the current project. The repository is currently under construction, but we provide a private link where reviewers can download the current and most up-to-date version of the repository. The final repository will be made publicly available upon acceptance. |
Python 3 | Python Software Foundation | Python Version 3.7 | Python3 and associated built-in libraries. |
QTM Connect for Maya | Qualisys Ab | https://github.com/qualisys/QTM-Connect-For-Maya | Stream skeleton, rigid bodies and marker data from QTM to Maya |
QTM Qualisys Track Manager | Qualisys Ab | Qualisys Track Manager 2021.2; https://www.qualisys.com/software/qualisys-track-manager/ | Motion capture software |
Qualisys SDK for Python | Qualisys Ab | https://github.com/qualisys/qualisys_python_sdk | Implements communication between QTM and Python |