물체를 잡을 때 일반적으로 손가락과 손의 여러 영역이 물체의 표면과 접촉합니다. 이러한 접촉 영역을 재구성하는 것은 어려운 일입니다. 여기서는 마커 기반의 모션 캡쳐와 기존의 딥러닝 기반의 핸드 메시 재구성을 결합하여 접촉 영역을 대략적으로 추정하는 방법을 제시한다.
물체를 성공적으로 잡으려면 물체 표면에서 손이 닿을 적절한 접촉 영역을 선택해야 합니다. 그러나 이러한 지역을 식별하는 것은 어렵습니다. 이 문서에서는 마커 기반 추적 데이터에서 접촉 영역을 추정하는 워크플로에 대해 설명합니다. 참가자는 실제 물체를 잡고 손가락 관절을 포함하여 물체와 손의 3D 위치를 추적합니다. 먼저 손등에 위치한 추적 마커 선택에서 조인트 오일러 각도를 결정합니다. 그런 다음 최첨단 손 메시 재구성 알고리즘을 사용하여 현재 포즈와 3D 위치에서 참가자 손의 메시 모델을 생성합니다.
3D 프린팅 또는 3D 스캔된 객체를 사용하여 실제 객체와 메시 데이터로 모두 사용할 수 있으므로 손 및 물체 메시를 공동 등록할 수 있습니다. 차례로, 이것은 핸드 메시와 공동 등록된 3D 오브젝트 메쉬 사이의 교차점을 계산하여 대략적인 접촉 영역의 추정을 가능하게 한다. 이 방법은 다양한 조건에서 인간이 물체를 잡는 위치와 방법을 추정하는 데 사용될 수 있습니다. 따라서 이 방법은 시각 및 촉각 인식, 운동 제어, 가상 및 증강 현실에서의 인간-컴퓨터 상호 작용, 로봇 공학을 연구하는 연구자들에게 흥미로울 수 있습니다.
물체를 파악하고 조작하는 능력은 인간이 자신의 필요와 필요에 따라 환경을 재구성할 수 있도록 하는 핵심 능력입니다. 그러나 다관절 손을 효과적으로 제어하는 것은 정교한 제어 시스템이 필요한 어려운 작업입니다. 이 모터 제어 시스템은 여러 형태의 감각 입력에 의해 안내되며, 그 중 시력이 가장 중요합니다. 시각을 통해 개인은 환경의 물체를 식별하고 위치와 물리적 특성을 추정한 다음 이러한 물체에 쉽게 도달하고 파악 및 조작할 수 있습니다. 망막의 입력을 손을 제어하는 운동 명령과 연결하는 복잡한 시스템을 이해하는 것은 감각 운동 신경 과학의 핵심 과제입니다. 이 시스템이 어떻게 작동하는지 모델링, 예측 및 이해하려면 먼저 이 시스템을 자세히 연구할 수 있어야 합니다. 이를 위해서는 시각적 입력과 수동 모터 출력 모두에 대한 고충실도 측정이 필요합니다.
과거의 동작 추적 기술은 인간 파악 연구에 많은 제한을 가했습니다. 예를 들어, 참여자의 손(1,2)에 부착된 케이블을 필요로 하는 시스템은 손가락 동작의 범위를 제한하는 경향이 있으며, 잠재적으로 파지 움직임 또는 측정 자체를 변경할 수 있다. 이러한 한계에도 불구하고 이전 연구에서는 시각적 유도 파악에 영향을 미치는 몇 가지 요인을 식별할 수 있었습니다. 이러한 요인 중 일부는 물체 모양3, 4, 5, 6, 표면 거칠기7, 8, 9 또는 손4, 8, 10에 대한 물체의 방향을 포함합니다. 그러나 이전의 기술적 한계를 극복하기 위해 이 선행 연구의 대부분은 단순한 자극과 고도로 제한된 작업을 사용하여 주로 개별 요인 3,4,6,7,10, 두 자리 정밀 그립 3,4,6,9,11,12, 13,14,15,16,17,18, 단일 물체(19), 또는 매우 간단한 2D 모양(20,21). 이전 발견이 그러한 축소되고 인공적인 실험실 조건을 넘어 어떻게 일반화되는지는 알려져 있지 않습니다. 부가적으로, 손-물체 접촉의 측정은 종종 디지트 접촉점(22)의 추정으로 축소된다. 이 단순화는 손가락 끝만 물체와 접촉하는 작은 파악 하위 집합을 설명하는 데 적합할 수 있습니다. 그러나 대부분의 실제 그립에서는 손가락과 손바닥의 광범위한 영역이 물체와 접촉합니다. 또한, 최근 연구(23)는 햅틱 장갑을 사용하여 물체가 표면에 어떻게 영향을 미치는지에 의해 물체를 인식할 수 있음을 입증했습니다. 이것은 물체와 손가락 끝 사이의 접촉점뿐만 아니라 손과 잡은 물체 사이의 확장된 접촉 영역을 연구하는 것의 중요성을 강조한다(22).
모션 캡처 및 3D 손 모델링의 최근 발전으로 우리는 이전의 한계를 뛰어 넘고 완전한 복잡성을 파악하는 것을 연구 할 수있었습니다. 패시브 마커-기반 모션 트래킹은 이제 관절 움직임(24)을 추적하기 위해 참가자의 손등에 부착될 수 있는 밀리미터 크기의 마커와 함께 이용가능하다. 또한, 수동 마커 시스템을 위한 자동 마커 식별 알고리즘은 이제 마커 데이터(25,26,27)의 광범위한 수동 후처리에 대한 필요성을 거의 제거하기에 충분히 견고하다. 마커리스 솔루션은 또한 비디오28에서 동물의 신체 부위를 추적하는 데 인상적인 수준의 성능에 도달하고 있습니다. 따라서, 이러한 움직임-추적 방법들은 최종적으로 복잡한 다수 손 움직임들(24)의 신뢰성 있고 비침습적인 측정을 가능하게 한다. 이러한 측정은 관절 운동학에 대해 알려주고 손과 물체 사이의 접촉점을 추정할 수 있게 해줍니다. 또한, 최근 몇 년 동안, 컴퓨터 비전 커뮤니티는 물체를 잡는 동안, 그리고 심지어 손 부분들 사이의 자기 접촉 동안에도 연조직 변형을 복제할 수 있는 인간 손의 모델들을 구성하는 문제를 다루고 있다(29,30,31,32). 이러한 3D 메쉬 재구성은 비디오 영상(33, 34), 골격 관절(마커 기반(35) 또는 마커리스 트래킹(36)으로부터 유도됨), 및 깊이 이미지(37)와 같은 상이한 유형의 데이터로부터 유도될 수 있다. 이 영역의 첫 번째 주요 발전은 Romero et al.38에 의해 제공되었으며, 그는 다양한 포즈의 31명의 피험자로부터 1,000개 이상의 손 스캔에서 파라메트릭 손 모델(MANO)을 도출했습니다. 이 모델에는 손의 포즈와 모양 모두에 대한 매개 변수가 포함되어 있어 다양한 데이터 소스에서 전체 손 재구성으로의 회귀를 용이하게 합니다. 보다 최근의 DeepHandMesh29 솔루션은 딥 러닝을 통해 매개변수화된 모델을 구성하고 침투 회피를 추가하여 손 부분 간의 물리적 상호 작용을 보다 정확하게 복제함으로써 이러한 접근 방식을 기반으로 합니다. 이러한 손 메시 재구성을 3D 추적된 물체 메시와 결합시킴으로써, 이제 물체(32)의 표면뿐만 아니라 손의 표면 상의 접촉 영역을 추정하는 것이 가능하다.
여기에서는 물체와 손 관절의 충실도가 높은 3D 추적을 새로운 손 메시 재구성 알고리즘과 결합하는 워크플로를 제안합니다. 이 방법은 손과 물체의 접촉면에 대한 상세한 지도를 생성합니다. 이러한 측정은 감각 운동 신경 과학자들이 인간의 시각 유도 파악에 대한 이론적 이해를 확장하는 데 도움이 될 것입니다. 또한, 이 방법은 인접 분야의 연구자들에게 유용할 수 있습니다. 예를 들어, 인적 요소 연구자들은 가상 현실 및 증강 현실(18)에서 더 나은 인간-기계 인터페이스 시스템을 구축하기 위해 이 방법을 사용할 수 있다. 인간의 파지 행동에 대한 충실도 측정은 또한 로봇 공학자가 상호 작용 인식 39,40,41,42,43의 원리에 기초하여 인간에서 영감을 받은 로봇 파지 시스템을 설계하는 데 도움이 될 수 있습니다. 따라서 우리는 이 방법이 고도로 제한된 작업에 대한 희박한 설명에서 복잡한 물체 및 실제 작업에 대한 자연주의적 파악 행동의 완전한 특성화에 이르기까지 신경과학 및 공학 분야 전반에 걸친 파악 연구를 발전시키는 데 도움이 되기를 바랍니다. 전반적인 접근 방식은 그림 1에 요약되어 있습니다.
그림 1: 제안된 방법의 주요 단계 . (A) 모션 캡처 카메라는 여러 각도에서 작업대를 이미지화합니다. (B) 자극 객체는 삼각 측량 메쉬 모델에서 3D 인쇄됩니다. (C) 4 개의 구형 반사 마커가 실제 물체의 표면에 접착됩니다. 반자동 절차는 메쉬 객체의 표면에서 4개의 해당 점을 식별합니다. 이러한 대응을 통해 메시 모델을 실제 객체의 3D 추적 위치로 로토 변환할 수 있습니다. (D) 반사 마커는 양면 테이프를 사용하여 참가자의 손등에 있는 다른 랜드마크에 부착됩니다. (E) 모션 캡쳐 시스템은 단일 시험 동안 추적된 물체 및 손 마커의 3D 공간에서 궤적을 획득합니다. (F) 참가자 별 손 골격은 3D 컴퓨터 그래픽 소프트웨어를 사용하여 구성됩니다. 그런 다음 역운동학을 통해 실험에서 각 시도의 각 프레임에 대해 골격 관절 자세를 추정합니다. (G) 관절 포즈는 DeepHandMesh29의 수정된 버전에 입력되며, 현재 3D 포즈 및 위치에서 추정된 3D 손 메시를 출력합니다. (H) 마지막으로 메쉬 교차를 사용하여 손-물체 접촉 영역을 계산합니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.
우리는 여러 자릿수 파악 동안 손-물체 상호 작용에 대한 접촉 영역을 추정할 수 있는 방법을 제안합니다. 손의 전체 표면을 완전히 추적하는 것은 현재 다루기 어렵기 때문에 손의 희박한 키 포인트에 의해 포즈가 결정되는 손 메쉬의 재구성을 사용하는 것이 좋습니다. 이러한 희박한 핵심 포인트를 추적하기 위해 당사 솔루션은 수동 마커 추적을 기반으로 하는 연구 수준의 모션 캡처 시스템을 사용합니다. 물론, 다른 모션 캡쳐 시스템들도 제안된 방법과 함께 사용될 수 있으며, 이들이 충분히 정확한 3D 위치 데이터를 산출할 수 있다. 액티브 마커 모션 캡처 시스템(예: 널리 사용되지만 단종된 Optotrak Certus)은 참가자의 손에 케이블 및/또는 전자 장치를 부착해야 하므로 참가자가 손의 자세를 더 의식적으로 인식하게 됨에 따라 움직임을 제한하거나 최소한 덜 일반적인 그립을 생성할 수 있기 때문에 권장하지 않습니다. 관성 측정 장치를 사용하는 모션 추적 장갑은 이러한 시스템이 드리프트를 겪는 것으로 알려져 있지만 손의 움직임을 제한 할 수 있으며 손 표면이 물체 표면과 완전히 직접 접촉하는 것을 허용하지 않을 수 있습니다. 상업적인 마커리스 핸드-트래킹 솔루션들(예를 들면, 도약 모션(Leap Motion)(46,47,48))이 또한 가능할 수 있지만, 이들 시스템들만으로는 물체 위치들을 추적하는 것이 불가능할 수도 있다. 연구용 모션 캡처 시스템에 대한 가장 유망한 대안은 오픈 소스, 마커리스 추적 솔루션(예: Mathis et al.28)에 의해 제공됩니다. 다수의 공동 등록된 카메라(49)와 함께 사용되는 경우, 이러한 시스템은 마커, 장갑 또는 케이블의 필요 없이 3D에서 손 관절 위치 및 물체 위치를 잠재적으로 추적할 수 있다. 그러나 이러한 솔루션과 이 마커 기반 시스템은 폐색으로 인한 데이터 손실 문제로 어려움을 겪을 수 있습니다.
한계와 향후 방향
이 방법을 통해 얻은 손 재구성은 완전히 정확하지 않기 때문에 방법을 사용해야 하는 실험 유형에는 몇 가지 제한이 있습니다. 실측 자료에서 손 메시 재구성의 편차는 추정된 손/물체 접촉 영역의 편차로 나타납니다. 따라서 절대적 측정값을 도출하기 위해 이 방법을 적용하려면 접촉 영역 추정치의 충실도를 평가해야 합니다. 그러나 대략적인 추정치조차도 방법의 잠재적 편향이 유사한 방식으로 참가자 내의 다른 실험 조건에 영향을 미칠 가능성이 있기 때문에 참가자 내 실험 설계에서 여전히 유용 할 수 있습니다. 따라서 통계 분석 및 추론은 조건의 접촉 면적 차이와 같은 측정에 대해서만 수행되어야 하며, 여기서 효과의 방향은 각각의 실측 자료와 상관관계가 있습니다. 향후 연구에서, 우리는 예를 들어 접촉 영역 추정치를 열 변색 페인트로 덮인 물체의 열 지문과 비교하여 우리의 접근 방식을 추가로 검증 할 계획입니다.
데이터 수집에서 최종 접촉 영역 추정에 이르는 대부분의 처리 단계는 완전히 자동화되어 있으므로 손-물체 접촉 영역 추정을 위한 표준화된 절차에 중요한 기여를 합니다. 그러나 추적된 마커의 3D 위치에 대한 개별화된 스켈레톤의 초기 피팅은 각 참가자에 대한 스켈레톤 정의를 얻기 위해 여전히 수동으로 수행되어야 합니다. 실험 참가자 수가 증가함에 따라 수동 맞춤 수도 증가하며, 이는 현재 절차에서 가장 시간이 많이 소요되는 단계이며 Autodesk Maya 소프트웨어의 수동 리깅에 대해 어느 정도 알고 있어야 합니다. 앞으로는 자동 스켈레톤 보정 절차를 추가하여 절차에 대한 사람의 영향을 피하기 위해 이 단계를 자동화하는 것을 목표로 합니다.
여기에 설명된 워크플로는 Qualisys 하드웨어 및 소프트웨어(예: QTM 스켈레톤 솔버)에 의존합니다. 이것은 현재 유사한 설정을 가진 실험실에 대한 우리 방법의 접근성을 제한합니다. 그러나, 원칙적으로, 이 방법은 모션 캡쳐 데이터의 모든 소스에 적용될 수 있다. 접근성을 확장하기 위해 진행 중인 작업에서 워크플로를 일반화하고 특정 하드웨어 및 소프트웨어 라이선스에 대한 의존도를 낮출 수 있는 대안을 모색하고 있습니다.
이 방법의 또 다른 중요한 한계는 현재 형태로는 단단한(변형할 수 없는) 물체에만 적용할 수 있다는 것입니다. 미래에는 잡은 물체가 변형될 때 표면 모양을 기록하는 방법을 사용하여 이러한 한계를 극복할 수 있습니다. 또한 대략적인 특성으로 인해 이 방법은 현재 매우 작거나 얇은 물체에 적합하지 않습니다.
결론적으로, 최첨단 모션 트래킹과 고충실도 손 표면 모델링을 통합하여 파지 및 조작 시 손-물체 접촉 영역을 추정하는 방법을 제공합니다. 향후 연구에서는 이 방법을 사용하여 인간의 시각적 유도 파악 행동을 조사하고 모델링할 계획입니다 16. 우리는 또한 이러한 도구를 아이 트래킹(46,50,51,52) 및 가상/증강 현실 시스템(53,54,55)과 통합하여 실제 및 가상 자연주의 환경(18,46,56,57)에서 시각적으로 유도된 손 및 안구 운동 모터 제어를 조사할 계획이다. 이러한 이유로, 제안된 방법은 가상 및 증강 현실에서 햅틱 인식(58), 운동 제어 및 인간-컴퓨터 상호작용을 연구하는 연구자들에게 흥미로울 수 있다. 마지막으로, 인간의 파지 능력의 정확한 측정은 상호 작용 지각 39,40,41,42,43의 원리에 기초한 견고한 로봇 시스템의 설계에 정보를 제공 할 수 있으며 상지 보철물에 대한 번역 응용 프로그램을 가질 수 있습니다.
The authors have nothing to disclose.
이 연구는 Deutsche Forschungsgemeinschaft (DFG, 독일 연구 재단 : 프로젝트 번호 222641018-SFB / TRR 135 TP C1 및 IRTG-1901 “The Brain in Action”)와 Hessian Ministry of Higher Education, Science, Research, and Art의 우수 프로그램 (Excellence Program)이 자금을 지원하는 연구 클러스터 “The Adaptive Mind”가 자금을 지원했습니다. 저자는 분석법 개발에 도움을 준 Mathias Bankay와 Jeffrey Thingvold를 포함한 Qualisys 지원팀에 감사를 표합니다. 저자는 또한 손 모델로 포즈를 취한 Michaela Jeschke에게 감사를 표합니다. 원고에 제시된 방법과 결과를 재현하기 위한 모든 데이터 및 분석 스크립트는 Zenodo(doi: 10.5281/zenodo.7458911)에서 사용할 수 있습니다.
Anaconda Python distribution | (Anaconda 5.3.1 or later); https://repo.anaconda.com/archive/ | scripts and functions were generated in Python version 3.7 | |
Autodesk Maya | Autodesk, Inc. | Maya2022; https://www.autodesk.com/products/maya/overview | 3D computer graphics application. |
Blender | Blender Foundation | Blender 2.92; https://download.blender.org/release/ | 3D computer graphics application. |
Computer Workstation | N/A | N/A | OS: Windows 10 or higher. |
DeepHandMesh | Meta Platforms, Inc. (Meta Open Source) | https://github.com/facebookresearch/DeepHandMesh | Pre-trained hand mesh generation tool. |
Miqus M5 | Qualisys Ab | https://www.qualisys.com/cameras/miqus/ | Passive marker motion tracking camera (8 units). |
Miqus video camera | Qualisys Ab | https://www.qualisys.com/cameras/miqus-video/ | Color video camera, synchronized with Miquis M5 tracking cameras (6 units). |
Project repository | N/A | Data and Code Repository | Data and code to replicate the current project. The repository is currently under construction, but we provide a private link where reviewers can download the current and most up-to-date version of the repository. The final repository will be made publicly available upon acceptance. |
Python 3 | Python Software Foundation | Python Version 3.7 | Python3 and associated built-in libraries. |
QTM Connect for Maya | Qualisys Ab | https://github.com/qualisys/QTM-Connect-For-Maya | Stream skeleton, rigid bodies and marker data from QTM to Maya |
QTM Qualisys Track Manager | Qualisys Ab | Qualisys Track Manager 2021.2; https://www.qualisys.com/software/qualisys-track-manager/ | Motion capture software |
Qualisys SDK for Python | Qualisys Ab | https://github.com/qualisys/qualisys_python_sdk | Implements communication between QTM and Python |