Summary

İnsanın Çok Haneli Kavraması Sırasında Eller ve Nesneler Arasındaki Temas Bölgelerinin Tahmini

Published: April 21, 2023
doi:

Summary

Bir nesneyi kavradığımızda, parmakların ve elin birden fazla bölgesi tipik olarak nesnenin yüzeyiyle temas eder. Bu tür temas bölgelerini yeniden inşa etmek zordur. Burada, işaretleyici tabanlı hareket yakalamayı mevcut derin öğrenme tabanlı el ağı rekonstrüksiyonu ile birleştirerek temas bölgelerini yaklaşık olarak tahmin etmek için bir yöntem sunuyoruz.

Abstract

Bir nesneyi başarılı bir şekilde kavramak için, nesnenin yüzeyindeki ellerimiz için uygun temas bölgelerini seçmeliyiz. Ancak, bu tür bölgeleri tanımlamak zordur. Bu makalede, işaretleyici tabanlı izleme verilerinden iletişim bölgelerini tahmin etmeye yönelik bir iş akışı açıklanmaktadır. Katılımcılar gerçek nesneleri kavrarken, parmakların eklemleri de dahil olmak üzere hem nesnelerin hem de elin 3B konumunu izleriz. Ortak Euler açılarını ilk olarak elin arkasına yerleştirilmiş paletli işaretleyicilerden belirliyoruz. Daha sonra, katılımcının elinin mevcut pozda ve 3D konumunda bir örgü modeli oluşturmak için son teknoloji el ağı rekonstrüksiyon algoritmalarını kullanıyoruz.

3B yazdırılmış veya 3B taranmış nesnelerin kullanılması – ve bu nedenle hem gerçek nesneler hem de örgü verileri olarak kullanılabilir – el ve nesne ağlarının birlikte kaydedilmesini sağlar. Buna karşılık, bu da el ağı ile birlikte kayıtlı 3B nesne ağı arasındaki kesişimleri hesaplayarak yaklaşık temas bölgelerinin tahmin edilmesini sağlar. Bu yöntem, insanların çeşitli koşullar altında nesneleri nerede ve nasıl kavradıklarını tahmin etmek için kullanılabilir. Bu nedenle, yöntem görsel ve dokunsal algı, motor kontrolü, sanal ve artırılmış gerçeklikte insan-bilgisayar etkileşimi ve robotik üzerine çalışan araştırmacılar için ilgi çekici olabilir.

Introduction

Nesneleri kavrama ve manipüle etme kapasitesi, insanların çevreyi kendi istek ve ihtiyaçlarına göre yeniden şekillendirmelerini sağlayan önemli bir yetenektir. Bununla birlikte, çok eklemli elleri etkili bir şekilde kontrol etmek, sofistike bir kontrol sistemi gerektiren zorlu bir görevdir. Bu motor kontrol sistemi, aralarında görmenin çok önemli olduğu çeşitli duyusal girdi biçimleri tarafından yönlendirilir. Görme yoluyla, bireyler ortamdaki nesneleri tanımlayabilir ve konumlarını ve fiziksel özelliklerini tahmin edebilir ve daha sonra bu nesnelere kolaylıkla ulaşabilir, kavrayabilir ve manipüle edebilir. Retinadaki girdiyi elleri kontrol eden motor komutlarla birleştiren karmaşık sistemi anlamak, sensorimotor sinirbilimin önemli bir zorluğudur. Bu sistemin nasıl çalıştığını modellemek, tahmin etmek ve anlamak için öncelikle onu ayrıntılı olarak inceleyebilmeliyiz. Bu, hem görsel girişlerin hem de el motoru çıkışlarının yüksek doğruluklu ölçümlerini gerektirir.

Geçmiş hareket izleme teknolojisi, insan kavrama çalışmalarına bir takım sınırlamalar getirmiştir. Örneğin, katılımcıların ellerine bağlı kablolar gerektiren sistemler1,2, parmak hareketlerinin aralığını kısıtlama eğilimindedir, bu da kavrama hareketlerini veya ölçümleri potansiyel olarak değiştirir. Bu sınırlamalara rağmen, önceki araştırmalar görsel olarak yönlendirilmiş kavramayı etkileyen çeşitli faktörleri tanımlayabilmiştir. Bu faktörlerden bazıları, nesne şekli 3,4,5,6, yüzey pürüzlülüğü 7,8,9 veya bir nesnenin ele göre yönelimi 4,8,10’dur. Bununla birlikte, önceki teknolojik sınırlamaların üstesinden gelmek için, bu önceki araştırmanın çoğunluğu basit uyaranlar ve oldukça kısıtlı görevler kullanmıştır, bu nedenle ağırlıklı olarak bireysel faktörlere odaklanmıştır 3,4,6,7,10, iki basamaklı hassas çeneler3,4,6,9,11,12, 13,14,15,16,17,18, tek nesneler19 veya çok basit 2B şekiller 20,21. Önceki bulguların bu kadar azaltılmış ve yapay laboratuvar koşullarının ötesinde nasıl genelleştiği bilinmemektedir. Ek olarak, el-nesne temasının ölçümü genellikle22 basamaklı temas noktalarının tahminine indirgenir. Bu basitleştirme, yalnızca parmak uçlarının bir nesneyle temas halinde olduğu küçük bir kavrama alt kümesini tanımlamak için uygun olabilir. Bununla birlikte, gerçek dünyadaki kavramaların çoğunda, parmakların ve avuç içinin geniş bölgeleri bir nesneyle temas eder. Ayrıca, yakın tarihli bir çalışma23, dokunsal bir eldiven kullanarak, nesnelerin yüzeylerinin ele nasıl çarptığıyla tanınabileceğini göstermiştir. Bu, sadece nesneler ve parmak uçları arasındaki temas noktalarını değil, eller ve kavranan nesneler arasındaki genişletilmiş temas bölgelerini incelemenin önemini vurgulamaktadır22.

Hareket yakalama ve 3D el modellemesindeki son gelişmeler, önceki sınırlamaları aşmamıza ve kavramayı tüm karmaşıklığıyla incelememize izin verdi. Pasif işaretleyici tabanlı hareket izleme artık eklem hareketlerini izlemek için katılımcının ellerinin arkasına takılabilen milimetre boyutlu işaretleyicilerle kullanılabilir24. Ayrıca, pasif işaretleyici sistemleri için otomatik işaretleyici tanımlama algoritmaları, işaretleyici verilerinin 25,26,27 numaralı kapsamlı manuel son işleme ihtiyacını neredeyse ortadan kaldıracak kadar sağlamdır. İşaretsiz çözümler, video28’deki hayvan vücudu parçalarının izlenmesinde de etkileyici performans seviyelerine ulaşıyor. Bu nedenle, bu hareket izleme yöntemleri, sonunda, karmaşık çok basamaklı el hareketlerinin güvenilir ve invaziv olmayan ölçümlerine izin verir24. Bu tür ölçümler bizi eklem kinematiği hakkında bilgilendirebilir ve el ile bir nesne arasındaki temas noktalarını tahmin etmemizi sağlayabilir. Ek olarak, son yıllarda, bilgisayarlı görme topluluğu, nesne kavrama sırasında ve hatta el parçaları arasındaki kendi kendine temas sırasında yumuşak doku deformasyonlarını çoğaltabilen insan ellerinin modellerini oluşturma problemiyle uğraşmaktadır 29,30,31,32. Bu tür 3B örgü rekonstrüksiyonları, video görüntüleri 33,34, iskelet eklemleri (işaretleyici tabanlı 35 veya işaretsiz izleme36’dan türetilmiştir) ve derinlik görüntüleri 37 gibi farklı veri türlerinden türetilebilir. Bu alandaki ilk önemli ilerleme, çeşitli pozlarda 31 denekten 1.000’den fazla el taramasından parametrik bir el modeli (MANO) türeten Romero ve ark.38 tarafından sağlanmıştır. Model, elin hem pozu hem de şekli için parametreler içerir ve farklı veri kaynaklarından tam el rekonstrüksiyonuna regresyonu kolaylaştırır. Daha yeni DeepHandMesh29 çözümü, derin öğrenme yoluyla parametrik bir model oluşturarak ve el parçaları arasındaki fiziksel etkileşimleri daha doğru bir şekilde kopyalayan penetrasyondan kaçınma ekleyerek bu yaklaşıma dayanmaktadır. Bu tür el örgüsü rekonstrüksiyonlarını 3D izlenen nesne ağlarıyla birleştirerek, sadece nesne32’nin yüzeyindeki temas bölgelerini değil, aynı zamanda elin yüzeyindeki temas bölgelerini de tahmin etmek artık mümkündür.

Burada, nesnelerin ve el eklemlerinin yüksek doğrulukta 3D takibini yeni el ağı rekonstrüksiyon algoritmalarıyla bir araya getiren bir iş akışı öneriyoruz. Yöntem, el-nesne temas yüzeylerinin ayrıntılı haritalarını verir. Bu ölçümler, sensorimotor sinirbilimcilere, insanın görsel olarak yönlendirilen kavraması hakkındaki teorik anlayışımızı genişletmede yardımcı olacaktır. Ayrıca, yöntem bitişik alanlardaki araştırmacılar için yararlı olabilir. Örneğin, insan faktörü araştırmacıları bu yöntemi sanal ve artırılmış gerçeklikte daha iyi insan-makine arayüz sistemleri oluşturmak için kullanabilirler18. İnsan kavrama davranışlarının yüksek doğruluklu ölçümleri, robotistlere etkileşimli algı ilkelerine dayanan insandan ilham alan robotik kavrama sistemleri tasarlamada da yardımcı olabilir 39,40,41,42,43. Bu nedenle, bu yöntemin, sinirbilim ve mühendislik alanlarında, son derece kısıtlı görevlerin seyrek açıklamalarından, karmaşık nesneler ve gerçek dünyadaki görevlerle natüralist kavrama davranışlarının daha eksiksiz karakterizasyonlarına kadar kavrama araştırmalarının ilerlemesine yardımcı olacağını umuyoruz. Genel yaklaşım Şekil 1’de özetlenmiştir.

Figure 1
Şekil 1: Önerilen yöntemdeki temel adımlar . (A) Hareket yakalama kameraları bir tezgahı birden fazla açıdan görüntüler. (B) Bir uyaran nesnesi, üçgen bir örgü modelinden 3B yazdırılır. (C) Dört küresel yansıtıcı işaretleyici, gerçek nesnenin yüzeyine yapıştırılır. Yarı otomatik bir prosedür, ağ nesnesinin yüzeyinde karşılık gelen dört noktayı tanımlar. Bu yazışma, örgü modelini gerçek nesnenin 3D izlenen konumuna roto-çevirmemizi sağlar. (D) Yansıtıcı işaretleyiciler, çift taraflı bant kullanılarak katılımcının elinin arkasındaki farklı işaretlere tutturulur. (E) Hareket yakalama sistemi, tek bir deneme sırasında izlenen nesnenin ve el işaretleyicilerinin 3B alanındaki yörüngeleri alır. (F) Katılımcıya özel bir el iskeleti, 3D bilgisayar grafik yazılımı kullanılarak oluşturulur. İskelet eklem pozları daha sonra ters kinematik yoluyla bir deneyde her denemenin her karesi için tahmin edilir. (G) Eklem pozları, mevcut 3D poz ve pozisyonda tahmini bir 3D el ağı çıkışı veren DeepHandMesh29’un değiştirilmiş bir versiyonuna girilir. (H) Son olarak, el-nesne temas bölgelerini hesaplamak için örgü kesişimini kullanıyoruz. Bu şeklin daha büyük bir versiyonunu görmek için lütfen buraya tıklayın.

Protocol

Bir deneye başlamadan önce, katılımcılar kurumsal yönergelere ve Helsinki Deklarasyonu’na uygun olarak bilgilendirilmiş onam vermelidir. Burada açıklanan tüm protokoller Justus Liebig Üniversitesi Giessen (LEK-FB06) yerel etik komitesi tarafından onaylanmıştır. 1. Gerekli tüm yazılımların yüklenmesi Proje deposunu Veri ve Kod Deposu’ndan indirin. Malzeme Tablosunda listelenen yazılımı yükleyin (yazılım sürümlerini not edin ve satın alma seçenekleri ve talimatları için bağlantıları izleyin). Veri ve Kod Deposu içinde bir komut penceresi açın ve aşağıdaki komutu çalıştırın:conda env create -f environment.yml https://github.com/facebookresearch/DeepHandMesh’de verilen talimatları izleyerek önceden eğitilmiş DeepHandMesh29 örneğini indirin ve yükleyin.DeepHandMesh’i Veri ve Kod Deposunun “deephandmesh” klasörüne yerleştirin. “Ana/model.py” dosyasını Veri ve Kod Deposunda bulunan model.py dosyasıyla değiştirin. 2. Hareket yakalama sisteminin hazırlanması Çalışma alanını çevreleyen bir çerçeve üzerinde düzenlenmiş hareket izleme kameraları tarafından birden fazla açıdan görüntülenen bir izleme hacmi içinde bir tezgahı konumlandırın (Şekil 1A). Her bir işaretleyicinin tabanına çift taraflı yapışkan bant takarak yansıtıcı işaretleyiciler hazırlayın. Qualisys Track Manager’ı (QTM) yönetici olarak yürütün.NOT: Python SDK’sının QTM arabiriminin denetimini ele geçirmesi için QTM’nin Yönetici olarak yürütülmesi gerekir. QTM’yi her zaman Yönetici olarak çalıştırmanızı öneririz. 3. Kameraların kalibre edilmesi L şeklindeki kalibrasyon nesnesini izleme hacminin içine yerleştirin. QTM içinde, Yakala menüsünde Kalibre Et’e tıklayın veya Yakala araç çubuğundaki değnek simgesine basın. Bir kalibrasyon penceresinin açılmasını bekleyin. Kalibrasyon süresini seçin ve OK düğmesine basın. Kalibrasyon süresi boyunca kalibrasyon değneğini izleme hacmi boyunca sallayın. Dışa Aktar düğmesine basın ve kalibrasyonun metin dosyası olarak dışa aktarılacağı dosya yolunu belirtin. Tamam’a basarak kalibrasyonu kabul edin. 4. Bir uyaran nesnesi oluşturma Çokgen örgü şeklinde sanal bir 3B nesne modeli oluşturun. Nesne modelinin fiziksel bir kopyasını oluşturmak için bir 3B yazıcı kullanın.NOT: Adım 1.1’deki veri deposu, STL ve Wavefront OBJ dosya biçimlerinde örnek nesneler sağlar. STL formatındaki nesneler manifolddur ve 3D baskı için hazırdır. 5. Uyaran nesnesinin hazırlanması Gerçek nesnenin yüzeyine düzlemsel olmayan dört yansıtıcı işaretleyici takın. Nesneyi izleme biriminin içine yerleştirin. Proje deposunda, Python betiği “Acquire_Object.py” yürütün. Nesne işaretçilerinin 3B konumunun 1 sn’lik bir yakalamasını gerçekleştirmek için komut dosyası tarafından sağlanan yönergeleri izleyin. Sert gövdenin tüm işaretleyicilerini seçin. Sağ tıklayın ve Sert Gövdeyi Tanımla (6DOF) | Geçerli Çerçeve. Sert gövdenin adını girin ve Tamam tuşuna basın. Dosya menüsünde Dışa Aktar | TSV’ye. Yeni pencerede, Veri Türü ayarlarında 3B, 6B ve İskelet kutularını işaretleyin. Genel ayarlardaki tüm kutuları işaretleyin. Tamam’a ve ardından Kaydet’e basın. 6. Uyaran nesnesinin gerçek ve örgü model versiyonlarının birlikte kaydedilmesi Blender’ı açın ve Komut Dosyası Oluşturma çalışma alanına gidin. “Object_CoRegistration.py” dosyasını açın ve Çalıştır’a basın. Mizanpaj çalışma alanına gidin ve kenar çubuğunu değiştirmek için n tuşuna basın. Kenar çubuğunda Özel sekmesine gidin. Ortak kaydedilecek .obj dosyasını seçin ve Nesneyi Yükle düğmesine basın. Adım 3.3’te dışa aktarılan yörünge dosyasını seçin ve noktalı virgülle ayrılmış katı nesneye iliştirilmiş işaretçilerin adlarını belirtin. İşaretçi üstbilgisinde, yörünge dosyasında verilerin sütun adlarını içeren satırı belirtin (sayma 0’dan başlar). 6B sonekiyle karşılık gelen katı gövde dosyasını seçin ve adım 4.1’de tanımlanan katı gövdenin adını belirtin. 6B üstbilgide, katı gövde dosyasında verilerin sütun adlarını içeren satırı belirtin. Load Markers (Yük İşaretçileri) düğmesine basın. İşaretçiler nesnesini ve/veya Object nesnesini hizalamak için çevirin ve döndürün. Bir mesh çıktı dosyası belirtin ve Ortak Kaydı Çalıştır’a basın. Bu, birlikte kayıtlı uyaran ağını içeren bir .obj dosyası çıkarır. 7. Ellerdeki işaretleyicilerin ayarlanması Çift taraflı bant kullanarak bir katılımcının elinin farklı işaretlerine 24 küresel yansıtıcı işaretleyici takın.NOT: İşaretçilerin spesifik konumlandırması Şekil 2’de gösterilmiştir.İşaretçileri, işaret parmağının, orta parmağın, yüzük parmağının ve küçük parmağın distal interfalangeal eklemleri, proksimal interfalangeal eklemleri ve metakarpophalangeal eklemlerinin yanı sıra ilgili parmak uçlarının üzerine merkezi olarak yerleştirin. Başparmak için, parmak ucuna ve bazal karpometakarpal eklemin her birine bir işaretleyicinin yanı sıra metakarpophalangeal ve interfalangeal eklemlerde her biri bir çift belirteç yerleştirin.NOT: Bu işaretleyici çiftlerinin başparmağın ana eksenine dik olarak zıt yönlerde yer değiştirmesi gerekir ve başparmağın yönünü tahmin etmek için gereklidir. Son olarak, işaretleyicileri bileğin ortasına ve skafotrapeziotrapezoidal eklem üzerine yerleştirin. Şekil 2: Bir katılımcının elindeki işaretleyici yerleşimi. Kısaltma: RH = sağ el. Bu şeklin daha büyük bir versiyonunu görmek için lütfen buraya tıklayın. 8. Tek bir deneme sürümü edinme Katılımcıdan elini avuç içi aşağı bakacak şekilde tezgahın üzerine düz bir şekilde koymasını ve gözlerini kapatmasını isteyin. Uyaran nesnesini katılımcının önündeki çalışma tezgahına yerleştirin. QTM çalışırken, proje deposunda Python betiği “Single_Trial_Acquisition.py” yürütün. Uyaran nesneyi kavrayan katılımcının tek bir denemesini yakalamak için komut dosyası tarafından sağlanan talimatları izleyin.NOT: Senaryo işitsel bir ipucu üretecektir. Bu, katılımcıya gözlerini açması ve kavramayı gerçekleştirmesi için sinyal verecektir. Gösterilerimizde görev, hedef nesneye ulaşmak ve kavramak, dikey olarak yaklaşık 10 cm kaldırmak, yere koymak ve eli başlangıç konumuna geri döndürmektir. 9. İşaretçilerin etiketlenmesi QTM içinde, tek tek işaretçi yörüngelerini Tanımlanamayan yörüngelerden Etiketli yörüngelere sürükleyip bırakın ve bunları Şekil 2’deki adlandırma kuralına göre etiketleyin. Ele iliştirilmiş tüm işaretçileri seçin ve sağ tıklayıp Seçimden AIM modeli oluştur’u seçin. Yeni pencerede, Mevcut AIM modelinden İşaretçi bağlantılarına dayalı yeni model oluştur’u seçin ve İleri düğmesine basın. RH_FH model tanımını seçin ve Aç’a basın. İleri’ye basın, AIM modeli için bir ad girin ve Tamam’a basın. Son olarak, katılımcının eli için, aynı katılımcının ardışık denemelerindeki işaretçileri otomatik olarak tanımlamak için kullanılacak bir AIM modeli oluşturmak üzere Son’a basın. 10. Katılımcı için kişiselleştirilmiş bir iskelet tanımı oluşturma QTM’de, Oynat menüsüne gidin ve Gerçek Zamanlı Çıkışla Oynat’ı seçin. Maya’yı açın. QTM Connect rafına gidin ve QTM’ye Bağlan simgesine basın. Yeni pencerede, İşaretçiler’i işaretleyin ve Bağlan’a basın. Şimdi, QTM Connect rafındaki Oynat simgesine basın. Tüm el işaretleyicilerini Shift tuşunu basılı tutarak seçin ve Yıkama Bulucular simgesine basın. Yıkanmış el işaretçilerini seçin ve Ctrl + G tuşlarına basın. Bu, bir grup düğümü oluşturur. Grubu İşaretçiler olarak adlandırın. Tüm el işaretleyicilerini seçin. Değiştir menüsünde , Adları Ara ve Değiştir’i tıklatın. RH_ önekini arayın ve işaretçilerin önekini silin. QTM Connect rafındaki İçe Aktar Çözücü simgesine basın. İskelet tanımını “RH_FH.xml” yükleyin. Windows menüsünde Genel Düzenleyiciler | Ad Alanı Düzenleyicisi. Yeni pencerede, :(kök) üzerine tıklayın ve yeni bir ad alanı oluşturmak için Yeni’ye basın, RH. RH ad alanına tıklayın, Yeni’ye basın ve yeni ad alanını ModelPose olarak adlandırın. Tüm işaretçileri seçin, RH ad alanına tıklayın ve işaretçileri RH ad alanına eklemek için Seçileni Ekle’ye basın. İskelet kemiklerini seçin, ModelPose ad alanına tıklayın ve iskelet kemiklerini ModelPose ad alanına eklemek için Seçileni Ekle’ye basın. İskeleti işaretçi verilerine sığacak şekilde döndürün, çevirin ve ölçeklendirin. Ardından, her iskelet eklemi için ayrı ayrı Shift + İskelet eklemini ve ilişkili işaretleyicilerini seçin ve Ek Ekle simgesine basın. Son olarak, yeni iskelet tanımını QTM’ye yüklenebilen bir XML dosyasına dışa aktarmak için Çözücüyü Dışa Aktar simgesine basın (sonraki adıma bakın).NOT: Bu adım kesinlikle gerekli değildir, ancak işaretleyici verilerine uyan iskeletin doğruluğunu artırmak için yararlıdır. Daha fazla bilgi için https://github.com/qualisys/QTM-Connect-For-Maya QSolverQuickstartGuide kılavuzunu okuyun. 11. Eklem iskelet eklem pozlarını yeniden yapılandırın QTM içinde, dişli çark simgesine basarak proje ayarlarını açın. Kenar çubuğunda İskelet Çözücü’ye gidin ve bir iskelet tanım dosyası seçmek için Yükle’ye basın. Ölçek Faktörü’nü 0’e ayarlayın ve Uygula’ya basın. TSV Dışa Aktarma’ya gidin ve Veri Türü ayarlarında 3D, 6D ve Skeleton kutularını işaretleyin. Genel ayarlardaki tüm kutuları işaretleyin. Uygula’ya basın ve proje ayarlarını kapatın. Yeniden İşleme simgesine basın, İskeletleri Çöz ve TSV dosyasına aktar kutularını işaretleyin ve Tamam’a basın. 12. El örgüsü rekonstrüksiyonlarının oluşturulması Proje deposunda bir komut penceresi açın ve komutu yürüterek conda ortamını etkinleştirin:conda temas bölgelerini etkinleştirir Ardından, aşağıdaki komutu yürütün ve denemenin her karesi için geçerli el pozunu yeniden yapılandıran bir el ağı oluşturmak üzere komut dosyası tarafından sağlanan talimatları izleyin.python Hand_Mesh_Reconstruction.py –gpu 0 –test_epoch 4NOT: Bu örgü rekonstrüksiyonları, açık kaynaklı ve önceden eğitilmiş el örgüsü oluşturma aracı DeepHandMesh29’un değiştirilmiş bir sürümü kullanılarak otomatik olarak oluşturulur. 13. El-nesne temas bölgesi tahminlerinin oluşturulması Proje deposunda bir komut penceresi açın, aşağıdaki komutu yürütün ve el ve nesne ağları arasındaki kesişimi hesaplayarak el ve nesne temas bölgesi tahminleri oluşturmak için komut dosyası tarafından sağlanan yönergeleri izleyin.blender –arka plan –python “Contact_Region_Estimation.py”

Representative Results

Önerilen yöntem için ilk gereklilik, 3D nesnelerin ve ellerin konumunu doğru bir şekilde izlemek için bir sistemdir. Özel kurulum Şekil 1A’da gösterilmiştir ve hareket yakalama şirketi Qualisys tarafından üretilen donanım ve yazılımı kullanır. Çalışma alanını çevreleyen kübik bir çerçeve üzerine yerleştirilmiş sekiz izleme kamerası ve altı video kamera tarafından birden fazla açıdan görüntülenen bir izleme hacmine (100 cm x 100 cm x 100 cm) bir tezgah yerleştiriyoruz. İzleme kameraları, yansıtıcı işaretleyicilerin izleme hacmi içindeki 3D konumunu 180 kare / sn ve milimetre altı 3D uzamsal çözünürlükle izler. Cilt dostu çift taraflı yapışkan bant kullanılarak nesnelere ve ellere tutturulan 4 mm yansıtıcı işaretleyiciler kullanıyoruz. 3D işaretleyici konumları hareket yakalama yazılımı tarafından işlenir. Tartışma bölümü ayrıca önerilen yöntemle kullanılabilecek alternatif hareket yakalama sistemlerini de gözden geçirmektedir. Kavranan ve manipüle edilen gerçek nesnelerin doğru 3D rekonstrüksiyonlarını elde etmek için iki seçenek öneriyoruz. Burada benimsenen birincisi, çokgen örgü şeklinde sanal bir 3B nesne modelinden başlamaktır. Bu tür 3B modeller uygun yazılım (örneğin, Blender 3D44) kullanılarak oluşturulabilir ve daha sonra 3D yazdırılabilir (Şekil 1B). İkinci seçenek, mevcut, gerçek bir 3B nesneyi almak ve nesnenin bir örgü modeli kopyasını oluşturmak için 3B tarama teknolojisini kullanmaktır. Strateji hangisi olursa olsun, nihai hedef hem gerçek bir 3B nesne hem de karşılık gelen sanal 3B nesne örgü modelini elde etmektir. Not olarak, burada açıklanan yaklaşım yalnızca katı (yani deforme olmayan) nesnelerle çalışır. Bir nesnenin 3B yüzeyi bir örgü modeli olarak kullanılabilir olduğunda, konumu izlenmeli ve birlikte kaydedilmelidir (Şekil 1C). Bunu yapmak için, gerçek nesnenin yüzeyine düzlemsel olmayan dört yansıtıcı işaretleyici eklenir ve nesne izleme hacminin içine yerleştirilir. Nesne işaretçilerinin 3B konumları daha sonra kısaca yakalanır. Bu yakalama, nesne örgü modelinin dört işaretçisi ve dört köşesi arasındaki yazışmaları kurmak için kullanılır. Bu, Blender’ın Python API’sinde yazılmış basit bir geçici yazılım yolu kullanılarak yapılır. Blender’ın Viewport’u içinde, program sanal nesneyi, her işaretleyici için bir küreden oluşan tek bir örgü nesnesi olarak temsil edilen işaretleyici konumlarıyla birlikte sunar. Kullanıcı daha sonra nesneyi ve / veya işaretçileri, gerçek nesneye yerleştirilen gerçek işaretçilerle birlikte hizalanacak şekilde hizalamak için döndürebilir ve çevirebilir. Program, orijinal nesne ağına nihayet uygulanan tek bir roto-çeviriyi hesaplamak için uygulanan rotasyonları ve çeviriyi kaydedecek ve QTM’deki katı gövde tanımıyla birlikte kayıtlı bir nesne ağı sağlayacaktır. Yazışmalar kurulduktan sonra, gerçek nesne izleme hacmi içinde hareket ettirildiğinde, sanal nesne, izlenen işaretleyiciler ve karşılık gelen dört örgü köşesi arasındaki roto-çeviriyi hesaplayarak yeni konuma yerleştirilebilir. Bunun yerine kavramanın dinamiklerini kaydetmek için, çift taraflı bant kullanılarak elin farklı yer işaretlerine toplam 24 küresel yansıtıcı işaretleyici takılır (Şekil 1D ve Şekil 2). Bir denemenin başlangıcında (Şekil 1E), bir katılımcı elini avuç içi aşağı bakacak şekilde tezgahın üzerine düz bir şekilde yerleştirir ve gözlerini kapatır. Deneyci, katılımcının önündeki çalışma tezgahına bir hedef nesne yerleştirir. Daha sonra, işitsel bir ipucu, katılımcıya gözlerini açması ve kavramayı gerçekleştirmesi için sinyal verir. Gösterilerimizde görev, hedef nesneye ulaşmak ve kavramak, dikey olarak yaklaşık 10 cm kaldırmak, yere koymak ve eli başlangıç konumuna geri döndürmektir. Python 3.7’de yazılmış bir komut dosyası deneyi kontrol eder. Her denemede, komut dosyası geçerli koşul ayarlarını seçer ve deneyciye iletir (ör. nesne kimliği ve konumlandırma). Komut dosyası ayrıca işitsel ipuçları ve hareket yakalama kayıtlarının başlatılması ve durdurulması da dahil olmak üzere deneme zamanlamasını da kontrol eder. Uzuvlar sadece 3D uzaydaki konumlarıyla değil, aynı zamanda pozlarıyla da karakterize edilir. Bu nedenle, gerçek bir kavrayışı yürüten bir insan elinin tam bir 3B rekonstrüksiyonunu elde etmek için, sadece her bir eklemin 3B uzaydaki konumlarına değil, aynı zamanda her bir eklemin ana eklemine göre göreceli pozuna (çeviri ve rotasyon) da ihtiyacımız vardır (Şekil 1F). İskelet eklem pozisyonları ve oryantasyonları, ters kinematik kullanılarak işaretleyici pozisyonlarından çıkarılabilir. Bunu yapmak için, burada QTM yazılımı tarafından sağlanan iskelet çözücüyü kullanıyoruz. Çözücünün çalışması için, önce her bir eklemin konumunu ve yönünü birden fazla işaretleyici konumuna bağlayan bir iskelet tanımı sağlamalıyız. Bu nedenle bir iskelet tanımı oluşturulur ve iskelet teçhizatı, Maya için QTM Connect eklentisi kullanılarak işaretleyici verilerine bağlanır. İşaretleyici verilerine uyan iskeletin doğruluğunu en üst düzeye çıkarmak için her katılımcı için kişiselleştirilmiş iskelet tanımları oluşturuyoruz. Her katılımcı için, bir el iskeletini tek bir hareket yakalama verisi karesine manuel olarak sığdırıyoruz. Katılımcıya özgü bir iskelet tanımı elde ettikten sonra, deneydeki her denemenin her karesi için iskelet eklem pozlarını tahmin etmek için iskelet çözücüyü çalıştırırız. Bir deneydeki her denemenin her karesi için, açık kaynaklı ve önceden eğitilmiş el örgüsü oluşturma aracı DeepHandMesh28’i kullanarak mevcut el pozunu yeniden yapılandıran bir el ağı oluştururuz (Şekil 1G). DeepHandMesh, görüntülerden kişiselleştirilmiş el ağları oluşturan derin bir kodlayıcı-kod çözücü ağıdır. İlk olarak, kodlayıcı bir görüntünün içindeki bir elin pozunu tahmin eder (yani, ortak Euler açıları). Ardından, tahmini el pozu ve kişiselleştirilmiş bir kimlik vektörü, hileli bir şablon ağına üç katkı maddesi düzelticiden oluşan bir kümeyi tahmin eden kod çözücüye girilir. Son olarak, şablon örgüsü tahmini el pozuna ve doğrusal karışım kaplaması kullanılarak düzelticilere göre deforme olur. İlk düzeltici, iskelet teçhizatının kişiye özgü eklem pozisyonlarını içerecek şekilde ayarlandığı ID’ye bağlı bir iskelet düzelticidir. Diğer iki düzeltici, ağ köşelerinin katılımcının el yüzeyini daha iyi temsil edecek şekilde ayarlandığı ağ düzelticilerdir. Örgü düzelticilerden biri, bireysel bir katılımcının elinin yüzey yapısını hesaba katan kimliğe bağlı bir ağ düzelticidir. Bunun yerine son örgü düzeltici, mevcut el pozu nedeniyle el yüzeyi deformasyonlarını hesaba katan poza bağımlı bir köşe düzelticidir. DeepHandMesh, 2D eklem kilit noktaları ve sahne derinlik haritaları ile zayıf denetim kullanılarak eğitilmiştir. Burada, aşağıdaki şekillerde modifiye edilmiş el örgüsü rekonstrüksiyonları oluşturmak için yalnızca önceden eğitilmiş DeepHandMesh kod çözücüsünü kullanıyoruz (Şekil 3). İlk olarak, ağ belirli katılımcılar üzerinde eğitilmediğinden, önceden eğitilmiş modelle birlikte sağlanan genel kimliğe bağlı ağ düzeltici kullanılır (Şekil 3A). Ayrıca, ID’ye bağımlı iskelet düzeltici, yukarıda açıklandığı gibi QTM iskelet çözücüsü kullanılarak türetilir (Şekil 3B). Elin iskelet uzunluğu ile orantılı ölçeklendirilmesi varsayılır ve ağ kalınlığı, iskeletin göreceli ölçeklemesinden türetilen bir faktörle düzgün bir şekilde ölçeklendirilir, böylece ağ katılımcının el boyutuna daha iyi yaklaşır (Şekil 3C). Bu modifiye edilmiş ağ, mevcut el pozu (işaretleyici verilerinden türetilen) ve bileğin 3B konumu ve yönü ile birlikte kod çözücüye girilir. Kod çözücü, böylece, mevcut poza bağımlı düzelticiyi hesaplar, tüm düzelticileri ve roto-çevirileri uygular ve mevcut el pozunun 3B izlenen nesne ağı ile aynı koordinat çerçevesinde 3B el örgüsü rekonstrüksiyonunu çıkarır (Şekil 3D). Şekil 3: Önceden eğitilmiş DeepHandMesh kod çözücüsünde yapılan değişiklikler . (A) Sabit, genel kimliğe bağımlı örgü düzeltici. (B) Adım 10’da ters kinematik yoluyla türetilen kimliğe bağlı iskelet düzeltici. (C) El ağının boyutu, iskelet eklemleriyle aynı faktörle ölçeklendirilir. (D) Mevcut el pozunun son 3D el örgüsü rekonstrüksiyonu. Bu şeklin daha büyük bir versiyonunu görmek için lütfen buraya tıklayın. Hem katılımcının eli hem de kavranmış bir nesne için 3B örgü modellerini yeniden yapılandırdıktan sonra, el-nesne temas bölgeleri, el ve nesne ağları arasındaki kesişimi hesaplayarak tahmin edilebilir (Şekil 1H). Bunun arkasındaki varsayım, gerçek elin yüzeyle temas yoluyla deforme olduğudur, yani iskelet, el sert olsaydı mümkün olandan daha fazla yüzeye yaklaşabilir, bu da el ağının bölümlerinin nesne ağından geçmesine izin verir. Sonuç olarak, temas alanları iki ağ arasındaki örtüşme bölgeleri olarak yaklaştırılabilir. Özellikle, bu örtüşme bölgelerini hesaplamak için, el ağının 3B hacminde bulunan nesne örgüsü köşelerini elle temas halinde olarak tanımlarız. Bu köşeler, standart bir ışın izleme yaklaşımı45 kullanılarak tanımlanır. Nesne ağının her köşesi için, bu köşeden el ağının dışındaki rastgele bir 3B noktaya bir ışın dökülür. Daha sonra dökme ışın ile elin yüzeyini oluşturan üçgenler arasında meydana gelen kesişme noktalarının sayısını değerlendiririz. Kesişme sayısı tek ise, nesne köşesi el ağının içinde bulunur. Kavşak sayısı eşit ise, nesne köşesi el ağının dışındadır. Bu nedenle, nesnenin yüzeyindeki temas bölgeleri, köşelerinin tümü el ağı içinde bulunan üçgen yüzler kümesi olarak yaklaştırılabilir. Aynı mantığı, elin yüzeyindeki temas bölgelerini tahmin etmek için nesne ağının 3B hacminde bulunan el ağı köşelerine de uygulayabiliriz. Özellikle, Boole örgü işlemlerine daha gelişmiş yaklaşımlar da kullanılabilir31. Video 1, 3D baskılı bir kedi heykelciğine tek bir kavrama sırasında yan yana hareket eden bir elin, izlenen noktaların ve birlikte kayıtlı ağın bir videosunu gösterir. Bunun yerine Şekil 4A, el-nesne örgü rekonstrüksiyonları (Şekil 4B) ve kruvasan yüzeyindeki tahmini temas bölgeleri (Şekil 4C) ile birlikte, bir kavramadan 3D baskılı bir kruvasana kadar el-nesne teması sırasında tek bir çerçeveyi göstermektedir. Şekil 4: Tahmini el-nesne temas bölgeleri. (A) Bir kavrama sırasında izleme kameralarından birinden görüntülenen izlenen el ve nesne. (B) İzleme kamerasıyla aynı bakış açısından oluşturulan yeniden yapılandırılmış el ağı ve izlenen nesne ağı. (C) Birden fazla bakış açısından görülen nesnenin yüzeyindeki temas bölgeleri. Bu şeklin daha büyük bir versiyonunu görmek için lütfen buraya tıklayın. Video 1: El ve nesnenin ağ rekonstrüksiyonları. Elin Gif animasyonu, izlenen işaretleyiciler ve aynı kamera bakış açısından görüntülenen tek bir kavrama sırasında el ve nesne örgü rekonstrüksiyonları. Bu Videoyu indirmek için lütfen buraya tıklayın.

Discussion

Çok basamaklı kavrama sırasında el-nesne etkileşimleri için temas bölgelerinin tahmin edilmesini sağlayan bir yöntem öneriyoruz. Bir elin tüm yüzeyinin tam olarak izlenmesi şu anda zor olduğundan, pozu eldeki seyrek kilit noktalarla belirlenen bir el ağının yeniden yapılandırılmasını öneriyoruz. Bu seyrek kilit noktaları izlemek için çözümümüz, pasif işaretleyici izlemeye dayanan araştırma sınıfı bir hareket yakalama sistemi kullanır. Tabii ki, yeterince doğru 3D konum verileri vermeleri koşuluyla, önerilen yöntemle diğer hareket yakalama sistemleri de kullanılabilir. Aktif işaretleyici hareket yakalama sistemlerine (popüler ancak üretimi durdurulmuş Optotrak Certus gibi) karşı tavsiyede bulunuyoruz, çünkü bunlar katılımcıların ellerine kabloların ve / veya elektronik cihazların takılmasını gerektirir, bu da hareketleri kısıtlayabilir veya en azından katılımcıların ellerinin pozunun daha bilinçli bir şekilde farkında olmaları nedeniyle daha az tipik kavramalar sağlayabilir. Atalet ölçüm birimleri kullanan hareket izleme eldivenleri, bu sistemlerin sürüklenmeden muzdarip olduğu bilinmesine rağmen, el hareketlerini de kısıtlayabilir ve elin yüzeyinin nesne yüzeyleriyle tam ve doğrudan temas etmesine izin vermese de, bir olasılık olabilir. Ticari işaretsiz el izleme çözümleri (örneğin, Leap Motion46,47,48) de bir olasılık olabilir, ancak nesne konumlarını yalnızca bu sistemlerle izlemek mümkün olmayabilir. Araştırma sınıfı bir hareket yakalama sistemine en umut verici alternatif seçenek, açık kaynaklı, işaretsiz izleme çözümleri (örneğin, Mathis ve ark.28) tarafından verilmektedir. Birden fazla ortak kayıtlı kamera49 ile kullanıldığında, bu tür sistemler işaretçilere, eldivenlere veya kablolara ihtiyaç duymadan el eklem konumlarını ve nesne konumlarını 3D olarak potansiyel olarak izleyebilir. Bununla birlikte, bu çözümlerin yanı sıra bu işaretleyici tabanlı sistem, tıkanmalar nedeniyle veri kaybı sorunlarından muzdarip olabilir.

Sınırlamalar ve gelecekteki yönler
Bu yöntemle elde edilen el rekonstrüksiyonları tam olarak doğru olmayacağından, yöntemin kullanılması gereken deney türlerinde bazı sınırlamalar vardır. El örgüsü rekonstrüksiyonlarında zemin gerçeğinden sapmalar, tahmini el/nesne temas bölgelerindeki sapmalarda kendini gösterecektir. Bu nedenle, mutlak önlemler elde etmek için bu yöntemin uygulanması, temas bölgesi tahminlerinin doğruluğunun değerlendirilmesini gerektirecektir. Bununla birlikte, yaklaşık tahminler bile katılımcı içi deneysel tasarımlarda hala yararlı olabilir, çünkü yöntemin potansiyel önyargılarının bir katılımcı içindeki farklı deneysel koşulları benzer şekilde etkilemesi muhtemeldir. Bu nedenle, istatistiksel analizler ve çıkarımlar yalnızca koşullar arasındaki temas alanındaki farklılıklar gibi ölçümler üzerinde yapılmalıdır; burada bir etkinin yönü ilgili temel gerçekle ilişkili olacaktır. Gelecekteki araştırmalarda, örneğin temas bölgesi tahminlerini termokromik boya ile kaplanmış nesneler üzerindeki termal parmak izleriyle karşılaştırarak yaklaşımımızı daha da doğrulamayı planlıyoruz.

Veri toplamadan son temas bölgesi tahminine kadar çoğu işleme adımı tamamen otomatiktir ve bu nedenle el-nesne temas bölgesi tahmini için standartlaştırılmış bir prosedüre yönelik önemli katkılar sunar. Bununla birlikte, bireyselleştirilmiş iskeletlerin izlenen işaretleyicilerin 3B konumlarına ilk uyumu, her katılımcı için bir iskelet tanımı elde etmek için manuel olarak gerçekleştirilmelidir. Bir denemenin katılımcı sayısı arttıkça, manuel uyumların sayısı da artar ve bu şu anda prosedürdeki en çok zaman alan adımdır ve Autodesk Maya Yazılımı’nda manuel donanıma biraz aşinalık gerektirir. Gelecekte, otomatik bir iskelet kalibrasyon prosedürü ekleyerek prosedür üzerinde insan etkisini önlemek için bu adımı otomatikleştirmeyi amaçlıyoruz.

Burada açıklanan iş akışı, Qualisys donanım ve yazılımına (örneğin, QTM iskelet çözücü) dayanır. Bu, şu anda yöntemimizin erişilebilirliğini benzer bir kuruluma sahip laboratuvarlarla sınırlamaktadır. Bununla birlikte, prensip olarak, yöntem herhangi bir hareket yakalama verisi kaynağına uygulanabilir. Erişilebilirliği genişletmek için, devam eden çalışmalarda, iş akışımızı genelleştirmesi ve belirli donanım ve yazılım lisanslarına daha az bağımlı hale getirmesi gereken alternatifleri araştırıyoruz.

Yöntemin bir diğer önemli sınırlaması, mevcut haliyle, yalnızca katı (deforme olmayan) nesnelere uygulanabilmesidir. Gelecekte, bu sınırlama, kavranan nesnenin deforme olurken yüzey şeklini kaydetme yöntemleri kullanılarak aşılabilir. Ek olarak, yaklaşık doğası nedeniyle, yöntem şu anda çok küçük veya ince nesneler için uygun değildir.

Sonuç olarak, son teknoloji hareket takibini yüksek doğrulukta el yüzeyi modellemesi ile entegre ederek, kavrama ve manipülasyon sırasında el-nesne temas bölgelerini tahmin etmek için bir yöntem sunuyoruz. Gelecekteki araştırmalarda, insanlarda görsel olarak yönlendirilen kavrama davranışını araştırmak ve modellemek için bu yöntemi kullanmayı planlıyoruz16. Ayrıca, bu araçları gerçek ve sanal doğal ortamlarda görsel olarak yönlendirilen el ve göz hareketi motor kontrolünü araştırmak için göz izleme 46,50,51,52 ve sanal/artırılmış gerçeklik sistemleri 53,54,55 ile entegre etmeyi planlıyoruz 18,46,56,57. Bu nedenlerden dolayı, önerilen yöntem, sanal ve artırılmış gerçeklikte dokunsal algı58, motor kontrolü ve insan-bilgisayar etkileşimini inceleyen araştırmacılar için ilgi çekici olabilir. Son olarak, insanın kavrama yeteneklerinin doğru ölçümleri, etkileşimli algı 39,40,41,42,43 ilkelerine dayanan sağlam robotik sistemlerin tasarımını bilgilendirebilir ve üst ekstremite protezleri için translasyonel uygulamalara sahip olabilir.

Disclosures

The authors have nothing to disclose.

Acknowledgements

Bu araştırma Deutsche Forschungsgemeinschaft (DFG, Alman Araştırma Vakfı: proje No. 222641018-SFB/TRR 135 TP C1 ve IRTG-1901 “Beyin İş Başında”) ve Hessen Yüksek Öğretim, Bilim, Araştırma ve Sanat Bakanlığı Mükemmellik Programı tarafından finanse edilen “Uyarlanabilir Zihin” Araştırma Kümesi tarafından finanse edilmiştir. Yazarlar, Mathias Bankay ve Jeffrey Thingvold da dahil olmak üzere Qualisys destek ekibine, yöntemlerimizi geliştirmedeki yardımları için teşekkür eder. Yazarlar ayrıca Michaela Jeschke’ye el modeli olarak poz verdiği için teşekkür ediyor. Yöntemin ve makalede sunulan sonuçların çoğaltılmasına yönelik tüm veri ve analiz senaryoları Zenodo’da mevcuttur (doi: 10.5281/zenodo.7458911).

Materials

Anaconda Python distribution  (Anaconda 5.3.1 or later); https://repo.anaconda.com/archive/ scripts and functions were generated in Python version 3.7
Autodesk Maya Autodesk, Inc. Maya2022; https://www.autodesk.com/products/maya/overview 3D computer graphics application.  
Blender  Blender Foundation  Blender 2.92; https://download.blender.org/release/ 3D computer graphics application.  
Computer Workstation N/A N/A OS: Windows 10 or higher.
DeepHandMesh Meta Platforms, Inc. (Meta Open Source) https://github.com/facebookresearch/DeepHandMesh Pre-trained hand mesh generation tool.
Miqus M5 Qualisys Ab https://www.qualisys.com/cameras/miqus/  Passive marker motion tracking camera (8 units).
Miqus video camera Qualisys Ab https://www.qualisys.com/cameras/miqus-video/ Color video camera, synchronized with Miquis M5 tracking cameras (6 units).
Project repository  N/A Data and Code Repository  Data and code to replicate the current project. The repository is currently under construction, but we provide a private link where reviewers can download the current and most up-to-date version of the repository. The final repository will be made publicly available upon acceptance. 
Python 3 Python Software Foundation Python Version 3.7 Python3 and associated built-in libraries.
QTM Connect for Maya Qualisys Ab https://github.com/qualisys/QTM-Connect-For-Maya  Stream skeleton, rigid bodies and marker data from QTM to Maya
QTM Qualisys Track Manager Qualisys Ab Qualisys Track Manager 2021.2; https://www.qualisys.com/software/qualisys-track-manager/  Motion capture software
Qualisys SDK for Python Qualisys Ab https://github.com/qualisys/qualisys_python_sdk  Implements communication between QTM and Python

References

  1. Derzsi, Z., Volcic, R. MOTOM toolbox: MOtion Tracking via Optotrak and Matlab. Journal of Neuroscience Methods. 308, 129-134 (2018).
  2. Eloka, O., Franz, V. H. Effects of object shape on the visual guidance of action. Vision Research. 51 (8), 925-931 (2011).
  3. Lederman, S. J., Wing, A. M. Perceptual judgement, grasp point selection and object symmetry. Experimental Brain Research. 152 (2), 156-165 (2003).
  4. Schettino, L. F., Adamovich, S. V., Poizner, H. Effects of object shape and visual feedback on hand configuration during grasping. Experimental Brain Research. 151 (2), 158-166 (2003).
  5. Chen, Z., Saunders, J. A. Online processing of shape information for control of grasping. Experimental Brain Research. 233 (11), 3109-3124 (2015).
  6. Burstedt, M. K., Flanagan, J. R., Johansson, R. S. Control of grasp stability in humans under different frictional conditions during multidigit manipulation. Journal of Neurophysiology. 82 (5), 2393-2405 (1999).
  7. Paulun, V. C., Gegenfurtner, K. R., Goodale, M. A., Fleming, R. W. Effects of material properties and object orientation on precision grip kinematics. Experimental Brain Research. 234 (8), 2253-2265 (2016).
  8. Klein, L. K., Maiello, G., Fleming, R. W., Voudouris, D. Friction is preferred over grasp configuration in precision grip grasping. Journal of Neurophysiology. 125 (4), 1330-1338 (2021).
  9. Mamassian, P. Prehension of objects oriented in three-dimensional space. Experimental Brain Research. 114 (2), 235-245 (1997).
  10. Paulun, V. C., Kleinholdermann, U., Gegenfurtner, K. R., Smeets, J. B. J., Brenner, E. Center or side: biases in selecting grasp points on small bars. Experimental Brain Research. 232 (7), 2061-2072 (2014).
  11. Goodale, M. A., et al. Separate neural pathways for the visual analysis of object shape in perception and prehension. Current Biology. 4 (7), 604-610 (1994).
  12. Kleinholdermann, U., Franz, V. H., Gegenfurtner, K. R. Human grasp point selection. Journal of Vision. 13 (8), 23 (2013).
  13. Maiello, G., Paulun, V. C., Klein, L. K., Fleming, R. W. Object visibility, not energy expenditure, accounts for spatial biases in human grasp selection. i-Perception. 10 (1), 204166951982760-20 (2019).
  14. Maiello, G., Schepko, M., Klein, L. K., Paulun, V. C., Fleming, R. W. Humans can visually judge grasp quality and refine their judgments through visual and haptic feedback. Frontiers in Neuroscience. 14, 591898 (2021).
  15. Klein, L. K., Maiello, G., Paulun, V. C., Fleming, R. W. Predicting precision grip grasp locations on three-dimensional objects. PLoS Computational Biology. 16 (8), 1008081 (2020).
  16. Maiello, G., Paulun, V. C., Klein, L. K., Fleming, R. W. The sequential-weight illusion. i-Perception. 9 (4), 204166951879027 (2018).
  17. Chessa, M., Maiello, G., Klein, L. K., Paulun, V. C., Solari, F. Grasping objects in immersive Virtual Reality. 2019 IEEE Conference on Virtual Reality and 3D User Interfaces (VR). , 1749-1754 (2019).
  18. Crajé, C., Lukos, J. R., Ansuini, C., Gordon, A. M., Santello, M. The effects of task and content on digit placement on a bottle). Experimental Brain Research. 212 (1), 119-124 (2011).
  19. Lukos, J., Ansuini, C., Santello, M. Choice of contact points during multidigit grasping: Effect of predictability of object center of mass location. Journal of Neuroscience. 27 (14), 3894-3903 (2007).
  20. Gilster, R., Hesse, C., Deubel, H. Contact points during multidigit grasping of geometric objects. Experimental Brain Research. 217 (1), 137-151 (2012).
  21. Schot, W. D., Brenner, E., Smeets, J. B. J. Robust movement segmentation by combining multiple sources of information. Journal of Neuroscience Methods. 187 (2), 147-155 (2010).
  22. Sundaram, S., et al. Learning the signatures of the human grasp using a scalable tactile glove. Nature. 569 (7758), 698-702 (2019).
  23. Yan, Y., Goodman, J. M., Moore, D. D., Solla, S. A., Bensmaia, S. J. Unexpected complexity of everyday manual behaviors. Nature Communications. 11 (1), 3564 (2020).
  24. Han, S., et al. Online optical marker-based hand tracking with deep labels. ACM Transactions on Graphics. 37 (4), 1-10 (2018).
  25. Clouthier, A. L., et al. Development and validation of a deep learning algorithm and open-source platform for the automatic labelling of motion capture markers. IEEE Access. 9, 36444-36454 (2021).
  26. . Qualisys AB Qualisys Track Manager User Manual (Version 2022.1) Available from: https://www.qualisys.com/ (2022)
  27. Mathis, A., et al. DeepLabCut: Markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).
  28. Moon, G., Shiratori, T., Lee, K. M. DeepHandMesh: A weakly-supervised deep encoder-decoder framework for high-fidelity hand mesh modeling. ECCV 2020. , (2020).
  29. Smith, B., et al. Constraining dense hand surface tracking with elasticity. ACM Transactions on Graphics. 39 (6), 219 (2020).
  30. Taheri, O., Ghorbani, N., Black, M. J., Tzionas, D. GRAB: A dataset of whole-body human grasping of objects. Computer Vision – ECCV 2020: 16th European Conference. , 581-600 (2020).
  31. Brahmbhatt, S., Tang, C., Twigg, C. D., Kemp, C. C., Hays, J. ContactPose: A dataset of grasps with object contact and hand pose. Computer Vision – ECCV 2020. , 361-378 (2020).
  32. Wang, J., et al. RGB2Hands: Real-time tracking of 3D hand interactions from monocular RGB video. ACM Transactions on Graphics. 39 (6), 218 (2020).
  33. Zhang, X., Li, Q., Mo, H., Zhang, W., Zheng, W. End-to-end hand mesh recovery from a monocular RGB image. 2019 IEEE/CVF International Conference on Computer Vision (ICCV). , 2354-2364 (2019).
  34. Endo, Y., Tada, M., Mochimaru, M. Reconstructing individual hand models from motion capture data). Journal of Computational Design and Engineering. 1 (1), 1-12 (2014).
  35. Mueller, F., et al. GANerated hands for real-time 3D hand tracking from monocular RGB. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. , 49-59 (2018).
  36. Mueller, F., et al. Real-time pose and shape reconstruction of two interacting hands with a single depth camera. ACM Transactions on Graphics. 38 (4), 49 (2019).
  37. Romero, J., Tzionas, D., Black, M. J. Embodied hands: Modeling and capturing hands and bodies together. ACM Transactions on Graphics. 36 (6), 245 (2017).
  38. Kappler, D., Bohg, J., Schaal, S. Leveraging big data for grasp planning. 2015 IEEE International Conference on Robotics and Automation (ICRA). , 4304-4311 (2015).
  39. Kokic, M., Kragic, D., Bohg, J. Learning task-oriented grasping from human activity datasets). IEEE Robotics and Automation Letters. 5 (2), 3352-3359 (2020).
  40. Shao, L., et al. UniGrasp: Learning a unified model to grasp with multifingered robotic hands. IEEE Robotics and Automation Letters. 5 (2), 2286-2293 (2020).
  41. Shao, L., Migimatsu, T., Zhang, Q., Yang, K., Bohg, J. Concept2Robot: Learning manipulation concepts from instructions and human demonstrations. Robotics: Science and Systems XVI. , (2020).
  42. Bohg, J. Interactive perception: Leveraging action in perception and perception in action. IEEE Transactions on Robotics. 33 (6), 1273-1291 (2017).
  43. . Blender Foundation Available from: https://www.blender.org (2022)
  44. Roth, S. D. Ray casting for modeling solids. Computer Graphics and Image Processing. 18 (2), 109-144 (1982).
  45. Maiello, G., Kwon, M., Bex, P. J. Three-dimensional binocular eye-hand coordination in normal vision and with simulated visual impairment. Experimental Brain Research. 236 (3), 691-709 (2018).
  46. Weichert, F., Bachmann, D., Rudak, B., Fisseler, D. Analysis of the accuracy and robustness of the leap motion controller. Sensors. 13 (5), 6380-6393 (2013).
  47. Guna, J., Jakus, G., Pogačnik, M., Tomažič, S., Sodnik, J. An analysis of the precision and reliability of the leap motion sensor and its suitability for static and dynamic tracking. Sensors. 14 (2), 3702-3720 (2014).
  48. Sheshadri, S., Dann, B., Hueser, T., Scherberger, H. 3D reconstruction toolbox for behavior tracked with multiple cameras. Journal of Open Source Software. 5 (45), 1849 (2020).
  49. Maiello, G., Harrison, W. J., Bex, P. J. Monocular and binocular contributions to oculomotor plasticity. Scientific Reports. 6, 31861 (2016).
  50. Caoli, A., et al. A dichoptic feedback-based oculomotor training method to manipulate interocular alignment. Scientific Reports. 10, 15634 (2020).
  51. Gibaldi, A., Vanegas, M., Bex, P. J., Maiello, G. Evaluation of the Tobii EyeX eye tracking controller and Matlab toolkit for research. Behavior Research Methods. 49 (3), 923-946 (2017).
  52. Chessa, M., Maiello, G., Borsari, A., Bex, P. J. The Perceptual quality of the Oculus Rift for immersive virtual reality. Human-Computer Interaction. 34 (1), 51-82 (2016).
  53. Maiello, G., Chessa, M., Bex, P. J., Solari, F. Near-optimal combination of disparity across a log-polar scaled visual field. PLoS Computational Biology. 16 (4), 1007699 (2020).
  54. Maiello, G., Chessa, M., Solari, F., Bex, P. J. The (in)effectiveness of simulated blur for depth perception in naturalistic images. PLoS One. 10 (10), 0140230 (2015).
  55. Maiello, G., Chessa, M., Solari, F., Bex, P. J. Simulated disparity and peripheral blur interact during binocular fusion. Journal of Vision. 14 (8), 13 (2014).
  56. Maiello, G., Kerber, K. L., Thorn, F., Bex, P. J., Vera-Diaz, F. A. Vergence driven accommodation with simulated disparity in myopia and emmetropia. Experimental Eye Research. 166, 96-105 (2018).
  57. Moscatelli, A., et al. The change in fingertip contact area as a novel proprioceptive cue. Current Biology. 26 (9), 1159-1163 (2016).

Play Video

Cite This Article
Hartmann, F., Maiello, G., Rothkopf, C. A., Fleming, R. W. Estimation of Contact Regions Between Hands and Objects During Human Multi-Digit Grasping. J. Vis. Exp. (194), e64877, doi:10.3791/64877 (2023).

View Video