물체를 잡을 때 일반적으로 손가락과 손의 여러 영역이 물체의 표면과 접촉합니다. 이러한 접촉 영역을 재구성하는 것은 어려운 일입니다. 여기서는 마커 기반의 모션 캡쳐와 기존의 딥러닝 기반의 핸드 메시 재구성을 결합하여 접촉 영역을 대략적으로 추정하는 방법을 제시한다.
물체를 성공적으로 잡으려면 물체 표면에서 손이 닿을 적절한 접촉 영역을 선택해야 합니다. 그러나 이러한 지역을 식별하는 것은 어렵습니다. 이 문서에서는 마커 기반 추적 데이터에서 접촉 영역을 추정하는 워크플로에 대해 설명합니다. 참가자는 실제 물체를 잡고 손가락 관절을 포함하여 물체와 손의 3D 위치를 추적합니다. 먼저 손등에 위치한 추적 마커 선택에서 조인트 오일러 각도를 결정합니다. 그런 다음 최첨단 손 메시 재구성 알고리즘을 사용하여 현재 포즈와 3D 위치에서 참가자 손의 메시 모델을 생성합니다.
3D 프린팅 또는 3D 스캔된 객체를 사용하여 실제 객체와 메시 데이터로 모두 사용할 수 있으므로 손 및 물체 메시를 공동 등록할 수 있습니다. 차례로, 이것은 핸드 메시와 공동 등록된 3D 오브젝트 메쉬 사이의 교차점을 계산하여 대략적인 접촉 영역의 추정을 가능하게 한다. 이 방법은 다양한 조건에서 인간이 물체를 잡는 위치와 방법을 추정하는 데 사용될 수 있습니다. 따라서 이 방법은 시각 및 촉각 인식, 운동 제어, 가상 및 증강 현실에서의 인간-컴퓨터 상호 작용, 로봇 공학을 연구하는 연구자들에게 흥미로울 수 있습니다.
물체를 파악하고 조작하는 능력은 인간이 자신의 필요와 필요에 따라 환경을 재구성할 수 있도록 하는 핵심 능력입니다. 그러나 다관절 손을 효과적으로 제어하는 것은 정교한 제어 시스템이 필요한 어려운 작업입니다. 이 모터 제어 시스템은 여러 형태의 감각 입력에 의해 안내되며, 그 중 시력이 가장 중요합니다. 시각을 통해 개인은 환경의 물체를 식별하고 위치와 물리적 특성을 추정한 다음 이러한 물체에 쉽게 도달하고 파악 및 조작할 수 있습니다. 망막의 입력을 손을 제어하는 운동 명령과 연결하는 복잡한 시스템을 이해하는 것은 감각 운동 신경 과학의 핵심 과제입니다. 이 시스템이 어떻게 작동하는지 모델링, 예측 및 이해하려면 먼저 이 시스템을 자세히 연구할 수 있어야 합니다. 이를 위해서는 시각적 입력과 수동 모터 출력 모두에 대한 고충실도 측정이 필요합니다.
과거의 동작 추적 기술은 인간 파악 연구에 많은 제한을 가했습니다. 예를 들어, 참여자의 손(1,2)에 부착된 케이블을 필요로 하는 시스템은 손가락 동작의 범위를 제한하는 경향이 있으며, 잠재적으로 파지 움직임 또는 측정 자체를 변경할 수 있다. 이러한 한계에도 불구하고 이전 연구에서는 시각적 유도 파악에 영향을 미치는 몇 가지 요인을 식별할 수 있었습니다. 이러한 요인 중 일부는 물체 모양3, 4, 5, 6, 표면 거칠기7, 8, 9 또는 손4, 8, 10에 대한 물체의 방향을 포함합니다. 그러나 이전의 기술적 한계를 극복하기 위해 이 선행 연구의 대부분은 단순한 자극과 고도로 제한된 작업을 사용하여 주로 개별 요인 3,4,6,7,10, 두 자리 정밀 그립 3,4,6,9,11,12, 13,14,15,16,17,18, 단일 물체(19), 또는 매우 간단한 2D 모양(20,21). 이전 발견이 그러한 축소되고 인공적인 실험실 조건을 넘어 어떻게 일반화되는지는 알려져 있지 않습니다. 부가적으로, 손-물체 접촉의 측정은 종종 디지트 접촉점(22)의 추정으로 축소된다. 이 단순화는 손가락 끝만 물체와 접촉하는 작은 파악 하위 집합을 설명하는 데 적합할 수 있습니다. 그러나 대부분의 실제 그립에서는 손가락과 손바닥의 광범위한 영역이 물체와 접촉합니다. 또한, 최근 연구(23)는 햅틱 장갑을 사용하여 물체가 표면에 어떻게 영향을 미치는지에 의해 물체를 인식할 수 있음을 입증했습니다. 이것은 물체와 손가락 끝 사이의 접촉점뿐만 아니라 손과 잡은 물체 사이의 확장된 접촉 영역을 연구하는 것의 중요성을 강조한다(22).
모션 캡처 및 3D 손 모델링의 최근 발전으로 우리는 이전의 한계를 뛰어 넘고 완전한 복잡성을 파악하는 것을 연구 할 수있었습니다. 패시브 마커-기반 모션 트래킹은 이제 관절 움직임(24)을 추적하기 위해 참가자의 손등에 부착될 수 있는 밀리미터 크기의 마커와 함께 이용가능하다. 또한, 수동 마커 시스템을 위한 자동 마커 식별 알고리즘은 이제 마커 데이터(25,26,27)의 광범위한 수동 후처리에 대한 필요성을 거의 제거하기에 충분히 견고하다. 마커리스 솔루션은 또한 비디오28에서 동물의 신체 부위를 추적하는 데 인상적인 수준의 성능에 도달하고 있습니다. 따라서, 이러한 움직임-추적 방법들은 최종적으로 복잡한 다수 손 움직임들(24)의 신뢰성 있고 비침습적인 측정을 가능하게 한다. 이러한 측정은 관절 운동학에 대해 알려주고 손과 물체 사이의 접촉점을 추정할 수 있게 해줍니다. 또한, 최근 몇 년 동안, 컴퓨터 비전 커뮤니티는 물체를 잡는 동안, 그리고 심지어 손 부분들 사이의 자기 접촉 동안에도 연조직 변형을 복제할 수 있는 인간 손의 모델들을 구성하는 문제를 다루고 있다(29,30,31,32). 이러한 3D 메쉬 재구성은 비디오 영상(33, 34), 골격 관절(마커 기반(35) 또는 마커리스 트래킹(36)으로부터 유도됨), 및 깊이 이미지(37)와 같은 상이한 유형의 데이터로부터 유도될 수 있다. 이 영역의 첫 번째 주요 발전은 Romero et al.38에 의해 제공되었으며, 그는 다양한 포즈의 31명의 피험자로부터 1,000개 이상의 손 스캔에서 파라메트릭 손 모델(MANO)을 도출했습니다. 이 모델에는 손의 포즈와 모양 모두에 대한 매개 변수가 포함되어 있어 다양한 데이터 소스에서 전체 손 재구성으로의 회귀를 용이하게 합니다. 보다 최근의 DeepHandMesh29 솔루션은 딥 러닝을 통해 매개변수화된 모델을 구성하고 침투 회피를 추가하여 손 부분 간의 물리적 상호 작용을 보다 정확하게 복제함으로써 이러한 접근 방식을 기반으로 합니다. 이러한 손 메시 재구성을 3D 추적된 물체 메시와 결합시킴으로써, 이제 물체(32)의 표면뿐만 아니라 손의 표면 상의 접촉 영역을 추정하는 것이 가능하다.
여기에서는 물체와 손 관절의 충실도가 높은 3D 추적을 새로운 손 메시 재구성 알고리즘과 결합하는 워크플로를 제안합니다. 이 방법은 손과 물체의 접촉면에 대한 상세한 지도를 생성합니다. 이러한 측정은 감각 운동 신경 과학자들이 인간의 시각 유도 파악에 대한 이론적 이해를 확장하는 데 도움이 될 것입니다. 또한, 이 방법은 인접 분야의 연구자들에게 유용할 수 있습니다. 예를 들어, 인적 요소 연구자들은 가상 현실 및 증강 현실(18)에서 더 나은 인간-기계 인터페이스 시스템을 구축하기 위해 이 방법을 사용할 수 있다. 인간의 파지 행동에 대한 충실도 측정은 또한 로봇 공학자가 상호 작용 인식 39,40,41,42,43의 원리에 기초하여 인간에서 영감을 받은 로봇 파지 시스템을 설계하는 데 도움이 될 수 있습니다. 따라서 우리는 이 방법이 고도로 제한된 작업에 대한 희박한 설명에서 복잡한 물체 및 실제 작업에 대한 자연주의적 파악 행동의 완전한 특성화에 이르기까지 신경과학 및 공학 분야 전반에 걸친 파악 연구를 발전시키는 데 도움이 되기를 바랍니다. 전반적인 접근 방식은 그림 1에 요약되어 있습니다.
그림 1: 제안된 방법의 주요 단계 . (A) 모션 캡처 카메라는 여러 각도에서 작업대를 이미지화합니다. (B) 자극 객체는 삼각 측량 메쉬 모델에서 3D 인쇄됩니다. (C) 4 개의 구형 반사 마커가 실제 물체의 표면에 접착됩니다. 반자동 절차는 메쉬 객체의 표면에서 4개의 해당 점을 식별합니다. 이러한 대응을 통해 메시 모델을 실제 객체의 3D 추적 위치로 로토 변환할 수 있습니다. (D) 반사 마커는 양면 테이프를 사용하여 참가자의 손등에 있는 다른 랜드마크에 부착됩니다. (E) 모션 캡쳐 시스템은 단일 시험 동안 추적된 물체 및 손 마커의 3D 공간에서 궤적을 획득합니다. (F) 참가자 별 손 골격은 3D 컴퓨터 그래픽 소프트웨어를 사용하여 구성됩니다. 그런 다음 역운동학을 통해 실험에서 각 시도의 각 프레임에 대해 골격 관절 자세를 추정합니다. (G) 관절 포즈는 DeepHandMesh29의 수정된 버전에 입력되며, 현재 3D 포즈 및 위치에서 추정된 3D 손 메시를 출력합니다. (H) 마지막으로 메쉬 교차를 사용하여 손-물체 접촉 영역을 계산합니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.
실험을 시작하기 전에 참가자는 기관 지침과 헬싱키 선언에 따라 정보에 입각한 동의를 제공해야 합니다. 여기에 설명된 모든 프로토콜은 Justus Liebig University Giessen(LEK-FB06)의 지역 윤리 위원회의 승인을 받았습니다.
1. 필요한 모든 소프트웨어 설치
2. 모션 캡쳐 시스템 준비
3. 카메라 보정
4. 자극 객체 만들기
5. 자극 대상 준비
6. 자극 객체의 실제 및 메쉬 모델 버전 공동 등록
7. 손에 마커 설정
그림 2: 참가자의 손에 마커 배치. 약어: RH = 오른손. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.
8. 단일 시험 획득
9. 마커 라벨링
10. 참가자를 위한 개인화된 스켈레톤 정의 만들기
11. 관절 골격 관절 자세 재구성
12. 핸드 메쉬 재구성 생성
13. 손-물체 접촉 영역 추정값 생성
제안된 방법에 대한 첫 번째 요구 사항은 3D 물체와 손의 위치를 정확하게 추적하는 시스템입니다. 구체적인 설정은 그림 1A 에 나와 있으며 모션 캡처 회사인 Qualisys에서 생산한 하드웨어와 소프트웨어를 사용합니다. 작업 공간을 둘러싼 입방체 프레임에 배열된 8개의 추적 카메라와 6개의 비디오 카메라로 여러 각도에서 이미지화되는 추적 볼륨(100cm x 100cm x 100cm) 내에 작업대를 배치합니다. 트래킹 카메라는 트래킹 볼륨 내에서 반사 마커의 3D 위치를 180 프레임/초로 3mm 미만의 3D 공간 해상도로 추적합니다. 우리는 피부 친화적 인 양면 접착 테이프를 사용하여 물체와 손에 부착되는 4mm 반사 마커를 사용합니다. 3D 마커 위치는 모션 캡처 소프트웨어에 의해 처리됩니다. 토론 섹션은 또한 제안된 방법과 함께 사용될 수 있는 대체 모션 캡처 시스템을 검토합니다.
파악 및 조작되는 실제 물체의 정확한 3D 재구성을 얻기 위해 두 가지 옵션을 제안합니다. 여기에서 채택한 첫 번째는 다각형 메쉬 형태의 가상 3D 개체 모델에서 시작하는 것입니다. 이러한 3D 모델은 적절한 소프트웨어(예: Blender 3D44)를 사용하여 구성한 다음 3D 프린팅할 수 있습니다(그림 1B). 두 번째 옵션은 기존의 실제 3D 물체를 가져와서 3D 스캐닝 기술을 사용하여 물체의 메시 모델 복제본을 구성하는 것입니다. 전략이 무엇이든 최종 목표는 실제 3D 개체와 해당 가상 3D 개체 메시 모델을 모두 얻는 것입니다. 여기서 설명하는 접근 방식은 단단한(즉, 변형할 수 없는) 개체에서만 작동합니다.
객체의 3D 표면을 메쉬 모델로 사용할 수 있게 되면 해당 위치를 추적하고 공동 등록해야 합니다(그림 1C). 이를 위해 4개의 비평면 반사 마커가 실제 물체의 표면에 부착되고 물체가 추적 볼륨 내에 배치됩니다. 그런 다음 개체 마커의 3D 위치가 간략하게 캡처됩니다. 이 캡처는 개체 메시 모델의 4개 마커와 4개 꼭짓점 간의 대응을 설정하는 데 사용됩니다. 이것은 블렌더의 파이썬 API로 작성된 간단한 임시 소프트웨어 경로를 사용하여 수행됩니다. 블렌더의 뷰포트 내에서 프로그램은 각 마커에 대해 하나의 구로 구성된 단일 메쉬 개체로 표현되는 마커 위치와 함께 가상 개체를 제공합니다. 그 후, 사용자는 오브젝트 및/또는 마커를 회전하고 변환하여 이들이 실제 오브젝트 상에 배치된 실제 마커들과 함께 정렬되도록 정렬할 수 있다. 이 프로그램은 원래 객체 메쉬에 최종적으로 적용되는 단일 로토 변환을 계산하기 위해 적용되는 회전 및 변환을 등록하여 QTM의 강체 정의와 함께 등록된 객체 메쉬를 제공합니다.
대응을 확립하면, 실제 객체가 추적 볼륨 내에서 이동할 때마다, 가상 객체는 추적된 마커와 4개의 대응하는 메시 꼭짓점 사이의 로토 변환을 계산하여 새로운 위치에 배치될 수 있다. 대신 그립의 역학을 기록하기 위해 양면 테이프를 사용하여 총 24개의 구형 반사 마커를 손의 다른 랜드마크에 부착합니다(그림 1D 및 그림 2).
시험 시작 시(그림 1E) 참가자는 손바닥이 아래를 향하도록 작업대에 손을 평평하게 놓고 눈을 감습니다. 실험자는 참가자 앞의 작업대에 대상 개체를 놓습니다. 다음으로, 청각 신호는 참가자에게 눈을 뜨고 파악을 실행하라는 신호를 보냅니다. 데모에서 작업은 대상 물체에 도달하여 잡고 수직으로 약 10cm 들어 올려 내려 놓고 손을 시작 위치로 되돌리는 것입니다. Python 3.7로 작성된 스크립트가 실험을 제어합니다. 각 시도에서 스크립트는 현재 조건 설정(예: 개체 식별 및 위치 지정)을 선택하여 실험자에게 전달합니다. 스크립트는 또한 청각 신호와 모션 캡처 녹화의 시작 및 중지를 포함한 시도 타이밍을 제어합니다.
팔다리는 3D 공간에서의 위치뿐만 아니라 포즈로도 특징지어집니다. 따라서 실제 그립을 실행하는 사람의 손을 완전히 3D로 재구성하려면 3D 공간에서 각 관절의 위치뿐만 아니라 부모 관절에 대한 각 관절의 상대적인 자세(평행 이동 및 회전)도 필요합니다(그림 1F). 골격 관절 위치 및 방향은 역 운동학을 사용하여 마커 위치에서 추론할 수 있습니다. 이를 위해 QTM 소프트웨어에서 제공하는 스켈레톤 솔버를 사용합니다. 솔버가 작동하려면 먼저 각 조인트의 위치와 방향을 여러 마커 위치에 연결하는 골격 정의를 제공해야 합니다. 따라서 스켈레톤 정의가 구성되고 스켈레톤 리그는 Maya용 QTM Connect 플러그인을 사용하여 마커 데이터에 연결됩니다. 마커 데이터에 대한 스켈레톤 피팅의 정확도를 최대화하기 위해 각 참가자에 대해 개인화된 스켈레톤 정의를 만듭니다. 각 참가자에 대해 손 골격을 모션 캡처 데이터의 단일 프레임에 수동으로 맞춥니다. 참가자별 골격 정의를 얻은 후 골격 솔버를 실행하여 실험에서 각 시행의 각 프레임에 대한 골격 관절 포즈를 추정합니다.
실험에서 각 시도의 각 프레임에 대해 오픈 소스 및 사전 훈련된 손 메시 생성 도구인 DeepHandMesh28 을 사용하여 현재 손 포즈를 재구성하는 손 메시를 생성합니다(그림 1G). DeepHandMesh는 이미지에서 개인화된 손 메시를 생성하는 딥 인코더-디코더 네트워크입니다. 먼저 인코더는 이미지 내에서 손의 포즈(즉, 조인트 오일러 각도)를 추정합니다. 그런 다음 추정된 손 포즈와 개인화된 ID 벡터가 디코더에 입력되어 리깅된 템플릿 메시에 대한 3개의 추가 수정 세트를 추정합니다. 마지막으로, 템플릿 메시는 선형 블렌드 스키닝을 사용하여 추정된 손 포즈와 교정에 따라 변형됩니다. 첫 번째 교정은 사람별 관절 위치를 통합하도록 골격 장비를 조정하는 ID 종속 골격 교정입니다. 다른 두 개의 수정은 참가자의 손 표면을 더 잘 나타내기 위해 메쉬 꼭짓점이 조정되는 메쉬 수정입니다. 메쉬 교정 중 하나는 개별 참가자 손의 표면 구조를 설명하는 ID 종속 메쉬 교정입니다. 대신 최종 메시 수정은 현재 손 포즈로 인한 손 표면 변형을 설명하는 포즈 종속 꼭짓점 수정입니다.
DeepHandMesh는 2D 조인트 키 포인트 및 씬 깊이 맵과 함께 약한 감독을 사용하여 훈련됩니다. 여기서는 사전 훈련된 DeepHandMesh 디코더만 사용하여 다음과 같은 방식으로 수정된 손 메시 재구성을 생성합니다(그림 3). 첫째, 신경망이 특정 참여자에 대해 훈련되지 않았기 때문에 사전 훈련된 모델과 함께 제공되는 일반 ID 종속 메시 교정이 사용됩니다(그림 3A). 또한, ID 종속 골격 교정은 위에서 설명한 대로 QTM 골격 솔버를 사용하여 도출됩니다(그림 3B). 스켈레톤 길이와 손의 비례 스케일링이 가정되고, 메쉬 두께는 스켈레톤의 상대적 스케일링에서 파생된 요인에 의해 균일하게 스케일링되어 메쉬가 참가자의 손 크기에 더 잘 근접하도록 합니다(그림 3C). 이 수정된 메시는 현재 손 포즈(마커 데이터에서 파생됨) 및 손목의 3D 위치 및 방향과 함께 디코더에 입력됩니다. 따라서 디코더는 현재 포즈 종속 수정을 계산하고, 모든 수정 및 로토 변환을 적용하고, 3D 추적된 개체 메시와 동일한 좌표 프레임에서 현재 손 포즈의 3D 손 메시 재구성을 출력합니다(그림 3D).
그림 3: 사전 훈련된 DeepHandMesh 디코더에 대한 수정 사항 . (A) 고정된 일반 ID 종속 메시 수정. (B) 단계 10에서 역운동학을 통해 도출된 ID 의존적 골격 교정. (C) 핸드 메쉬의 크기는 골격 관절과 동일한 계수로 조정됩니다. (D) 현재 손 포즈의 최종 3D 손 메시 재구성. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.
참가자의 손과 잡은 물체 모두에 대해 3D 메시 모델을 재구성한 후, 손과 물체 메시 사이의 교차점을 계산하여 손-물체 접촉 영역을 추정할 수 있습니다(그림 1H). 이 가정은 실제 손이 표면과의 접촉에 의해 변형된다는 것인데, 이는 손이 단단할 때보다 스켈레톤이 표면에 더 가까이 다가올 수 있다는 것을 의미하며, 이로 인해 손 메시의 일부가 오브젝트 메시를 통과할 수 있습니다. 결과적으로 접촉 영역은 두 메시 사이의 중첩 영역으로 근사화될 수 있습니다.
특히, 이러한 겹침 영역을 계산하기 위해 손 메시의 3D 볼륨 내에 포함된 개체 메시 꼭짓점을 손과 접촉하는 것으로 정의합니다. 이러한 꼭짓점들은 표준 레이트레이싱 접근법(45)을 사용하여 식별된다. 개체 메시의 각 꼭짓점에 대해 광선은 해당 꼭짓점에서 손 메시 외부의 임의의 3D 점으로 캐스팅됩니다. 그런 다음 캐스트 광선과 손 표면을 구성하는 삼각형 사이에서 발생하는 교차점의 수를 평가합니다. 교차 수가 홀수이면 개체 꼭짓점이 손 메시 안에 포함됩니다. 교집합 수가 짝수이면 객체 꼭짓점이 손 메시 외부에 있습니다. 따라서 개체 표면의 접촉 영역은 꼭짓점이 모두 손 메시 내에 포함된 삼각형 면 집합으로 근사화할 수 있습니다. 객체 메쉬의 3D 볼륨에 포함된 손 메시 꼭짓점에 동일한 근거를 적용하여 손 표면의 접촉 영역을 추정할 수 있습니다. 특히, 부울 메쉬 연산에 대한 보다 진보된 접근법도 사용될 수 있다31.
비디오 1은 3D 프린팅된 고양이 피규어를 한 번 잡는 동안 손, 추적된 지점 및 공동 등록된 메시가 모두 나란히 움직이는 비디오를 보여줍니다. 그림 4A는 대신 손-물체가 3D 프린팅된 크루아상으로 접촉할 때의 단일 프레임과 손-물체 메쉬 재구성(그림 4B) 및 크루아상 표면의 추정된 접촉 영역(그림 4C)을 보여줍니다.
그림 4: 추정된 손-물체 접촉 영역. (A) 잡는 동안 추적 카메라 중 하나에서 본 추적된 손과 물체. (B) 트래킹 카메라와 동일한 시점에서 렌더링된 재구성된 핸드 메쉬 및 트래킹 오브젝트 메쉬. (C) 여러 관점에서 본 물체 표면의 접촉 영역. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.
비디오 1: 손과 물체의 메쉬 재구성. 손의 GIF 애니메이션, 추적된 마커, 동일한 카메라 관점에서 볼 때 한 번 잡는 동안 손 및 개체 메시 재구성. 이 비디오를 다운로드하려면 여기를 클릭하십시오.
우리는 여러 자릿수 파악 동안 손-물체 상호 작용에 대한 접촉 영역을 추정할 수 있는 방법을 제안합니다. 손의 전체 표면을 완전히 추적하는 것은 현재 다루기 어렵기 때문에 손의 희박한 키 포인트에 의해 포즈가 결정되는 손 메쉬의 재구성을 사용하는 것이 좋습니다. 이러한 희박한 핵심 포인트를 추적하기 위해 당사 솔루션은 수동 마커 추적을 기반으로 하는 연구 수준의 모션 캡처 시스템을 사용합니다. 물론, 다른 모션 캡쳐 시스템들도 제안된 방법과 함께 사용될 수 있으며, 이들이 충분히 정확한 3D 위치 데이터를 산출할 수 있다. 액티브 마커 모션 캡처 시스템(예: 널리 사용되지만 단종된 Optotrak Certus)은 참가자의 손에 케이블 및/또는 전자 장치를 부착해야 하므로 참가자가 손의 자세를 더 의식적으로 인식하게 됨에 따라 움직임을 제한하거나 최소한 덜 일반적인 그립을 생성할 수 있기 때문에 권장하지 않습니다. 관성 측정 장치를 사용하는 모션 추적 장갑은 이러한 시스템이 드리프트를 겪는 것으로 알려져 있지만 손의 움직임을 제한 할 수 있으며 손 표면이 물체 표면과 완전히 직접 접촉하는 것을 허용하지 않을 수 있습니다. 상업적인 마커리스 핸드-트래킹 솔루션들(예를 들면, 도약 모션(Leap Motion)(46,47,48))이 또한 가능할 수 있지만, 이들 시스템들만으로는 물체 위치들을 추적하는 것이 불가능할 수도 있다. 연구용 모션 캡처 시스템에 대한 가장 유망한 대안은 오픈 소스, 마커리스 추적 솔루션(예: Mathis et al.28)에 의해 제공됩니다. 다수의 공동 등록된 카메라(49)와 함께 사용되는 경우, 이러한 시스템은 마커, 장갑 또는 케이블의 필요 없이 3D에서 손 관절 위치 및 물체 위치를 잠재적으로 추적할 수 있다. 그러나 이러한 솔루션과 이 마커 기반 시스템은 폐색으로 인한 데이터 손실 문제로 어려움을 겪을 수 있습니다.
한계와 향후 방향
이 방법을 통해 얻은 손 재구성은 완전히 정확하지 않기 때문에 방법을 사용해야 하는 실험 유형에는 몇 가지 제한이 있습니다. 실측 자료에서 손 메시 재구성의 편차는 추정된 손/물체 접촉 영역의 편차로 나타납니다. 따라서 절대적 측정값을 도출하기 위해 이 방법을 적용하려면 접촉 영역 추정치의 충실도를 평가해야 합니다. 그러나 대략적인 추정치조차도 방법의 잠재적 편향이 유사한 방식으로 참가자 내의 다른 실험 조건에 영향을 미칠 가능성이 있기 때문에 참가자 내 실험 설계에서 여전히 유용 할 수 있습니다. 따라서 통계 분석 및 추론은 조건의 접촉 면적 차이와 같은 측정에 대해서만 수행되어야 하며, 여기서 효과의 방향은 각각의 실측 자료와 상관관계가 있습니다. 향후 연구에서, 우리는 예를 들어 접촉 영역 추정치를 열 변색 페인트로 덮인 물체의 열 지문과 비교하여 우리의 접근 방식을 추가로 검증 할 계획입니다.
데이터 수집에서 최종 접촉 영역 추정에 이르는 대부분의 처리 단계는 완전히 자동화되어 있으므로 손-물체 접촉 영역 추정을 위한 표준화된 절차에 중요한 기여를 합니다. 그러나 추적된 마커의 3D 위치에 대한 개별화된 스켈레톤의 초기 피팅은 각 참가자에 대한 스켈레톤 정의를 얻기 위해 여전히 수동으로 수행되어야 합니다. 실험 참가자 수가 증가함에 따라 수동 맞춤 수도 증가하며, 이는 현재 절차에서 가장 시간이 많이 소요되는 단계이며 Autodesk Maya 소프트웨어의 수동 리깅에 대해 어느 정도 알고 있어야 합니다. 앞으로는 자동 스켈레톤 보정 절차를 추가하여 절차에 대한 사람의 영향을 피하기 위해 이 단계를 자동화하는 것을 목표로 합니다.
여기에 설명된 워크플로는 Qualisys 하드웨어 및 소프트웨어(예: QTM 스켈레톤 솔버)에 의존합니다. 이것은 현재 유사한 설정을 가진 실험실에 대한 우리 방법의 접근성을 제한합니다. 그러나, 원칙적으로, 이 방법은 모션 캡쳐 데이터의 모든 소스에 적용될 수 있다. 접근성을 확장하기 위해 진행 중인 작업에서 워크플로를 일반화하고 특정 하드웨어 및 소프트웨어 라이선스에 대한 의존도를 낮출 수 있는 대안을 모색하고 있습니다.
이 방법의 또 다른 중요한 한계는 현재 형태로는 단단한(변형할 수 없는) 물체에만 적용할 수 있다는 것입니다. 미래에는 잡은 물체가 변형될 때 표면 모양을 기록하는 방법을 사용하여 이러한 한계를 극복할 수 있습니다. 또한 대략적인 특성으로 인해 이 방법은 현재 매우 작거나 얇은 물체에 적합하지 않습니다.
결론적으로, 최첨단 모션 트래킹과 고충실도 손 표면 모델링을 통합하여 파지 및 조작 시 손-물체 접촉 영역을 추정하는 방법을 제공합니다. 향후 연구에서는 이 방법을 사용하여 인간의 시각적 유도 파악 행동을 조사하고 모델링할 계획입니다 16. 우리는 또한 이러한 도구를 아이 트래킹(46,50,51,52) 및 가상/증강 현실 시스템(53,54,55)과 통합하여 실제 및 가상 자연주의 환경(18,46,56,57)에서 시각적으로 유도된 손 및 안구 운동 모터 제어를 조사할 계획이다. 이러한 이유로, 제안된 방법은 가상 및 증강 현실에서 햅틱 인식(58), 운동 제어 및 인간-컴퓨터 상호작용을 연구하는 연구자들에게 흥미로울 수 있다. 마지막으로, 인간의 파지 능력의 정확한 측정은 상호 작용 지각 39,40,41,42,43의 원리에 기초한 견고한 로봇 시스템의 설계에 정보를 제공 할 수 있으며 상지 보철물에 대한 번역 응용 프로그램을 가질 수 있습니다.
저자는 경쟁 이익이 존재하지 않는다고 선언합니다.
이 연구는 Deutsche Forschungsgemeinschaft (DFG, 독일 연구 재단 : 프로젝트 번호 222641018-SFB / TRR 135 TP C1 및 IRTG-1901 "The Brain in Action")와 Hessian Ministry of Higher Education, Science, Research, and Art의 우수 프로그램 (Excellence Program)이 자금을 지원하는 연구 클러스터 "The Adaptive Mind"가 자금을 지원했습니다. 저자는 분석법 개발에 도움을 준 Mathias Bankay와 Jeffrey Thingvold를 포함한 Qualisys 지원팀에 감사를 표합니다. 저자는 또한 손 모델로 포즈를 취한 Michaela Jeschke에게 감사를 표합니다. 원고에 제시된 방법과 결과를 재현하기 위한 모든 데이터 및 분석 스크립트는 Zenodo(doi: 10.5281/zenodo.7458911)에서 사용할 수 있습니다.
Name | Company | Catalog Number | Comments |
Anaconda Python distribution | (Anaconda 5.3.1 or later); https://repo.anaconda.com/archive/ | scripts and functions were generated in Python version 3.7 | |
Autodesk Maya | Autodesk, Inc. | Maya2022; https://www.autodesk.com/products/maya/overview | 3D computer graphics application. |
Blender | Blender Foundation | Blender 2.92; https://download.blender.org/release/ | 3D computer graphics application. |
Computer Workstation | N/A | N/A | OS: Windows 10 or higher. |
DeepHandMesh | Meta Platforms, Inc. (Meta Open Source) | https://github.com/facebookresearch/DeepHandMesh | Pre-trained hand mesh generation tool. |
Miqus M5 | Qualisys Ab | https://www.qualisys.com/cameras/miqus/ | Passive marker motion tracking camera (8 units). |
Miqus video camera | Qualisys Ab | https://www.qualisys.com/cameras/miqus-video/ | Color video camera, synchronized with Miquis M5 tracking cameras (6 units). |
Project repository | N/A | Data and Code Repository | Data and code to replicate the current project. The repository is currently under construction, but we provide a private link where reviewers can download the current and most up-to-date version of the repository. The final repository will be made publicly available upon acceptance. |
Python 3 | Python Software Foundation | Python Version 3.7 | Python3 and associated built-in libraries. |
QTM Connect for Maya | Qualisys Ab | https://github.com/qualisys/QTM-Connect-For-Maya | Stream skeleton, rigid bodies and marker data from QTM to Maya |
QTM Qualisys Track Manager | Qualisys Ab | Qualisys Track Manager 2021.2; https://www.qualisys.com/software/qualisys-track-manager/ | Motion capture software |
Qualisys SDK for Python | Qualisys Ab | https://github.com/qualisys/qualisys_python_sdk | Implements communication between QTM and Python |
JoVE'article의 텍스트 или 그림을 다시 사용하시려면 허가 살펴보기
허가 살펴보기더 많은 기사 탐색
This article has been published
Video Coming Soon
Copyright © 2025 MyJoVE Corporation. 판권 소유