Method Article
Cuando agarramos un objeto, múltiples regiones de los dedos y la mano suelen hacer contacto con la superficie del objeto. La reconstrucción de tales regiones de contacto es un desafío. Aquí, presentamos un método para estimar aproximadamente las regiones de contacto combinando la captura de movimiento basada en marcadores con la reconstrucción de malla manual basada en aprendizaje profundo existente.
Para agarrar un objeto con éxito, debemos seleccionar las regiones de contacto apropiadas para nuestras manos en la superficie del objeto. Sin embargo, identificar tales regiones es un desafío. Este documento describe un flujo de trabajo para estimar las regiones de contacto a partir de datos de seguimiento basados en marcadores. Los participantes agarran objetos reales, mientras que nosotros rastreamos la posición 3D tanto de los objetos como de la mano, incluidas las articulaciones de los dedos. Primero determinamos los ángulos de Euler de la articulación a partir de una selección de marcadores de orugas colocados en el dorso de la mano. Luego, utilizamos algoritmos de reconstrucción de malla manual de última generación para generar un modelo de malla de la mano del participante en la pose actual y la posición 3D.
El uso de objetos que fueron impresos en 3D o escaneados en 3D, y que, por lo tanto, están disponibles como objetos reales y datos de malla, permite que las mallas de mano y objeto se registren conjuntamente. A su vez, esto permite la estimación de regiones de contacto aproximadas mediante el cálculo de las intersecciones entre la malla manual y la malla de objetos 3D co-registrada. El método se puede utilizar para estimar dónde y cómo los humanos agarran objetos bajo una variedad de condiciones. Por lo tanto, el método podría ser de interés para los investigadores que estudian la percepción visual y háptica, el control motor, la interacción humano-computadora en realidad virtual y aumentada, y la robótica.
La capacidad de agarrar y manipular objetos es una habilidad clave que permite a los humanos remodelar el entorno según sus deseos y necesidades. Sin embargo, controlar las manos multiarticuladas de manera efectiva es una tarea desafiante que requiere un sistema de control sofisticado. Este sistema de control motor es guiado por varias formas de entrada sensorial, entre las cuales la visión es primordial. A través de la visión, los individuos pueden identificar los objetos en el entorno y estimar su posición y propiedades físicas y luego pueden alcanzar, agarrar y manipular esos objetos con facilidad. Comprender el complejo sistema que vincula la entrada en las retinas con los comandos motores que controlan las manos es un desafío clave de la neurociencia sensoriomotora. Para modelar, predecir y comprender cómo funciona este sistema, primero debemos poder estudiarlo en detalle. Esto requiere mediciones de alta fidelidad tanto de las entradas visuales como de las salidas del motor manual.
La tecnología de seguimiento de movimiento anterior ha impuesto una serie de limitaciones en el estudio del agarre humano. Por ejemplo, los sistemas que requieren cables conectados a las manos de los participantes1,2 tienden a restringir el rango de movimientos de los dedos, alterando potencialmente los movimientos de agarre o las mediciones mismas. A pesar de tales limitaciones, investigaciones anteriores han podido identificar varios factores que influyen en el agarre guiado visualmente. Algunos de estos factores incluyen la forma del objeto 3,4,5,6, la rugosidad de la superficie 7,8,9 o la orientación de un objeto con respecto a la mano4,8,10. Sin embargo, para superar las limitaciones tecnológicas anteriores, la mayoría de esta investigación previa ha empleado estímulos simples y tareas altamente restringidas, centrándose predominantemente en factores individuales 3,4,6,7,10, agarres de precisión de dos dígitos3,4,6,9,11,12, 13,14,15,16,17,18, objetos individuales19, o formas 2D muy simples 20,21. Se desconoce cómo se generalizan los hallazgos anteriores más allá de tales condiciones de laboratorio reducidas y artificiales. Además, la medición del contacto mano-objeto a menudo se reduce a la estimación de los puntos de contacto de los dígitos22. Esta simplificación puede ser apropiada para describir un pequeño subconjunto de agarres en los que solo las yemas de los dedos están en contacto con un objeto. Sin embargo, en la mayoría de las capturas del mundo real, extensas regiones de los dedos y la palma entran en contacto con un objeto. Además, un estudio reciente23 ha demostrado, utilizando un guante háptico, que los objetos pueden ser reconocidos por la forma en que su superficie incide en la mano. Esto resalta la importancia de estudiar las regiones de contacto extendido entre las manos y los objetos agarrados, no solo los puntos de contacto entre los objetos y las yemas de los dedos22.
Los avances recientes en la captura de movimiento y el modelado manual 3D nos han permitido superar las limitaciones anteriores y estudiar el agarre en toda su complejidad. El seguimiento pasivo del movimiento basado en marcadores ahora está disponible con marcadores de tamaño milimétrico que se pueden unir al dorso de las manos del participante para rastrear los movimientos articulares24. Además, los algoritmos automáticos de identificación de marcadores para sistemas de marcadores pasivos son ahora lo suficientemente robustos como para casi eliminar la necesidad del extenso postprocesamiento manual de los datos de marcadores25,26,27. Las soluciones Markerless también están alcanzando niveles impresionantes de rendimiento en el seguimiento de partes del cuerpo de animales en videos28. Estos métodos de seguimiento del movimiento, por lo tanto, finalmente permiten mediciones confiables y no invasivas de movimientos complejos de múltiples dígitosde la mano 24. Tales mediciones pueden informarnos sobre la cinemática articular y permitirnos estimar los puntos de contacto entre la mano y un objeto. Además, en los últimos años, la comunidad de visión artificial ha estado abordando el problema de construir modelos de las manos humanas que puedan replicar las deformaciones de los tejidos blandos durante el agarre de objetos e incluso durante el contacto personal entre las partes de la mano 29,30,31,32. Tales reconstrucciones de malla 3D pueden derivarse de diferentes tipos de datos, como secuencias de video 33,34, articulaciones esqueléticas (derivadas de35 basado en marcadores o seguimiento sin marcador36) e imágenes de profundidad37. El primer avance clave en este dominio fue proporcionado por Romero et al.38, quienes derivaron un modelo paramétrico de mano (MANO) a partir de más de 1.000 escaneos manuales de 31 sujetos en diversas poses. El modelo contiene parámetros tanto para la pose como para la forma de la mano, lo que facilita la regresión de diferentes fuentes de datos a una reconstrucción completa de la mano. La solución más reciente DeepHandMesh29 se basa en este enfoque mediante la construcción de un modelo parametrizado a través del aprendizaje profundo y mediante la adición de evitación de penetración, que replica con mayor precisión las interacciones físicas entre las partes de la mano. Al combinar tales reconstrucciones de malla manual con mallas de objetos rastreados en 3D, ahora es posible estimar las regiones de contacto no solo en la superficie de los objetos32 sino también en la superficie de la mano.
Aquí, proponemos un flujo de trabajo que reúne el seguimiento 3D de alta fidelidad de objetos y articulaciones de mano con nuevos algoritmos de reconstrucción de malla manual. El método produce mapas detallados de superficies de contacto mano-objeto. Estas mediciones ayudarán a los neurocientíficos sensoriomotores a ampliar nuestra comprensión teórica del agarre guiado visualmente humano. Además, el método podría ser útil para los investigadores en campos adyacentes. Por ejemplo, los investigadores del factor humano pueden usar este método para construir mejores sistemas de interfaz hombre-máquina en realidad virtual y aumentada18. Las mediciones de alta fidelidad de los comportamientos de agarre humano también pueden ayudar a los roboticistas a diseñar sistemas de agarre robóticos inspirados en el ser humano basados en los principios de la percepción interactiva 39,40,41,42,43. Por lo tanto, esperamos que este método ayude a avanzar en la investigación de comprensión en los campos de la neurociencia y la ingeniería, desde descripciones dispersas de tareas altamente restringidas hasta caracterizaciones más completas de comportamientos de agarre naturalistas con objetos complejos y tareas del mundo real. El enfoque general se describe en la Figura 1.
Figura 1: Pasos clave en el método propuesto . (A) Las cámaras de captura de movimiento toman imágenes de un banco de trabajo desde múltiples ángulos. (B) Un objeto de estímulo se imprime en 3D a partir de un modelo de malla triangulada. (C) Cuatro marcadores reflectantes esféricos están pegados a la superficie del objeto real. Un procedimiento semiautomatizado identifica cuatro puntos correspondientes en la superficie del objeto de malla. Esta correspondencia nos permite rotar-traducir el modelo de malla a la posición 3D rastreada del objeto real. (D) Los marcadores reflectantes se fijan a diferentes puntos de referencia en el dorso de la mano de un participante con cinta adhesiva de doble cara. (E) El sistema de captura de movimiento adquiere las trayectorias en el espacio 3D del objeto rastreado y los marcadores de mano durante una sola prueba. (F) Un esqueleto de mano específico del participante se construye utilizando software de gráficos por computadora 3D. Las posturas de la articulación esquelética se estiman para cada fotograma de cada ensayo en un experimento a través de la cinemática inversa. (G) Las poses conjuntas se introducen en una versión modificada de DeepHandMesh29, que genera una malla de mano 3D estimada en la pose y posición 3D actuales. (H) Finalmente, usamos la intersección de malla para calcular las regiones de contacto mano-objeto. Haga clic aquí para ver una versión más grande de esta figura.
Antes de comenzar un experimento, los participantes deben dar su consentimiento informado de acuerdo con las directrices institucionales y la Declaración de Helsinki. Todos los protocolos descritos aquí han sido aprobados por el comité de ética local de la Universidad Justus Liebig de Giessen (LEK-FB06).
1. Instalación de todo el software necesario
2. Preparación del sistema de captura de movimiento
3. Calibración de las cámaras
4. Creación de un objeto de estímulo
5. Preparación del objeto de estímulo
6. Co-registro de versiones reales y modelo de malla del objeto de estímulo
7. Colocación de marcadores en las manos
Figura 2: Colocación del marcador en la mano de un participante. Abreviatura: RH = mano derecha. Haga clic aquí para ver una versión más grande de esta figura.
8. Adquisición de un único ensayo
9. Etiquetado de los marcadores
10. Crear una definición de esqueleto personalizada para el participante
11. Reconstruir las posturas de la articulación esquelética articular
12. Generación de reconstrucciones de malla manual
13. Generación de estimaciones de región de contacto mano-objeto
El primer requisito para el método propuesto es un sistema para rastrear con precisión la posición de los objetos y las manos 3D. La configuración específica se muestra en la Figura 1A y utiliza hardware y software producidos por la empresa de captura de movimiento Qualisys. Colocamos un banco de trabajo dentro de un volumen de seguimiento (100 cm x 100 cm x 100 cm), que se visualiza desde múltiples ángulos mediante ocho cámaras de seguimiento y seis cámaras de video dispuestas en un marco cúbico que rodea el espacio de trabajo. Las cámaras de seguimiento rastrean la posición 3D de los marcadores reflectantes dentro del volumen de seguimiento a 180 cuadros / s y con resolución espacial 3D submilimétrica. Empleamos marcadores reflectantes de 4 mm, que se unen a los objetos y las manos utilizando cinta adhesiva de doble cara amigable con la piel. Las posiciones de los marcadores 3D son procesadas por el software de captura de movimiento. La sección de discusión también revisa los sistemas alternativos de captura de movimiento que podrían emplearse con el método propuesto.
Para obtener reconstrucciones 3D precisas de objetos reales que se agarran y manipulan, proponemos dos opciones. La primera, que es la que se adopta aquí, es partir de un modelo de objetos 3D virtual en forma de malla poligonal. Dichos modelos 3D pueden construirse utilizando el software apropiado (por ejemplo, Blender 3D44) y luego imprimirse en 3D (Figura 1B). La segunda opción es tomar un objeto 3D real existente y utilizar la tecnología de escaneo 3D para construir una réplica de modelo de malla del objeto. Cualquiera que sea la estrategia, el objetivo final es obtener tanto un objeto 3D real como el modelo de malla de objetos 3D virtual correspondiente. Cabe destacar que el enfoque descrito aquí funciona solo con objetos rígidos (es decir, no deformables).
Una vez que la superficie 3D de un objeto está disponible como modelo de malla, su posición debe ser rastreada y co-registrada (Figura 1C). Para ello, se adjuntan cuatro marcadores reflectantes no planos a la superficie del objeto real, y el objeto se coloca dentro del volumen de seguimiento. Las posiciones 3D de los marcadores de objetos se capturan brevemente. Esta captura se utiliza para establecer la correspondencia entre los cuatro marcadores y los cuatro vértices del modelo de malla de objetos. Esto se hace utilizando una ruta de software ad hoc simple escrita en la API Python de Blender. Dentro de la ventana gráfica de Blender, el programa presenta el objeto virtual junto con las posiciones del marcador que se representan como un solo objeto de malla compuesto por una esfera para cada marcador. El usuario puede rotar y traducir el objeto y / o los marcadores para alinearlos de tal manera que se alineen con los marcadores reales colocados en el objeto real. El programa registrará las rotaciones y la traslación que se aplican para calcular una sola roto-traslación que finalmente se aplica a la malla del objeto original, proporcionando una malla de objetos que se co-registra con la definición de cuerpo rígido en QTM.
Una vez establecida la correspondencia, cada vez que el objeto real se mueve dentro del volumen de seguimiento, el objeto virtual se puede colocar en la nueva posición calculando la roto-traducción entre los marcadores rastreados y los cuatro vértices de malla correspondientes. Para registrar la dinámica de la empuñadura, un total de 24 marcadores reflectantes esféricos se adjuntan en diferentes puntos de referencia de la mano utilizando cinta de doble cara (Figura 1D y Figura 2).
Al comienzo de una prueba (Figura 1E), un participante coloca su mano plana en el banco de trabajo con la palma hacia abajo y cierra los ojos. El experimentador coloca un objeto objetivo en el banco de trabajo frente al participante. A continuación, una señal auditiva le indica al participante que abra los ojos y ejecute el agarre. En nuestras demostraciones, la tarea es alcanzar y agarrar el objeto objetivo, levantarlo verticalmente aproximadamente 10 cm, colocarlo y devolver la mano a su posición inicial. Un script escrito en Python 3.7 controla el experimento. En cada prueba, el script selecciona y comunica la configuración de condición actual al experimentador (por ejemplo, identidad y posicionamiento del objeto). El guión también controla el tiempo de prueba, incluidas las señales auditivas y el inicio y la parada de las grabaciones de captura de movimiento.
Las extremidades no solo se caracterizan por su posición en el espacio 3D, sino también por su postura. Por lo tanto, para obtener una reconstrucción 3D completa de una mano humana ejecutando un agarre real, requerimos no solo las posiciones de cada articulación en el espacio 3D, sino también la pose relativa (traslación y rotación) de cada articulación con respecto a su articulación madre (Figura 1F). Las posiciones y orientaciones de la articulación esquelética se pueden inferir a partir de las posiciones de los marcadores utilizando cinemática inversa. Para ello, aquí empleamos el solucionador de esqueletos proporcionado por el software QTM. Para que el solucionador funcione, primero debemos proporcionar una definición de esqueleto que vincule la posición y orientación de cada articulación a múltiples posiciones de marcador. Por lo tanto, se construye una definición de esqueleto, y la plataforma de esqueleto se vincula a los datos del marcador utilizando el complemento QTM Connect para Maya. Creamos definiciones de esqueleto personalizadas para cada participante para maximizar la precisión de los ajustes del esqueleto a los datos del marcador. Para cada participante, ajustamos manualmente un esqueleto de mano a un solo cuadro de datos de captura de movimiento. Una vez obtenida una definición de esqueleto específica del participante, ejecutamos el solucionador de esqueletos para estimar las posturas de la articulación esquelética para cada fotograma de cada ensayo en el experimento.
Para cada fotograma de cada ensayo en un experimento, generamos una malla de mano que reconstruye la pose de mano actual utilizando la herramienta de generación de malla manual de código abierto y preentrenada, DeepHandMesh28 (Figura 1G). DeepHandMesh es una red profunda de codificador-decodificador que genera mallas manuales personalizadas a partir de imágenes. Primero, el codificador estima la pose de una mano dentro de una imagen (es decir, los ángulos de Euler conjuntos). Luego, la pose de mano estimada y un vector de identificación personalizado se ingresan en el decodificador, que estima un conjunto de tres correctivos aditivos para una malla de plantilla manipulada. Finalmente, la malla de la plantilla se deforma de acuerdo con la postura de la mano estimada y los correctivos utilizando el pelado de mezcla lineal. El primer correctivo es un correctivo de esqueleto dependiente de ID a través del cual se ajusta la plataforma esquelética para incorporar las posiciones articulares específicas de la persona. Los otros dos correctivos son correctivos de malla a través de los cuales se ajustan los vértices de malla para representar mejor la superficie de la mano del participante. Uno de los correctivos de malla es un correctivo de malla dependiente de ID que explica la estructura de la superficie de la mano de un participante individual. En cambio, el corrector de malla final es un correctivo de vértice dependiente de la pose que explica las deformaciones de la superficie de la mano debido a la postura actual de la mano.
DeepHandMesh se entrena utilizando una supervisión débil con puntos clave conjuntos 2D y mapas de profundidad de escena. Aquí, usamos solo el decodificador DeepHandMesh previamente entrenado para generar reconstrucciones de malla manual, modificadas de las siguientes maneras (Figura 3). En primer lugar, como la red no está capacitada en participantes específicos, se emplea el correctivo de malla genérico dependiente de la identificación proporcionado con el modelo preentrenado (Figura 3A). Además, el correctivo de esqueleto dependiente de ID se deriva utilizando el solucionador de esqueletos QTM como se describió anteriormente (Figura 3B). Se asume la escala proporcional de la mano con la longitud del esqueleto, y el grosor de la malla se escala uniformemente por un factor derivado de la escala relativa del esqueleto tal que la malla se aproxima mejor al tamaño de la mano del participante (Figura 3C). Esta malla modificada se introduce en el decodificador, junto con la postura actual de la mano (derivada de los datos del marcador) y la posición y orientación 3D de la muñeca. El decodificador, por lo tanto, calcula el correctivo dependiente de la pose actual, aplica todos los correctivos y las rototraducciones, y genera una reconstrucción de malla manual 3D de la pose de mano actual en el mismo marco de coordenadas que la malla de objetos rastreados 3D (Figura 3D).
Figura 3: Modificaciones en el decodificador DeepHandMesh previamente entrenado . (A) Correctivo de malla fijo y genérico dependiente de la identificación. (B) correctivo del esqueleto dependiente de ID derivado a través de cinemática inversa en el paso 10. (C) El tamaño de la malla de mano se escala por el mismo factor que las articulaciones esqueléticas. (D) Reconstrucción final de malla de mano 3D de la pose de mano actual. Haga clic aquí para ver una versión más grande de esta figura.
Después de haber reconstruido modelos de malla 3D tanto para la mano de un participante como para un objeto agarrado, las regiones de contacto mano-objeto se pueden estimar calculando la intersección entre la mano y las mallas del objeto (Figura 1H). La suposición detrás de esto es que la mano real se deforma por contacto con la superficie, lo que significa que el esqueleto puede acercarse a la superficie de lo que sería posible si la mano fuera rígida, lo que permite que partes de la malla de la mano pasen a través de la malla del objeto. Como resultado, las áreas de contacto se pueden aproximar como las regiones de superposición entre las dos mallas.
Específicamente, para calcular estas regiones de superposición, definimos los vértices de malla de objetos que están contenidos dentro del volumen 3D de la malla manual como en contacto con la mano. Estos vértices se identifican utilizando un enfoque estándar de trazadode rayos 45. Para cada vértice de la malla del objeto, se proyecta un rayo desde ese vértice a un punto 3D arbitrario fuera de la malla de mano. Luego evaluamos el número de intersecciones que ocurren entre el rayo fundido y los triángulos que componen la superficie de la mano. Si el número de intersecciones es impar, el vértice del objeto está contenido dentro de la malla de mano. Si el número de intersecciones es par, entonces el vértice del objeto está fuera de la malla de mano. Las regiones de contacto en la superficie del objeto pueden, por lo tanto, aproximarse como el conjunto de caras triangulares cuyos vértices están todos contenidos dentro de la malla de la mano. Podemos aplicar el mismo razonamiento a los vértices de la malla de mano contenidos en el volumen 3D de la malla de objetos para estimar las regiones de contacto en la superficie de la mano. En particular, también podrían utilizarse enfoques más avanzados para las operaciones de malla booleana31.
El video 1 muestra un video de una mano, puntos rastreados y malla co-registrada, todos moviéndose uno al lado del otro durante un solo agarre a una figura de gato impresa en 3D. En cambio, la Figura 4A muestra un solo marco en el momento del contacto mano-objeto desde un agarre a un croissant impreso en 3D, junto con las reconstrucciones de malla mano-objeto (Figura 4B) y las regiones de contacto estimadas en la superficie del croissant (Figura 4C).
Figura 4: Regiones estimadas de contacto mano-objeto. (A) Mano y objeto rastreados vistos desde una de las cámaras de seguimiento durante un agarre. (B) Malla de mano reconstruida y malla de objetos rastreados renderizados desde el mismo punto de vista que la cámara de rastreo. (C) Regiones de contacto en la superficie del objeto visto desde múltiples puntos de vista. Haga clic aquí para ver una versión más grande de esta figura.
Video 1: Reconstrucciones de malla de la mano y el objeto. Animación Gif de la mano, marcadores rastreados y las reconstrucciones de malla de manos y objetos durante un solo agarre visto desde el mismo punto de vista de la cámara. Haga clic aquí para descargar este video.
Proponemos un método que permite la estimación de regiones de contacto para interacciones mano-objeto durante agarres de varios dígitos. Como el seguimiento completo de toda la superficie de una mano es actualmente intratable, proponemos usar una reconstrucción de una malla de mano cuya postura está determinada por puntos clave dispersos en la mano. Para rastrear estos puntos clave dispersos, nuestra solución emplea un sistema de captura de movimiento de grado de investigación basado en el seguimiento pasivo de marcadores. Por supuesto, otros sistemas de captura de movimiento también podrían emplearse con el método propuesto, siempre que produzcan datos de posición 3D suficientemente precisos. Desaconsejamos los sistemas de captura de movimiento de marcadores activos (como el popular pero descontinuado Optotrak Certus), ya que requieren conectar cables y / o dispositivos electrónicos a las manos de los participantes, lo que puede restringir los movimientos o al menos producir agarres menos típicos a medida que los participantes son más conscientes de la pose de sus manos. Los guantes de seguimiento de movimiento que utilizan unidades de medición inercial pueden ser una posibilidad, aunque se sabe que estos sistemas sufren de deriva, también pueden restringir los movimientos de la mano y no permiten que la superficie de la mano entre en contacto total y directo con las superficies del objeto. Las soluciones comerciales de seguimiento manual sin marcadores (por ejemplo, el Leap Motion46,47,48) también pueden ser una posibilidad, aunque puede que no sea posible rastrear las posiciones de los objetos solo con estos sistemas. La opción alternativa más prometedora a un sistema de captura de movimiento de grado de investigación está dada por soluciones de seguimiento sin marcadores de código abierto (por ejemplo, Mathis et al.28). Si se utilizan con múltiples cámaras co-registradas49, tales sistemas podrían rastrear las posiciones de las articulaciones de la mano y las posiciones de los objetos en 3D sin la necesidad de marcadores, guantes o cables. Sin embargo, estas soluciones, así como este sistema basado en marcadores, pueden sufrir problemas de pérdida de datos debido a oclusiones.
Limitaciones y direcciones futuras
Como las reconstrucciones a mano obtenidas a través de este método no serán completamente precisas, existen algunas limitaciones en los tipos de experimentos para los que se debe usar el método. Las desviaciones en las reconstrucciones de malla manual de la verdad del suelo se manifestarán en desviaciones en las regiones estimadas de contacto mano/objeto. Por lo tanto, la aplicación de este método para derivar medidas absolutas requeriría evaluar la fidelidad de las estimaciones de la región de contacto. Sin embargo, incluso las estimaciones aproximadas pueden ser útiles en diseños experimentales dentro del participante porque es probable que los posibles sesgos del método afecten diferentes condiciones experimentales dentro de un participante de manera similar. Por lo tanto, los análisis estadísticos y las inferencias deben realizarse solo en medidas tales como las diferencias en el área de contacto entre las condiciones, donde la dirección de un efecto se correlacionará con la verdad del terreno respectiva. En futuras investigaciones, planeamos validar aún más nuestro enfoque, por ejemplo, comparando las estimaciones de la región de contacto con las huellas térmicas en objetos cubiertos de pintura termocrómica.
La mayoría de los pasos de procesamiento desde la recopilación de datos hasta la estimación final de la región de contacto están completamente automatizados y, por lo tanto, ofrecen contribuciones importantes hacia un procedimiento estandarizado para la estimación de la región de contacto mano-objeto. Sin embargo, un ajuste inicial de los esqueletos individualizados a las posiciones 3D de los marcadores rastreados aún debe realizarse manualmente para obtener una definición de esqueleto para cada participante. A medida que aumenta el número de participantes para un experimento, también lo hace el número de ajustes manuales, y este es actualmente el paso que más tiempo consume en el procedimiento y requiere cierta familiaridad con el aparejo manual en el software Autodesk Maya. En el futuro, nuestro objetivo es automatizar este paso para evitar la influencia humana en el procedimiento mediante la adición de un procedimiento automático de calibración del esqueleto.
El flujo de trabajo descrito aquí se basa en el hardware y software de Qualisys (por ejemplo, el solucionador de esqueleto QTM). Esto actualmente limita la accesibilidad de nuestro método a laboratorios que tienen una configuración similar. En principio, sin embargo, el método se puede aplicar a cualquier fuente de datos de captura de movimiento. Para ampliar la accesibilidad, en el trabajo en curso, estamos explorando alternativas que deberían generalizar nuestro flujo de trabajo y hacerlo menos dependiente de licencias específicas de hardware y software.
Otra limitación importante del método es que, en su forma actual, solo se puede aplicar a objetos rígidos (no deformables). En el futuro, esta limitación podría superarse utilizando métodos para registrar la forma de la superficie del objeto agarrado a medida que se deforma. Además, debido a su naturaleza aproximada, el método no es actualmente adecuado para objetos muy pequeños o delgados.
En conclusión, al integrar el seguimiento de movimiento de última generación con el modelado de superficie de la mano de alta fidelidad, proporcionamos un método para estimar las regiones de contacto mano-objeto durante el agarre y la manipulación. En futuras investigaciones, planeamos implementar este método para investigar y modelar el comportamiento de agarre guiado visualmente en humanos16. Además, planeamos integrar estas herramientas con el seguimiento ocular 46,50,51,52 y sistemas de realidad virtual / aumentada 53,54,55 para investigar el control motor de movimiento visual guiado de manos y ojos en entornos naturalistas reales y virtuales 18,46,56,57 . Por estas razones, el método propuesto podría ser de interés para los investigadores que estudian la percepción háptica58, el control motor y la interacción humano-computadora en realidad virtual y aumentada. Finalmente, las mediciones precisas de las habilidades de agarre humanas podrían informar el diseño de sistemas robóticos robustos basados en los principios de la percepción interactiva 39,40,41,42,43 y pueden tener aplicaciones traslacionales para prótesis de extremidades superiores.
Los autores declaran que no existen intereses contrapuestos.
Esta investigación fue financiada por Deutsche Forschungsgemeinschaft (DFG, Fundación Alemana de Investigación: proyecto No. 222641018-SFB / TRR 135 TP C1 e IRTG-1901 "El cerebro en acción") y por el Grupo de Investigación "La mente adaptativa" financiado por el Programa de Excelencia del Ministerio de Educación Superior, Ciencia, Investigación y Arte de Hesse. Los autores agradecen al equipo de soporte de Qualisy, incluidos Mathias Bankay y Jeffrey Thingvold, por su ayuda en el desarrollo de nuestros métodos. Los autores también agradecen a Michaela Jeschke por hacerse pasar por la modelo de mano. Todos los datos y guiones de análisis para reproducir el método y los resultados presentados en el manuscrito están disponibles en Zenodo (doi: 10.5281/zenodo.7458911).
Name | Company | Catalog Number | Comments |
Anaconda Python distribution | (Anaconda 5.3.1 or later); https://repo.anaconda.com/archive/ | scripts and functions were generated in Python version 3.7 | |
Autodesk Maya | Autodesk, Inc. | Maya2022; https://www.autodesk.com/products/maya/overview | 3D computer graphics application. |
Blender | Blender Foundation | Blender 2.92; https://download.blender.org/release/ | 3D computer graphics application. |
Computer Workstation | N/A | N/A | OS: Windows 10 or higher. |
DeepHandMesh | Meta Platforms, Inc. (Meta Open Source) | https://github.com/facebookresearch/DeepHandMesh | Pre-trained hand mesh generation tool. |
Miqus M5 | Qualisys Ab | https://www.qualisys.com/cameras/miqus/ | Passive marker motion tracking camera (8 units). |
Miqus video camera | Qualisys Ab | https://www.qualisys.com/cameras/miqus-video/ | Color video camera, synchronized with Miquis M5 tracking cameras (6 units). |
Project repository | N/A | Data and Code Repository | Data and code to replicate the current project. The repository is currently under construction, but we provide a private link where reviewers can download the current and most up-to-date version of the repository. The final repository will be made publicly available upon acceptance. |
Python 3 | Python Software Foundation | Python Version 3.7 | Python3 and associated built-in libraries. |
QTM Connect for Maya | Qualisys Ab | https://github.com/qualisys/QTM-Connect-For-Maya | Stream skeleton, rigid bodies and marker data from QTM to Maya |
QTM Qualisys Track Manager | Qualisys Ab | Qualisys Track Manager 2021.2; https://www.qualisys.com/software/qualisys-track-manager/ | Motion capture software |
Qualisys SDK for Python | Qualisys Ab | https://github.com/qualisys/qualisys_python_sdk | Implements communication between QTM and Python |
Solicitar permiso para reutilizar el texto o las figuras de este JoVE artículos
Solicitar permisoThis article has been published
Video Coming Soon
ACERCA DE JoVE
Copyright © 2025 MyJoVE Corporation. Todos los derechos reservados