In der aktuellen Arbeit soll unter Verwendung von Kameraaufzeichnungen eine automatisierte Methode zur Generierung virtueller Kampfflugzeugmodelle entwickelt werden, um die Explosionsbelastung in Waffentrainingsszenarien vorherzusagen. Die Schlüsselfrage ist, ob wir den Prozess der Erstellung dieser Modelle für virtuelle Servicemitglieder für eine schnelle Expositionsabschätzung beschleunigen können. In dieser Arbeit werden die neuesten auf maschinellem Lernen basierenden Werkzeuge für die 3D-Schätzung der menschlichen Pose von einer einzigen Kamera verwendet.
Diese Werkzeuge ermöglichen es uns, die Position und Haltung jeder Person in einem Bild zu extrahieren und so den Prozess der Simulation einer Explosionsbelichtung zu rationalisieren. Die Verwendung anderer Sensoren ist schwierig, da die Soldaten in der Ausbildung keine Zeit haben, viele verschiedene Sensoren anzubringen. Eine Kamera kann jedoch problemlos eine militärische Übungseinheit aufzeichnen, so dass unsere Arbeit diese Modalität nutzt, um die Einschränkungen anderer Sensortypen zu überwinden.
Unser BOP-Tool ist das erste Berechnungstool, das die Explosion unseres Drucks auf die Servicemitarbeiter mithilfe von schnell laufenden Modellen vorhersagt, die mit Felddruck- und Sensordaten optimiert sind. Es repliziert systematisch die Haltung und Position der Soldaten während des Waffenfeuers, mit dem Ziel, den Überdruck auf verschiedene anatomische Regionen des Soldaten genau abzuschätzen. Unser Ziel ist es, das aktuelle Strahl- oder Druckwerkzeug zu verbessern und in ein Echtzeit-Strahl-über-Drucküberwachungsprodukt für die Exposition von Akkumulatoren umzuwandeln.
Wir werden auch daran arbeiten, diese Dosis mit der TBA-Reaktion zu korrelieren, um das Verletzungsrisiko zu bewerten.