JoVE Logo

Anmelden

Zum Anzeigen dieser Inhalte ist ein JoVE-Abonnement erforderlich. Melden Sie sich an oder starten Sie Ihre kostenlose Testversion.

In diesem Artikel

  • Zusammenfassung
  • Zusammenfassung
  • Einleitung
  • Protokoll
  • Ergebnisse
  • Diskussion
  • Offenlegungen
  • Danksagungen
  • Materialien
  • Referenzen
  • Nachdrucke und Genehmigungen

Zusammenfassung

Dieses Protokoll beschreibt die technische Einstellung einer entwickelten Mixed-Reality-Anwendung, die für immersive Analysen verwendet wird. Darauf aufbauend werden Maßnahmen vorgestellt, die in einer Studie eingesetzt wurden, um Erkenntnisse über Usability-Aspekte der entwickelten technischen Lösung zu gewinnen.

Zusammenfassung

In der Medizin oder Industrie wird zunehmend die Analyse von hochdimensionalen Datensätzen gefordert. Verfügbare technische Lösungen sind jedoch oft komplex in der Anwendung. Daher sind neue Ansätze wie Immersive Analytics willkommen. Immersive Analytics verspricht, hochdimensionale Datensätze auf komfortable Weise für verschiedene Benutzergruppen und Datensätze zu erleben. Technisch werden Virtual-Reality-Geräte verwendet, um immersive Analysen zu ermöglichen. In der Industrie 4.0 sind beispielsweise Szenarien wie die Identifikation von Ausreißern oder Anomalien in hochdimensionalen Datensätzen verfolgte Ziele der Immersive Analytics. In diesem Zusammenhang sollten zwei wichtige Fragen für jede entwickelte technische Lösung zu Immersive Analytics beantwortet werden: Erstens, sind die technischen Lösungen hilfreich oder nicht? Zweitens: Ist die körperliche Erfahrung der technischen Lösung positiv oder negativ? Die erste Frage zielt auf die generelle Machbarkeit einer technischen Lösung ab, die zweite auf den Tragekomfort. Überlieferte Studien und Protokolle, die sich systematisch mit diesen Fragen befassen, sind noch selten. In dieser Arbeit wird ein Studienprotokoll vorgestellt, das vor allem die Nutzbarkeit für immersive Analytics in Industrie 4.0-Szenarien untersucht. Konkret basiert das Protokoll auf vier Säulen. Erstens kategorisiert es Benutzer basierend auf früheren Erfahrungen. Zum anderen werden Aufgaben vorgestellt, anhand derer die Machbarkeit der technischen Lösung bewertet werden kann. Drittens werden Maßnahmen vorgestellt, die den Lerneffekt eines Nutzers quantifizieren. Viertens bewertet ein Fragebogen das Stressniveau bei der Durchführung von Aufgaben. Basierend auf diesen Säulen wurde ein technisches Setting implementiert, das Mixed-Reality-Datenbrillen verwendet, um das Studienprotokoll anzuwenden. Die Ergebnisse der durchgeführten Studie zeigen zum einen die Anwendbarkeit des Protokolls und zum anderen die Machbarkeit von Immersive Analytics in Industrie 4.0-Szenarien. Das vorgestellte Protokoll enthält eine Diskussion der entdeckten Einschränkungen.

Einleitung

Virtual-Reality-Lösungen (VR-Lösungen) gewinnen in verschiedenen Bereichen zunehmend an Bedeutung. Oft soll mit VR-Lösungen (u.a. Virtual Reality, Mixed Reality und Augmented Reality) die Erledigung vieler alltäglicher Aufgaben und Abläufe erleichtert werden. Im Automotive-Bereich kann beispielsweise der Konfigurationsprozess eines Autos durch den Einsatz von Virtual Reality1 (VR) unterstützt werden. Forscher und Praktiker haben in diesem Zusammenhang eine Vielzahl von Ansätzen und Lösungen untersucht und entwickelt. Studien, die Usability-Aspekte untersuchen, sind jedoch noch selten. Generell sollten die Aspekte im Lichte von zwei Hauptfragen betrachtet werden. Zunächst muss bewertet werden, ob eine VR-Lösung tatsächlich besser abschneidet als ein Ansatz, der keine VR-Techniken nutzt. Zweitens, da VR-Lösungen hauptsächlich auf schwere und komplexe Hardware-Geräte angewiesen sind, sollten Parameter wie der Tragekomfort und die mentale Anstrengung genauer untersucht werden. Darüber hinaus sollten die genannten Aspekte immer im Hinblick auf das jeweilige Anwendungsgebiet untersucht werden. Obwohl viele bestehende Ansätze die Notwendigkeit sehen, diese Fragen zu untersuchen2, gibt es weniger Studien, die Ergebnisse vorgelegt haben.

Ein Forschungsthema im Bereich VR, das aktuell wichtig ist, wird mit Immersive Analytics bezeichnet. Es leitet sich aus dem Forschungsfeld Visual Analytics ab, das versucht, die menschliche Wahrnehmung in analytische Aufgaben einzubeziehen. Dieser Prozess ist auch als Visual Data Mining4 bekannt. Immersive Analytics umfasst Themen aus den Bereichen Datenvisualisierung, Visual Analytics, Virtual Reality, Computergrafik und Mensch-Computer-Interaktion5. Die jüngsten Vorteile von Head-Mounted-Displays (HMD) führten zu verbesserten Möglichkeiten, Daten auf immersive Weise zu erkunden. Entlang dieser Trends ergeben sich neue Herausforderungen und Forschungsfragen, wie die Entwicklung neuer Interaktionssysteme, die Notwendigkeit, die Ermüdung der Nutzer zu untersuchen, oder die Entwicklung anspruchsvoller 3D-Visualisierungen6. In einer früheren Veröffentlichung6 werden wichtige Prinzipien der immersiven Analytik diskutiert. Angesichts von Big Data werden Methoden wie Immersive Analytics immer mehr benötigt, um komplexe Datenbestände besser analysieren zu können. Es gibt nur wenige Studien, die Usability-Aspekte von Immersive-Analytics-Lösungen untersuchen. Darüber hinaus sollte auch die betreffende Domäne oder das betreffende Fachgebiet in solchen Studien berücksichtigt werden. In dieser Arbeit wurde ein Immersive-Analytics-Prototyp entwickelt und darauf aufbauend ein Protokoll, das die entwickelte Lösung für Industrie 4.0-Szenarien untersucht. Das Protokoll bedient sich dabei der Erfahrungsmethode2, die auf subjektiven, leistungsbezogenen und physiologischen Aspekten basiert. Im vorliegenden Protokoll werden die subjektiven Aspekte anhand des wahrgenommenen Stresses der Studienteilnehmer gemessen. Die Leistung wiederum wird anhand der erforderlichen Zeit und der Fehler gemessen, die zur Durchführung von Analyseaufgaben auftreten. Schließlich maß ein Hautleitfähigkeitssensor physiologische Parameter. Die ersten beiden Messungen werden in dieser Arbeit vorgestellt, während die gemessene Hautleitfähigkeit weitere Anstrengungen erfordert, um ausgewertet zu werden.

Die vorgestellte Studie umfasst mehrere Forschungsfelder, insbesondere neurowissenschaftliche Aspekte und Informationssysteme. Interessanterweise haben Überlegungen zu neurowissenschaftlichen Aspekten von Informationssystemen in jüngster Zeit die Aufmerksamkeit mehrerer Forschungsgruppen auf sich gezogen7,8, was die Notwendigkeit zeigt, die Nutzung von IT-Systemen auch aus kognitiver Sicht zu untersuchen. Ein weiteres Gebiet, das für diese Arbeit relevant ist, stellt die Untersuchung der menschlichen Faktoren der Informationssysteme 9,10,11 dar. Im Bereich der Mensch-Computer-Interaktion existieren Instrumente, um die Nutzbarkeit einer Lösung zu untersuchen. Beachten Sie, dass in diesem Zusammenhang hauptsächlich die System Usability Scale verwendet wird12. Thinking Aloud Protokolle13 sind eine weitere weit verbreitete Lerntechnik, um mehr über den Einsatz von Informationssystemen zu erfahren. Obwohl es viele Ansätze gibt, um Usability-Aspekte von Informationssystemen zu messen, und einige von ihnen vor langer Zeit vorgestellt wurden14, tauchen immer noch Fragen auf, die es erfordern, neue Maßnahmen oder Untersuchungsmethoden zu untersuchen. Daher ist die Forschung auf diesem Gebiet sehr aktiv12,15,16.

Im Folgenden sollen die Gründe diskutiert werden, warum zwei vorherrschend eingesetzte Methoden in der vorliegenden Arbeit nicht berücksichtigt wurden. Erstens wurde die System Usability Scale nicht verwendet. Die Skala basiert auf zehn Fragen17 und ihre Verwendung findet sich auch in mehreren anderen VR-Studien18. Da diese Studie hauptsächlich auf die Messung von Stress19 abzielt, war ein stressbezogener Fragebogen besser geeignet. Zweitens wurde kein Thinking Aloud Protocol20 verwendet. Obwohl sich dieser Protokolltyp im Allgemeinen als nützlich erwiesen hat13, wurde er hier nicht verwendet, da der Stresspegel der Studienteilnehmer nur aufgrund der Tatsache steigen könnte, dass die Think-Aloud-Sitzung parallel zur Verwendung eines schweren und komplexen VR-Geräts durchgeführt werden muss. Obwohl diese beiden Techniken nicht verwendet wurden, wurden die Ergebnisse anderer neuerer Studien in die vorliegende Studie einbezogen. Zum Beispiel unterscheiden die Autoren in früheren Werken21,22 in ihren Studien zwischen Anfängern und Experten. Basierend auf dem erfolgreichen Ergebnis dieser Studien verwendet das vorliegende Protokoll diese vorgestellte Trennung der Studienteilnehmer. Die Spannungsmessung wiederum basiert auf Ideen der folgenden Arbeiten 15,19,21,22.

Für die Durchführung der Studie muss zunächst ein geeignetes Industrie-4.0-Szenario zur Bewältigung der analytischen Aufgaben gefunden werden. Inspiriert von einer anderen Arbeit der Autoren23 wurden zwei Szenarien (d.h. die Analyseaufgaben) identifiziert, (1) Erkennung von Ausreißern und (2) Erkennung von Clustern. Beide Szenarien sind anspruchsvoll und im Zusammenhang mit der Instandhaltung von Hochdurchsatz-Produktionsmaschinen von hoher Relevanz. Basierend auf dieser Entscheidung haben sechs Hauptüberlegungen das in dieser Arbeit vorgestellte Studienprotokoll bestimmt:

  1. Die für die Studie entwickelte Lösung wird technisch auf Mixed-Reality-Datenbrillen basieren (siehe Materialtabelle) und als Mixed-Reality-Anwendung entwickelt.
  2. Es muss ein geeigneter Test entwickelt werden, der in der Lage ist, Anfänger von fortgeschrittenen Anwendern zu unterscheiden.
  3. Leistungskennzahlen sollten Zeit und Fehler berücksichtigen.
  4. Es muss eine Desktop-Anwendung entwickelt werden, die mit der Immersive-Analytics-Lösung vergleichbar ist.
  5. Es muss ein Maß angewendet werden, um das wahrgenommene Stressniveau zu bewerten.
  6. Zusätzlich zu letzterem Punkt sollen Funktionen entwickelt werden, um das Stressniveau zu mindern, während ein Benutzer die Prozedur der beiden genannten Analyseaufgaben (d.h. (1) Erkennung von Ausreißern und (2) Erkennung von Clustern) durchführt.

Basierend auf den sechs genannten Punkten beinhaltet das Studienprotokoll die folgende Vorgehensweise. Die Aufgaben der Ausreißererkennung und der Clustererkennung müssen mit Hilfe von Mixed-Reality-Datenbrillen immersiv durchgeführt werden (siehe Materialtabelle). Daher wurde eine neue Anwendung entwickelt. Raumgeräusche sollen die Durchführung von Analyseaufgaben erleichtern, ohne die geistige Anstrengung zu erhöhen. Eine Sprachfunktion soll die Navigation erleichtern, die für die entwickelte Anwendung der Mixed-Reality-Datenbrille verwendet wird (siehe Tabelle der Materialien). Ein mentaler Rotationstest soll die Grundlage sein, um Anfänger von fortgeschrittenen Benutzern zu unterscheiden. Der Stresspegel wird anhand eines Fragebogens gemessen. Die Leistung wiederum wird basierend auf der (1) Zeit, die ein Benutzer für die Analyseaufgaben benötigt, und auf der Grundlage der (2) Fehler, die ein Benutzer für die Analyseaufgaben gemacht hat, bewertet. Die Leistung in Mixed-Reality-Smartglass wird mit der Erfüllung der gleichen Aufgaben in einer neu entwickelten und vergleichbaren 2D-Desktop-Anwendung verglichen. Darüber hinaus wird ein Hautleitfähigkeitsgerät verwendet, um den Hautleitwert als möglichen Indikator für Stress zu messen. Die Ergebnisse dieser Messung sind Gegenstand weiterer Analysen und werden in dieser Arbeit nicht diskutiert. Die Autoren zeigten in einer anderen Studie mit dem gleichen Gerät, dass zusätzliche Überlegungen erforderlich sind24.

Basierend auf diesem Protokoll werden die folgenden fünf Forschungsfragen (RQs) bearbeitet:

RQ1: Beeinflussen die räumlichen Vorstellungsfähigkeiten der Teilnehmer signifikant die Erfüllung von Aufgaben?
RQ2: Gibt es im Laufe der Zeit eine signifikante Veränderung der Aufgabenleistung?
RQ3: Gibt es eine signifikante Änderung der Aufgabenleistung bei der Verwendung von räumlichen Klängen in der Immersive Analytics-Lösung?
RQ4: Wird die entwickelte immersive Analytik von den Anwendern als stressig empfunden?
RQ5: Erzielen Benutzer eine bessere Leistung bei der Verwendung einer immersiven Analyselösung als bei einem 2D-Ansatz?

Abbildung 1 fasst das vorgestellte Protokoll in Bezug auf zwei Skalen zusammen. Er zeigt die entwickelten und angewandten Maßnahmen und deren Neuheit in Bezug auf die Interaktionsebene. Da die Interaktionsebene einen wichtigen Aspekt bei der Entwicklung von Features für ein VR-Setting darstellt, soll Abbildung 1 die Neuheit des gesamten in dieser Arbeit entwickelten Protokolls besser zeigen. Obwohl die Bewertung der Aspekte innerhalb der beiden verwendeten Skalen subjektiv ist, basiert ihre Gesamtbewertung auf den aktuellen Arbeiten und den folgenden wesentlichen Überlegungen: Ein wichtiges Prinzip stellt die Nutzung von Abstraktionen einer Umgebung für eine natürliche Interaktion dar, auf die sich der Benutzer eingestellt hat. In Bezug auf das vorliegende Protokoll scheint die Visualisierung von Punktwolken für den Benutzer intuitiv zu sein und das Erkennen von Mustern in solchen Wolken wurde allgemein als überschaubare Aufgabe erkannt. Ein weiteres wichtiges Prinzip ist die Überlagerung von Affordancen. Ein Beispiel hierfür ist die Verwendung von räumlichen Klängen, wie sie im vorliegenden Protokoll verwendet werden, da sie mit der Nähe eines gesuchten Objekts korrelieren. Die Autoren empfehlen, die Darstellungen so abzustimmen, dass sich die meisten Informationen in der Zwischenzone befinden, die für die menschliche Wahrnehmung am wichtigsten ist. Der Grund, warum die Autoren dieses Prinzip nicht aufgenommen haben, war, den Benutzer zu ermutigen, den besten Platz selbst zu finden und zu versuchen, sich in einem Datenvisualisierungsraum zu orientieren, der zu groß ist, um sofort angezeigt zu werden. Bei dem vorgestellten Ansatz wurden keine weiteren Überlegungen zu den Eigenschaften der darzustellenden 3D-Daten angestellt. Wenn z. B. angenommen wird, dass eine Dimension zeitlich ist, können Streudiagramme angezeigt werden. Die Autoren halten diese Art der Visualisierung im Kontext von Industrie 4.0 generell für interessant. Es muss sich jedoch auf eine relativ kleine Anzahl von Visualisierungen konzentrieren. Darüber hinaus konzentrierte sich bereits eine frühere Veröffentlichung auf die kollaborative Analyse von Daten. In dieser Arbeit wurde diese Forschungsfrage aufgrund der Komplexität der anderen in dieser Studie behandelten Themen ausgeschlossen. In dem hier vorgestellten Setup ist der Benutzer in der Lage, den immersiven Raum zu erkunden, indem er herumläuft. Andere Ansätze bieten Controller, um den virtuellen Raum zu erkunden. In dieser Studie wird der Fokus auf die Usability mit Hilfe der System Usability Scale (SUS) gelegt. Eine andere frühere Veröffentlichung hat eine Studie für Wirtschaftsexperten durchgeführt, jedoch mit VR-Brillen. Im Allgemeinen, und das ist das Wichtigste, beklagt sich diese Studie über das eingeschränkte Sichtfeld für andere Geräte wie die in dieser Arbeit verwendeten Mixed-Reality-Datenbrillen (siehe Materialtabelle). Ihre Ergebnisse zeigen, dass Einsteiger im Bereich VR in der Lage waren, das Analysewerkzeug effizient zu nutzen. Dies stimmt mit den Erfahrungen dieser Studie überein, obwohl in dieser Arbeit Anfänger nicht als VR- oder Gaming-Erfahrungen eingestuft wurden. Im Gegensatz zu den meisten VR-Lösungen ist Mixed Reality nicht an eine Position gebunden, da sie es ermöglicht, die reale Umgebung zu verfolgen. VR-Ansätze wie die Verwendung von speziellen Stühlen für ein 360°-Erlebnis, um den Nutzer von seinem Desktop zu befreien. Die Autoren von weisen darauf hin, dass Wahrnehmungsprobleme die Leistung von immersiven Analysen beeinflussen. Zum Beispiel durch die Verwendung von Schatten. Für die vorliegende Studie ist dies nicht realisierbar, da die verwendeten Mixed-Reality-Datenbrillen (siehe Materialtabelle) keine Schatten darstellen können. Ein Workaround könnte ein virtueller Boden sein, aber ein solches Setup lag außerhalb des Rahmens dieser Studie. Eine Umfragestudie im Bereich der immersiven Analytik identifizierte 3D-Streudiagramme als eine der häufigsten Darstellungen mehrdimensionaler Daten. Insgesamt können die in Abbildung 1 gezeigten Aspekte derzeit nicht zu einem Protokoll zusammengestellt werden, das Usability-Aspekte von Immersive Analytics für Industrie-4.0-Szenarien untersucht.

Protokoll

Alle Materialien und Methoden wurden von der Ethikkommission der Universität Ulm genehmigt und nach den genehmigten Richtlinien durchgeführt. Alle Teilnehmer gaben ihre schriftliche Einverständniserklärung ab.

1. Etablierung eines geeigneten Studienumfelds

HINWEIS: Die Studie wurde in einer kontrollierten Umgebung durchgeführt, um mit der komplexen Hardware-Umgebung fertig zu werden. Den Studienteilnehmern wurden die verwendeten Mixed-Reality-Datenbrillen (siehe Materialverzeichnis) und der Laptop für die 2D-Anwendung erläutert.

  1. Überprüfen Sie die technische Lösung vor jedem Teilnehmer; im Standardmodus eingestellt. Bereiten Sie die Fragebögen vor und legen Sie sie neben einen Teilnehmer.
  2. Lassen Sie die Teilnehmer Aufgaben aus den Anwendungsfällen Ausreißererkennung und Clustererkennung in einer Sitzung lösen (d. h. die durchschnittliche Zeit betrug 43 Minuten).
  3. Beginnen Sie die Studie, indem Sie die Teilnehmer begrüßen und das Ziel der Studie sowie den Gesamtablauf vorstellen.
  4. Teilnehmer, die das Hautleitfähigkeitsmessgerät (siehe Materialtabelle) verwenden, müssen eine kurze Ruhephase einhalten, um eine Basismessung zu erhalten. Nur die Hälfte der Teilnehmer nutzte dieses Gerät.
  5. Alle Teilnehmer müssen vor Beginn des Experiments den Fragebogen31 zum State-Trait Anxiety Inventory (STAI) ausfüllen.
    1. Als nächstes müssen die Teilnehmer den mentalen Rotationstest durchführen (siehe Abbildung 4, dieser Test bewertete die räumlichen Vorstellungsfähigkeiten), der die Grundlage für die Unterscheidung von High von Low Performer war (High Performer sind fortgeschrittene Benutzer, während Low Performer Anfänger sind), gefolgt von dem räumlichen Klangtest, um die räumlichen Hörfähigkeiten eines Teilnehmers zu messen.
      HINWEIS: Eine mediane Aufteilung der Testergebnisse im mentalen Rotationstest32 wurde verwendet, um niedrige von leistungsstarken Personen zu unterscheiden.
  6. Trennen Sie die Teilnehmer nach dem Zufallsprinzip in zwei Gruppen. Beginnen Sie entweder mit der Aufgabe zur Ausreißererkennung oder Clustererkennung, während Sie anschließend mit dem anderen Anwendungsfall fortfahren. Für die Cluster-Erkennungsaufgabe begann die Hälfte der Teilnehmer zunächst mit der verwendeten Mixed-Reality-Datenbrille (siehe Materialtabelle) und nutzte dann die 2D-Anwendung, während die andere Hälfte zunächst mit der 2D-Anwendung begann und dann die Mixed-Reality-Datenbrille nutzte (siehe Materialtabelle). Wählen Sie für die Aufgabe zur Erkennung von Ausreißern nach dem Zufallsprinzip eine Gruppe aus, die akustische Unterstützung erhält, während der andere Teil der Gruppe keine akustische Unterstützung erhält.
  7. Zum Abschluss der Sitzung müssen die Teilnehmer den Fragebogen31 des State-Trait Anxiety Inventory (STAI) sowie den selbst entwickelten und einen demographischen Fragebogen erneut beantworten.
  8. Speichern Sie die generierten Daten, die von jeder entwickelten Anwendung automatisch aufgezeichnet wurden, auf dem Speicher des Laptops, nachdem die Sitzung abgeschlossen wurde.

2. Studienprotokoll für Teilnehmer

  1. Bereiten Sie das Experiment (siehe Abbildung 2 für den Raum des Experiments) für jeden Teilnehmer vor. Präsentieren Sie den Desktop-PC, die verwendeten Mixed-Reality-Datenbrillen und verteilen Sie die Fragebögen.
  2. Informieren Sie die Teilnehmer darüber, dass das Experiment 40 bis 50 Minuten dauern wird und dass die Hälfte von ihnen nach den Vortests (siehe Punkte 3-6 des Studienprotokolls) zunächst mit dem Ausreißer-Erkennungstest (siehe Punkt 7 des Studienprotokolls) beginnt, gefolgt vom Cluster-Erkennungstest (siehe Punkt 8 des Studienprotokolls), während die anderen diese beiden Tests umgekehrt durchführen (d. h. Punkt 8 des Studienprotokolls vor Punkt 7).
  3. Entscheiden Sie nach dem Zufallsprinzip, ob eine Hautleitfähigkeitsmessung durchgeführt wird. Falls dies der Fall ist, bereiten Sie das Hautleitfähigkeitsmessgerät33 vor und weisen Sie den Teilnehmer an, das Gerät anzulegen. Fordern Sie von den Teilnehmern eine kurze Ruhephase an, um eine Basismessung für ihr Stressniveau zu erhalten.
  4. Bitten Sie die Teilnehmer, den Fragebogen31 (State-Trait Anxiety Inventory) auszufüllen und sie darüber zu informieren, dass er den aktuell wahrgenommenen Stress vor dem Experiment misst.
  5. Führen Sie einen mentalen Rotationstest durch.
    1. Informieren Sie die Teilnehmer darüber, dass ihre mentalen Rotationsfähigkeiten bewertet werden, und führen Sie sie vor einen Desktop-Computer. Informieren Sie die Teilnehmer über den Testablauf. Beachten Sie, dass sie ähnliche Objekte identifizieren mussten, die unterschiedliche Positionen in einem simulierten 3D-Raum hatten.
    2. Informieren Sie die Teilnehmer, dass nur zwei der fünf gezeigten Objekte ähnlich sind und dass sie für den gesamten Test 2 Minuten Zeit haben. Informieren Sie die Teilnehmer, dass sieben Aufgaben innerhalb der vorgegebenen 2 Minuten erledigt werden können, und teilen Sie ihnen mit, dass für jede erledigte Aufgabe Leistungskennzahlen aufgezeichnet werden.
  6. Bewerten Sie räumliche Klangfähigkeiten.
    1. Informieren Sie die Teilnehmer, dass ihre räumlichen Klangfähigkeiten bewertet werden, und führen Sie sie vor einen Desktop-Computer. Informieren Sie die Teilnehmer über den Testablauf. Erklären Sie den Teilnehmern, dass sechs Klangbeispiele erkannt werden müssen, die jeweils 13 Sekunden lang abgespielt werden.
    2. Informieren Sie die Teilnehmer, dass sie die Richtung (analog zu den vier Himmelsrichtungen) erkennen müssen, aus der der Schall kommt.
  7. Bewerten Sie die Fähigkeiten zur Erkennung von Ausreißern.
    1. Fordern Sie die Teilnehmer auf, die Mixed-Reality-Smartglasses aufzusetzen. Erklären Sie ihnen, dass Ausreißer in der Welt gefunden werden müssen, die für die Mixed-Reality-Smartglasses geschaffen wurde.
    2. Informieren Sie sie weiter, dass ein Ausreißer ein rot markierter Punkt ist, alle anderen Punkte sind weiß markiert. Erklären Sie ihnen dann, dass sie ihren Blick auf den rot gefärbten Punkt richten müssen, um ihn zu erkennen.
    3. Informieren Sie die Teilnehmer weiter, dass nicht nur visuelle Hilfe geleistet wird, sondern auch Umgebungsgeräusche sie dabei unterstützen, Ausreißer zu finden. Geben Sie den Teilnehmern die Information, dass sie 8 Ausreißeraufgaben zu bewältigen haben, was bedeutet, dass 8 Mal in der virtuellen Welt der rot eingefärbte Punkt gefunden werden muss. Für jeden Teilnehmer sind 4 Aufgaben sound-unterstützt, während 4 Aufgaben sound-ununterstützt sind. Für jeden Teilnehmer wird zufällig ausgewählt, ob er eine Aufgabe soundgestützt startet oder nicht. Abhängig von der ersten Aufgabe wechselt es dann von Aufgabe zu Aufgabe, ob eine fundierte Unterstützung geleistet wird oder nicht.
    4. Teilen Sie den Teilnehmern mit, welche Informationen aufgezeichnet werden: benötigte Zeit für jede Aufgabe, Länge des Gehens und wie ihre endgültige Bewegungsposition in Bezug auf ihre Ausgangsposition aussieht. Sagen Sie den Teilnehmern schließlich, dass der rot markierte Punkt grün wird, wenn er erkannt wurde (siehe Abbildung 3).
  8. Bewerten Sie die Fähigkeiten zur Clustererkennung.
    1. Entscheiden Sie nach dem Zufallsprinzip für den Teilnehmer, ob er zuerst die Mixed-Reality-Datenbrille verwendet oder den Teilnehmer an einen Desktop-Computer führt. Im Folgenden wird nur die Vorgehensweise für das Mixed-Reality-Setting beschrieben. Startet ein Teilnehmer zunächst mit dem Desktop-Computer, ist die Vorgehensweise in geänderter Reihenfolge gleich und bis auf die Sprachbefehle werden diese nur bei Verwendung der Mixed-Reality-Lösung zur Verfügung gestellt.
    2. Für Teilnehmer, die Mixed Reality nutzen: Bitten Sie die Teilnehmer, die Mixed-Reality-Smartglasses aufzusetzen. Informieren Sie die Teilnehmer, wie sie Cluster in der Welt finden können, die mit den verwendeten Mixed-Reality-Smartglasses erstellt wurden. Betonen Sie den Teilnehmern, dass sie zwischen überlappenden Clustern unterscheiden mussten, indem sie sich um sie herum bewegten.
    3. Für Teilnehmer, die Mixed Reality nutzen: Erklären Sie den Teilnehmern, dass sie mit Sprachbefehlen in der virtuellen Welt und in den Clustern navigieren können. Sagen Sie den Teilnehmern schließlich, dass sie sechs Cluster erkennen mussten.
    4. Für Teilnehmer, die Mixed Reality verwenden: Fordern Sie die Teilnehmer auf, die verwendeten Mixed-Reality-Smartglasses zu entfernen. Führen Sie die Teilnehmer zu einem Desktop-Computer und fordern Sie sie auf, die auf dem Bildschirm des Desktop-Computers angezeigte Software zu verwenden. Informieren Sie sie, dass die gleiche Art von Clustern wie in den verwendeten Mixed-Reality-Smartglasses mit der Software auf dem Desktop-Computer erkannt werden musste (siehe Abbildung 7 und Abbildung 8).
  9. Bitten Sie die Teilnehmer, drei Fragebögen auszufüllen, nämlich den Fragebogen 31 (State-Trait Anxiety Inventory)31, einen selbst entwickelten Fragebogen zum Sammeln von subjektivem Feedback und einen demografischen Fragebogen, um Informationen über sie zu sammeln.
  10. Fordern Sie die Teilnehmer auf, das Hautleitfähigkeitsmessgerät33 zu entfernen, wenn sie zu Beginn aufgefordert wurden, es anzulegen.
  11. Entlasten Sie die Teilnehmer vom Experiment, indem Sie sich für die Teilnahme bedanken.

Ergebnisse

Einrichten von Maßnahmen für das Experiment
Für die Aufgabe zur Erkennung von Ausreißern wurden die folgenden Leistungskennzahlen definiert: Zeit, Pfad und Winkel. Die Messungen sind in Abbildung 6 dargestellt.

Es wurde Zeit aufgezeichnet, bis ein rot markierter Punkt (d. h. der Ausreißer) gefunden wurde. Dieses Leistungsmaß gibt an, wie lange ein Teilnehmer brauchte, um den rot markierten Punkt zu finden. Die Zeit wird in den Ergebnissen...

Diskussion

Im Hinblick auf die entwickelte Mixed-Reality-Datenbrille (siehe Materialtabelle) waren zwei Aspekte besonders vorteilhaft. Die Verwendung von Raumgeräuschen für die Detektionsaufgabe des Ausreißers wurde einerseits positiv wahrgenommen (siehe Ergebnisse von RQ3). Zum anderen wurde auch die Verwendung von Sprachbefehlen positiv wahrgenommen (siehe Abbildung 10).

Was die Studienteilnehmer betrifft, so war die Zahl der rekrutierten Teilnehmer zwa...

Offenlegungen

Die Autoren haben nichts zu offenbaren.

Danksagungen

Die Autoren haben nichts anzuerkennen.

Materialien

NameCompanyCatalog NumberComments
edaMovemovisens
HoloLensMicrosoft
Matlab R2017aMathWorks
RPY2GNU General Public License v2 or later (GPLv2+) (GPLv2+)https://pypi.org/project/rpy2/
SPSS 25.0IBM

Referenzen

  1. Korinth, M., Sommer-Dittrich, T., Reichert, M., Pryss, R. Design and Evaluation of a Virtual Reality-Based Car Configuration Concept. Science and Information Conference. , 169-189 (2019).
  2. Whalen, T. E., Noël, S., Stewart, J. Measuring the human side of virtual reality. IEEE International Symposium on Virtual Environments, Human-Computer Interfaces and Measurement Systems, 2003. , 8-12 (2003).
  3. Martens, M. A., et al. It feels real: physiological responses to a stressful virtual reality environment and its impact on working memory. Journal of Psychopharmacology. 33 (10), 1264-1273 (2019).
  4. Keim, D. A. Information visualization and visual data mining. IEEE transactions on Visualization and Computer Graphics. 8 (1), 1-8 (2002).
  5. Dwyer, T., et al. Immersive analytics: An introduction. Immersive analytics. , 1-23 (2018).
  6. Moloney, J., Spehar, B., Globa, A., Wang, R. The affordance of virtual reality to enable the sensory representation of multi-dimensional data for immersive analytics: from experience to insight. Journal of Big Data. 5 (1), 53 (2018).
  7. Davis, F. D., Riedl, R., Vom Brocke, J., Léger, P. M., Randolph, A. B. . Information Systems and Neuroscience. , (2018).
  8. Huckins, J. F., et al. Fusing mobile phone sensing and brain imaging to assess depression in college students. Frontiers in Neuroscience. 13, 248 (2019).
  9. Preece, J., et al. . Human-computer interaction. , (1994).
  10. Card, S. K. . The psychology of human-computer interaction. , (2018).
  11. Pelayo, S., Senathirajah, Y. Human factors and sociotechnical issues. Yearbook of Medical Informatics. 28 (01), 078-080 (2019).
  12. Bangor, A., Kortum, P., Miller, J. Determining what individual SUS scores mean: adding an adjective rating scale. Journal of Usability Studies. 4 (3), 114-123 (2009).
  13. Krahmer, E., Ummelen, N. Thinking about thinking aloud: A comparison of two verbal protocols for usability testing. IEEE Transactions on Professional Communication. 47 (2), 105-117 (2004).
  14. Hornbæk, K. Current practice in measuring usability: Challenges to usability studies and research. International Journal of Human-Computer Studies. 64 (2), 79-102 (2006).
  15. Peppa, V., Lysikatos, S., Metaxas, G. Human-Computer interaction and usability testing: Application adoption on B2C websites. Global Journal of Engineering Education. 14 (1), 112-118 (2012).
  16. Alwashmi, M. F., Hawboldt, J., Davis, E., Fetters, M. D. The iterative convergent design for mobile health usability testing: mixed-methods approach. JMIR mHealth and uHealth. 7 (4), 11656 (2019).
  17. System Usability Scale (SUS). Assistant Secretary for Public Affairs Available from: https://www.hhs.gov/about/agencies/aspa/how-to-and-tools/methods/system-usability-scale.html (2013)
  18. Fang, Y. M., Lin, C. The Usability Testing of VR Interface for Tourism Apps. Applied Sciences. 9 (16), 3215 (2019).
  19. Pryss, R., et al. Exploring the Time Trend of Stress Levels While Using the Crowdsensing Mobile Health Platform, TrackYourStress, and the Influence of Perceived Stress Reactivity: Ecological Momentary Assessment Pilot Study. JMIR mHealth and uHealth. 7 (10), 13978 (2019).
  20. Zugal, S., et al. Investigating expressiveness and understandability of hierarchy in declarative business process models. Software & Systems Modeling. 14 (3), 1081-1103 (2015).
  21. Schobel, J., et al. Learnability of a configurator empowering end users to create mobile data collection instruments: usability study. JMIR mHealth and uHealth. 6 (6), 148 (2018).
  22. Schobel, J., Probst, T., Reichert, M., Schickler, M., Pryss, R. Enabling Sophisticated Lifecycle Support for Mobile Healthcare Data Collection Applications. IEEE Access. 7, 61204-61217 (2019).
  23. Hoppenstedt, B., et al. Dimensionality Reduction and Subspace Clustering in Mixed Reality for Condition Monitoring of High-Dimensional Production Data. Sensors. 19 (18), 3903 (2019).
  24. Winter, M., Pryss, R., Probst, T., Reichert, M. Towards the Applicability of Measuring the Electrodermal Activity in the Context of Process Model Comprehension: Feasibility Study. Sensors. 20, 4561 (2020).
  25. Butscher, S., Hubenschmid, S., Müller, J., Fuchs, J., Reiterer, H. Clusters, trends, and outliers: How immersive technologies can facilitate the collaborative analysis of multidimensional data. Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems. , 1-12 (2018).
  26. Wagner Filho, J. A., Rey, M. F., Freitas, C. M. D. S., Nedel, L. Immersive analytics of dimensionally-reduced data scatterplots. 2nd Workshop on Immersive Analytics. , (2017).
  27. Batch, A., et al. There is no spoon: Evaluating performance, space use, and presence with expert domain users in immersive analytics. IEEE Transactions on Visualization and Computer Graphics. 26 (1), 536-546 (2019).
  28. Towards hmd-based immersive analytics. HAL Available from: https://hal.archives-ouvertes.fr/hal-01631306 (2017)
  29. Luboschik, M., Berger, P., Staadt, O. On spatial perception issues in augmented reality based immersive analytics. Proceedings of the 2016 ACM Companion on Interactive Surfaces and Spaces. , 47-53 (2016).
  30. Fonnet, A., Prié, Y. Survey of Immersive Analytics. IEEE Transactions on Visualization and Computer. , (2019).
  31. Spielberger, C. D., Gorsuch, R. L., Lushene, R. E. STAI Manual for the Stait-Trait Anxiety Inventory (self-evaluation questionnaire). Consulting Psychologist. 22, 1-24 (1970).
  32. Vandenberg, S. G., Kuse, A. R. Mental rotations, a group test of three-dimensional spatial visualization. Perceptual Motor Skills. 47 (2), 599-604 (1978).
  33. Härtel, S., Gnam, J. P., Löffler, S., Bös, K. Estimation of energy expenditure using accelerometers and activity-based energy models-Validation of a new device. European Review of Aging and Physical Activity. 8 (2), 109-114 (2011).
  34. . RPY2: A Simple and Efficient Access to R from Python Available from: https://sourceforge.net/projects/rpy/ (2020)
  35. Hoppenstedt, B., et al. Applicability of immersive analytics in mixed reality: Usability study. IEEE Access. 7, 71921-71932 (2019).
  36. Hoppenstedt, B. Applicability of Immersive Analytics in Mixed Reality: Usability Study. IEEE Dataport. , (2019).

Nachdrucke und Genehmigungen

Genehmigung beantragen, um den Text oder die Abbildungen dieses JoVE-Artikels zu verwenden

Genehmigung beantragen

Weitere Artikel entdecken

EngineeringAusgabe 164Immersive AnalyticsMixed RealitySpatial SoundsVisual AnalyticsSmartglassesUsabilityStresslevelLearnability

This article has been published

Video Coming Soon

JoVE Logo

Datenschutz

Nutzungsbedingungen

Richtlinien

Forschung

Lehre

ÜBER JoVE

Copyright © 2025 MyJoVE Corporation. Alle Rechte vorbehalten