arbeiten:evaluation_von_visualisierungen_fuer_ortsabhaengige_eyetracking-daten

Evaluation von Visualisierungen für ortsabhängige Eyetracking-Daten

Thema:
Evaluation von Visualisierungen für ortsabhängige Eyetracking-Daten
Art:
BA
BetreuerIn:
Martin Brockelmann
BearbeiterIn:
René Maget
ErstgutachterIn:
Niels Henze
ZweitgutachterIn:
Michael Lankes
Status:
abgeschlossen
Stichworte:
Eye Tracking, Informationsvisualisierung, Virtuelle Umgebung
angelegt:
2021-05-29
Antrittsvortrag:
2021-07-26
Abgabe:
2022-03-11
Textlizenz:
CC-BY
Codelizenz:
MIT

Hintergrund

Jeder Mensch navigiert täglich durch komplexe dreidimensionale Umgebungen (z. B. als Fußgänger, Autofahrer oder sonstiger Verkehrsteilnehmer, Computer-Spieler oder in der Virtuellen Realität). Gerade in unbekannten Umgebungen kann es dabei jedoch vorkommen, dass man sich verläuft oder sein Ziel nicht (auf Anhieb) findet. In der Spieleindustrie hat sich mit der Game User Research ein ganzer Wissenschaftszweig gebildet, der die Interaktion der Nutzer mit den Spielen auf bestehende Probleme untersucht. Die zumeist verwendeten Werkzeuge sind dabei die Beobachtung des Spielers und des Spielgeschehens, Interviews und die Erhebung von Metriken durch das Spiel (z. B. Position des Spielers, Gesundheit, Verwendung von Gegenständen, etc.) [4, 12]. Eyetracking wird dagegen eher selten verwendet und mit klassischen Mitteln (Heatmaps und Scanpaths) ausgewertet [2]. Da diese Ansätze jedoch den gerade angezeigten Bildschirminhalt ignorieren, eignen sie sich nur zur Evaluation des User Interfaces. Es existieren jedoch auch Forschungsansätze, die die Blickposition auf das an dieser Stelle angezeigte Objekt in der Virtuellen Umgebung übertragen und so tiefer gehende Analysen ermöglichen [1, 3, 5, 7, 11]. Die bloße Analyse, ob der Nutzer ein Objekt gesehen hat, verkennt aber, dass in komplexen dreidimensionalen Umgebungen die Sichtbarkeit und Salienz eines Gegenstandes nicht statisch ist, sondern von der Position und Bewegungsrichtung des Nutzers abhängig ist. So kann es beispielsweise vorkommen, dass ein Nutzer prominent platzierte Gegenstände übersieht, da diese von seiner Position aus nicht oder nur schlecht zu sehen sind, wohingegen ein anderer Nutzer diese von einer anderen Position aus sofort bemerkt. Die Beobachtung von Objekten beeinflusst zudem das Navigationsverhalten: Eine Person, die einen Wegweiser bemerkt hat, wird diesem wahrscheinlich folgen und aufhören die Umgebung planlos nach dem Ziel abzusuchen. Der Zusammenhang zwischen der Position des Betrachters und dessen Blickverhalten wurde bereits erkannt und wird im mobilen Kontext als location aware mobile eye tracking (LA-MET) bezeichnet [6]. Es existieren zudem bereits verschiedene Arbeiten, die verschiedene, jedoch sehr ähnliche Visualisierungen für diesen Zusammenhang vorschlagen [8, 9, 10]. Die Lesbarkeit und der praktische Nutzen dieser Darstellungen wurde jedoch bisher noch nicht untersucht. Es ist zudem zu befürchten, dass die vorgeschlagenen Visualisierungen nur die Daten weniger Teilnehmer übersichtlich anzeigen können.

Zielsetzung der Arbeit

Die Arbeit soll die in der Literatur vorgeschlagenen LA-MET Visualisierungen in einer Nutzerstudie evaluieren und auf mögliche Probleme untersuchen.

Konkrete Aufgaben

  • Erschließung der Literatur
  • Erhebung von Eyetracking-Daten für die Studie
  • Erstellung von Visualisierungen auf Grundlage der erhobenen Eyetracking-Daten
  • Durchführung einer Nutzerstudie zur Evaluation der Visualisierungen
  • Dokumentation der Ergebnisse

Erwartete Vorkenntnisse

3D, GameEngine, EyeTracking

Weiterführende Quellen

[1] Bianconi, F., Filippucci, M., & Felicini, N. (2019). Immersive wayfinding: Virtual reconstruction and eye-tracking for orientation studies inside complex architecture. International Archives of the Photogrammetry, Remote Sensing & Spatial Information Sciences. [2] Chalfoun, P., & Dankoff, J. (2018). Developing actionable biometric insights for production teams. Games User Research, 281-299. [3] Clay, V., König, P., & Koenig, S. (2019). Eye tracking in virtual reality. Journal of Eye Movement Research, 12(1). [4] Drachen, A., & Schubert, M. (2013). Spatial game analytics. In Game Analytics (pp. 365-402). Springer, London. [5] Kepplinger, D., Wallner, G., Kriglstein, S., & Lankes, M. (2020). See, Feel, Move: Player Behaviour Analysis through Combined Visualization of Gaze, Emotions, and Movement. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1-14). [6] Kiefer, P., Straub, F., & Raubal, M. (2012). Towards location-aware mobile eye tracking. In Proceedings of the Symposium on Eye Tracking Research and Applications (pp. 313-316). [7] Maurus, M., Hammer, J. H., & Beyerer, J. (2014). Realistic heatmap visualization for interactive analysis of 3D gaze data. In Proceedings of the Symposium on Eye Tracking Research and Applications (pp. 295-298). [8] Müller-Feldmeth, D., Schwarzkopf, S., Büchner, S. J., Hölscher, C., Kallert, G., von Stülpnagel, R., & Konieczny, L. (2014). Location Dependent Fixation Analysis with Sight Vectors. Locomotion as a Challenge in Mobile Eye Tracking. In ET4S@GIScience (pp. 67-71). [9] Pfeiffer, T., & Memili, C. (2016). Model-based real-time visualization of realistic three-dimensional heat maps for mobile eye tracking and eye tracking in virtual reality. In Proceedings of the Ninth Biennial ACM Symposium on Eye Tracking Research & Applications (pp. 95-102). [10] Simpson, J. (2021). Three-dimensional gaze projection heat-mapping of outdoor mobile eye-tracking data. Interdisciplinary Journal of Signage and Wayfinding, 5(1), 62-82. [11] Tian, P., Wang, Y., Lu, Y., Zhang, Y., Wang, X., & Wang, Y. (2019). Behavior analysis of indoor escape route-finding based on head-mounted vr and eye tracking. In 2019 International Conference on Internet of Things (iThings) (pp. 422-427). IEEE. [12] Wallner, G., & Kriglstein, S. (2015). An introduction to gameplay data visualization. In Game research methods (pp. 231-250).