Meist werden Remote-Usability-Evaluationsmethoden untersucht anhand eines Vergleichs mit einem klassischen Test im Usability Labor. Da die Vorrausetzungen im Labor sich sehr von den Bedingungen eines Remote-Tets unterscheiden scheint es sinnvoller, ähnliche Methoden miteinander zu vergleichen, um Einsichten in Stärken und Schwächen von verschiedene Formen der Remote-Evaluation zu bekommen.
In dieser Arbeit werden zwei Formen der Remote-Usability-Evaluationsmethoden systematisch miteinander verglichen. Die „User Reported Critical Incident“- Methode und ein Online Test mit Loop 11 werden zur Evaluation des gleichen Testobjekts und unter ähnlichen Bedingungen eingesetzt um anschließend anhand verschiedener Kriterien vergleichen zu können. Dazu gehören u.a. Effektivität, Effizienz und Ressourcenbedarf.
Nach Absprache mit dem Betreuer
Nach Absprache mit dem Betreuer
Bolt N., Tulathimutte T. (2010). Remote Research. New York: Rosenfeld Media
Bruun A., Gull P., Hofmeister L. Stage J. (2009). Let Your Useres Do the Testing: A Comparison of Three Remote Asynchronous Usability Testing Methods. Boston: CHI 2009
Martin R., Al Shamari M., Seliaman E., Mayhew P. (2014). Remote Asynchronous Testing: A Cost-Effective Alternative For Website Usability Evaluation. International Journal of Computer and Information Techonology (ISSN: 2279-0764) Volume 03
Castillo J. (1997). The User-Reported Critical Incident Method for Remote Usability Evaluation. Retrieved from http://scholar.lib.vt.edu/theses/available/etd-102798-105851/ [27.10.2014]
Castillo J., Hartson H., Hix D. (1998) Remote Usability Evaluation: Can Users Report Their Own Critical Incidents?. CHI 1998