Summary

Les méthodes pour tester attention visuelle en ligne

Published: February 19, 2015
doi:

Summary

To replicate laboratory settings, online data collection methods for visual tasks require tight control over stimulus presentation. We outline methods for the use of a web application to collect performance data on two tests of visual attention.

Abstract

Les méthodes de collecte de données en ligne ont un attrait particulier pour les spécialistes du comportement, car ils offrent la promesse de beaucoup plus grand et beaucoup plus d'échantillons de données représentatives que peuvent généralement être recueillies sur les campus universitaires. Toutefois, avant que ces méthodes peuvent être largement adopté, un certain nombre de défis technologiques doit être surmontée – en particulier dans les expériences où un contrôle serré sur les propriétés de relance est nécessaire. Ici, nous présentons les méthodes de collecte de données de performance sur deux tests d'attention visuelle. Les deux tests nécessitent le contrôle de l'angle visuel des stimuli (qui à son tour nécessite la connaissance de la distance d'observation, la taille de l'écran, la résolution d'écran, etc.) et le calendrier des stimuli (comme les tests concernent soit brièvement flashé stimuli ou des stimuli qui se déplacent à des taux spécifiques). Les données recueillies sur ces tests de plus de 1 700 participants en ligne étaient cohérents avec les données recueillies dans les versions en laboratoire des mêmes tests exacts. Ces résultatssuggèrent que avec des soins appropriés, tâches dépendantes taille calendrier / de relance peuvent être déployés dans des environnements basés sur le Web.

Introduction

Au cours des cinq dernières années, il ya eu un regain d'intérêt dans l'utilisation des méthodes comportementales en ligne de collecte de données. Alors que la grande majorité des publications dans le domaine de la psychologie ont utilisé populations potentiellement non représentatifs thème 1 (c.-à-principalement étudiants des collèges) et de tailles souvent assez petits échantillons ainsi (ce est à dire, généralement de l'ordre de dizaines de sujets), les méthodes en ligne offrir la promesse d'échantillons beaucoup plus divers et plus. Par exemple, le service Mechanical Turk d'Amazon a fait l'objet d'un certain nombre d'études récentes, à la fois décrire les caractéristiques de la population "travailleur" et l'utilisation de cette population dans la recherche comportementale 2-6.

Toutefois, une préoccupation importante liée à ces méthodes est l'absence relative de contrôle sur les variables critiques de relance. Par exemple, dans la plupart des tâches de psychophysique visuelle, les stimuli sont décrits en termes deangle visuel. Le calcul des angles visuels nécessite des mesures précises de la distance de visualisation, taille de l'écran, et la résolution de l'écran. Bien que ces paramètres sont triviaux de mesurer et de contrôle dans un laboratoire (où il ya un moniteur connu et participants considèrent stimuli alors que dans une mentonnière placé une distance connue de l'écran), le même ne est pas vrai de la collecte de données en ligne. Dans un environnement en ligne, non seulement les participants utiliser inévitablement une grande variété de moniteurs de différentes tailles avec différents paramètres du logiciel, ils peuvent aussi ne pas avoir un accès facile aux dirigeants / mesures de bande qui leur permettrait de déterminer la taille de leur moniteur ou posséder les connaissances nécessaires pour déterminer leurs logiciels et matériels paramètres (par exemple, la fréquence de rafraîchissement, résolution).

Nous décrivons ici un ensemble de méthodes pour recueillir des données sur deux tests bien connus de l'attention visuelle – le champ de vision utile (UFOV) paradigme 7 et le suivi (MOT) tâche objets multiples <sup> 8 – tout en évitant autant que possible les sources de variabilité qui sont inhérents à des mesures en ligne. Ces tâches peuvent être exécutées par tout participant disposant d'une connexion Internet et un navigateur compatible HTML5. Les participants qui ne connaissent pas leur taille de l'écran sont montés à travers un processus de mesure utilisant articles couramment disponibles de taille standard (ce est à dire, la carte de crédit / CD – voir la figure 1).

Les données sur ces deux tâches ont été recueillies auprès de plus de 1700 participants à une ligne Open Course Massive. Performance moyenne de cet échantillon en ligne était très cohérent avec les résultats obtenus dans les mesures à base de laboratoire étroitement contrôlées de exactement les mêmes tâches 9,10. Nos résultats sont donc conformes à la masse croissante de documents démontrant l'efficacité des méthodes de collecte de données en ligne, même dans les tâches qui nécessitent un contrôle spécifique sur les conditions de visualisation.

Protocol

Le protocole a été approuvé par le comité d'examen institutionnel à l'Université de Wisconsin-Madison. Les étapes suivantes ont été écrit comme un guide pour les programmeurs de reproduire le processus automatisé de l'application Web décrit. 1. Connectez-vous Participant Demandez au participant d'utiliser un ordinateur connecté à Internet et accédez à l'application Web en utilisant un navigateur compatible HTML5: <a href="http://brainandlearning…

Representative Results

Retrait des valeurs aberrantes Un total de 1 779 participants ont terminé la tâche UFOV. De ce nombre, 32 participants avaient seuils UFOV qui étaient plus de 3 écarts-types de la moyenne, ce qui suggère qu'ils ne ont pas pu effectuer la tâche en suivant les instructions. En tant que tel, les données UFOV de ces participants ont été retirés de l'analyse finale, laissant un total de 1747 participants. Les données ont été obtenues à partir de 1 7…

Discussion

La collecte de données en ligne a un certain nombre d'avantages par rapport collection standard de données en laboratoire. Il se agit notamment de la possibilité d'échantillonner les populations beaucoup plus représentatif que le collège typique piscine cycle utilisé dans le domaine, et la capacité à obtenir des tailles beaucoup plus d'échantillons en moins de temps qu'il ne faut pour obtenir des tailles d'échantillons qui sont un ordre de grandeur plus petite dans le laboratoire 6.1<…

Disclosures

The authors have nothing to disclose.

Acknowledgements

The authors have nothing to disclose.

Materials

Name of Reagent/ Equipment Company Catalog Number Comments/Description
Computer/tablet N/A N/A It must have an internet connection and an HTML5 compatible browser
CD or credit card N/A N/A May not be needed if participant already knows the monitor size

References

  1. Henrich, J., Heine, S. J., Norenzayan, A. The weirdest people in the world. The Behavioral And Brain Sciences. 33, 61-135 (2010).
  2. Buhrmester, M., Kwang, T., Gosling, S. D. Amazon’s Mechanical Turk: A new source of inexpensive, yet high-quality, data. Perspectives on Psychological Science. 6 (1), 3-5 (2011).
  3. Goodman, J. K., Cryder, C. E., Cheema, A. Data collection in a flat world: the strengths and weaknesses of mechanical turk samples. Journal of Behavioral Decision Making. 26 (3), 213-224 (2013).
  4. Mason, W., Suri, S. Conducting behavioral research on Amazon’s Mechanical Turk. Behavior Research Methods. 44 (1), 1-23 (2012).
  5. Crump, M. J., McDonnell, J. V., Gureckis, T. M. Evaluating Amazon’s Mechanical Turk as a tool for experimental behavioral research. PLoS One. 8, e57410 (1371).
  6. Lupyan, G. The difficulties of executing simple algorithms: why brains make mistakes computers don’t. Cognition. 129, 615-636 (2013).
  7. Ball, K., Owsley, C. The useful field of view test: a new technique for evaluating age-related declines in visual function. J Am Optom Assoc. 64 (1), 71-79 (1993).
  8. Pylyshyn, Z. W., Storm, R. W. Tracking multiple independent targets: Evidence for a parallel tracking mechanism. Spatial Vision. 3 (3), 179-197 (1988).
  9. Dye, M. W. G., Bavelier, D. Differential development of visual attention skills in school-age children. Vision Research. 50 (4), 452-459 (2010).
  10. Green, C. S., Bavelier, D. Enumeration versus multiple object tracking: The case of action video game players. Cognition. 101 (1), 217-245 (2006).
  11. Chengalur, S. N., Rodgers, S. H., Bernard, T. E. Chapter 1. Kodak Company. Ergonomics Design Philosophy. Kodak’s Ergonomic Design for People at Work. , (2004).
  12. Elze, T., Bex, P. P1-7: Modern display technology in vision science: Assessment of OLED and LCD monitors for visual experiments. i-Perception. 3 (9), 621 (2012).
  13. Elze, T., Tanner, T. G. Temporal Properties of Liquid Crystal Displays: Implications for Vision Science Experiments. PLoS One. 7 (9), e44048 (2012).

Play Video

Cite This Article
Yung, A., Cardoso-Leite, P., Dale, G., Bavelier, D., Green, C. S. Methods to Test Visual Attention Online. J. Vis. Exp. (96), e52470, doi:10.3791/52470 (2015).

View Video