Summary

Métodos para probar Visual Atención Online

Published: February 19, 2015
doi:

Summary

To replicate laboratory settings, online data collection methods for visual tasks require tight control over stimulus presentation. We outline methods for the use of a web application to collect performance data on two tests of visual attention.

Abstract

Métodos de recolección de datos en línea tienen un atractivo especial para los científicos del comportamiento, ya que ofrecen la promesa de mucho más grande y muestras mucho más datos representativos que normalmente se pueden recoger en los campus universitarios. Sin embargo, antes de que tales métodos pueden ser ampliamente adoptadas, una serie de desafíos tecnológicos debe ser superado – en particular, en experimentos en los que es necesario un estricto control sobre las propiedades de estímulo. Aquí presentamos los métodos de recogida de datos de rendimiento en dos pruebas de la atención visual. Ambas pruebas requieren control sobre el ángulo visual de los estímulos (que a su vez requiere el conocimiento de la distancia de visualización, el tamaño del monitor, resolución de pantalla, etc.) y el momento de los estímulos (como las pruebas involucran ya sea brevemente brilló estímulos o estímulos que mueven a tipos específicos). Los datos recogidos en estas pruebas de más de 1.700 participantes en línea fueron consistentes con los datos recogidos en las versiones basadas en el laboratorio de las mismas pruebas exactas. Estos resultadossugieren que con el cuidado adecuado, las tareas dependientes del tamaño de temporización / estímulo se pueden implementar en los entornos basados ​​en la web.

Introduction

En los últimos cinco años ha habido un aumento del interés en el uso de métodos de recolección de datos en línea de comportamiento. Si bien la gran mayoría de las publicaciones en el dominio de la psicología han utilizado poblaciones sujetas potencialmente no representativos 1 (es decir, principalmente estudiantes universitarios) y con frecuencia razonablemente pequeños tamaños de muestra, así (es decir, por lo general en el rango de decenas de sujetos), métodos en línea ofrecer la promesa de mucho más diversas y más grandes muestras. Por ejemplo, el servicio Mechanical Turk de Amazon ha sido objeto de una serie de estudios recientes, tanto en la descripción de las características de la población "trabajador" y el uso de esta población en la investigación del comportamiento 2-6.

Sin embargo, una preocupación importante relacionada con tales métodos es la relativa falta de control sobre las variables críticas de estímulo. Por ejemplo, en la mayoría de tareas psicofísica visual, los estímulos se describen en términos deángulo visual. El cálculo de ángulos visuales requiere mediciones precisas de distancia de visión, tamaño de pantalla y resolución de la pantalla. Aunque estos parámetros son triviales para medir y controlar en un laboratorio (donde hay un monitor conocido y participantes ven estímulos, mientras que en una mentonera colocado una distancia conocida del monitor), lo mismo no puede decirse de la recopilación de datos en línea. En un entorno en línea, no sólo los participantes inevitablemente utilizar una amplia variedad de monitores de diferentes tamaños con diferentes configuraciones de software, sino que también pueden no tener fácil acceso a los gobernantes / cintas métricas que les permita determinar su tamaño del monitor o tener los conocimientos necesarios para determinar sus ajustes de software y hardware (por ejemplo, frecuencia de actualización, resolución).

Aquí se describe un conjunto de métodos para recopilar datos sobre dos pruebas conocidas de la atención visual – el campo de visión útil (CVU) paradigma 7 y el objeto múltiple seguimiento (MOT) tarea <sup> 8 – evitando al mismo tiempo tanto como sea posible las fuentes de variabilidad que son inherentes en las mediciones en línea. Estas tareas se pueden ejecutar por cualquier participante con una conexión a Internet y un navegador compatible con HTML5. Los participantes que no conocen su tamaño de pantalla se camina a través de un proceso de medición que utiliza elementos comúnmente disponibles de tamaño estándar (es decir, tarjeta de crédito / CD – ver Figura 1).

Los datos sobre estos dos tareas fueron recogidos de más de 1.700 participantes en un curso abierto masivo en línea. Rendimiento medio de esta muestra en línea fue muy consistente con los resultados obtenidos en las medidas basadas en el laboratorio estrictamente controladas de las mismas tareas exactas 9,10. Nuestros resultados son por lo tanto compatible con el creciente cuerpo de literatura que demuestra la eficacia de los métodos de recolección de datos en línea, incluso en tareas que requieren un control específico sobre las condiciones de visión.

Protocol

El protocolo fue aprobado por la junta de revisión institucional de la Universidad de Wisconsin-Madison. Los siguientes pasos se han escrito como una guía para los programadores para replicar el proceso automatizado de la aplicación web se describe. 1. Entrar Participante Instruya a los participantes a utilizar una computadora conectada a Internet y vaya a la aplicación web utilizando un navegador compatible con HTML5: <a href="http://brainandlearning.org/jove" target="_blank"…

Representative Results

Eliminación de las demás Un total de 1.779 participantes completaron la tarea CVU. De ellos, 32 participantes tuvieron umbrales UFOV que eran más de 3 desviaciones estándar de la media, lo que sugiere que no fueron capaces de realizar la tarea con las instrucciones. Como tal, los datos UFOV de estos participantes se retiraron del análisis final, dejando un total de 1.747 participantes. Los datos fueron obtenidos a partir de 1.746 participantes para la tarea MOT…

Discussion

La recolección de datos en línea tiene una serie de ventajas con respecto a la recopilación de datos basada en el laboratorio estándar. Estos incluyen la posibilidad de probar muchas más poblaciones representativas de la piscina de pregrado universitario típico utilizado en el campo, y la capacidad de obtener mucho mayores tamaños de muestras en menos tiempo de lo que se necesita para obtener tamaños de muestra que son un orden de magnitud menor en el laboratorio 1-6 (por ejemplo, los puntos …

Divulgaciones

The authors have nothing to disclose.

Acknowledgements

The authors have nothing to disclose.

Materials

Name of Reagent/ Equipment Company Catalog Number Comments/Description
Computer/tablet N/A N/A It must have an internet connection and an HTML5 compatible browser
CD or credit card N/A N/A May not be needed if participant already knows the monitor size

Referencias

  1. Henrich, J., Heine, S. J., Norenzayan, A. The weirdest people in the world. The Behavioral And Brain Sciences. 33, 61-135 (2010).
  2. Buhrmester, M., Kwang, T., Gosling, S. D. Amazon’s Mechanical Turk: A new source of inexpensive, yet high-quality, data. Perspectives on Psychological Science. 6 (1), 3-5 (2011).
  3. Goodman, J. K., Cryder, C. E., Cheema, A. Data collection in a flat world: the strengths and weaknesses of mechanical turk samples. Journal of Behavioral Decision Making. 26 (3), 213-224 (2013).
  4. Mason, W., Suri, S. Conducting behavioral research on Amazon’s Mechanical Turk. Behavior Research Methods. 44 (1), 1-23 (2012).
  5. Crump, M. J., McDonnell, J. V., Gureckis, T. M. Evaluating Amazon’s Mechanical Turk as a tool for experimental behavioral research. PLoS One. 8, e57410 (1371).
  6. Lupyan, G. The difficulties of executing simple algorithms: why brains make mistakes computers don’t. Cognition. 129, 615-636 (2013).
  7. Ball, K., Owsley, C. The useful field of view test: a new technique for evaluating age-related declines in visual function. J Am Optom Assoc. 64 (1), 71-79 (1993).
  8. Pylyshyn, Z. W., Storm, R. W. Tracking multiple independent targets: Evidence for a parallel tracking mechanism. Spatial Vision. 3 (3), 179-197 (1988).
  9. Dye, M. W. G., Bavelier, D. Differential development of visual attention skills in school-age children. Vision Research. 50 (4), 452-459 (2010).
  10. Green, C. S., Bavelier, D. Enumeration versus multiple object tracking: The case of action video game players. Cognition. 101 (1), 217-245 (2006).
  11. Chengalur, S. N., Rodgers, S. H., Bernard, T. E. Chapter 1. Kodak Company. Ergonomics Design Philosophy. Kodak’s Ergonomic Design for People at Work. , (2004).
  12. Elze, T., Bex, P. P1-7: Modern display technology in vision science: Assessment of OLED and LCD monitors for visual experiments. i-Perception. 3 (9), 621 (2012).
  13. Elze, T., Tanner, T. G. Temporal Properties of Liquid Crystal Displays: Implications for Vision Science Experiments. PLoS One. 7 (9), e44048 (2012).

Play Video

Citar este artículo
Yung, A., Cardoso-Leite, P., Dale, G., Bavelier, D., Green, C. S. Methods to Test Visual Attention Online. J. Vis. Exp. (96), e52470, doi:10.3791/52470 (2015).

View Video