概要

Utilizzo della disuguaglianza del modello di gara per quantificare gli effetti di integrazione multisensoriali comportamentali

Published: May 10, 2019
doi:

概要

Lo studio attuale mira a fornire un tutorial passo-passo per calcolare l’entità degli effetti di integrazione multisensoriale nel tentativo di facilitare la produzione di studi di ricerca traslazionale in diverse popolazioni cliniche.

Abstract

La ricerca sull’integrazione multisensoriale studia il modo in cui il cervello elabora informazioni sensoriali simultanee. La ricerca sugli animali (principalmente gatti e primati) e sugli esseri umani rivela che l’integrazione multisensoriale intatta è fondamentale per il funzionamento nel mondo reale, comprese le attività cognitive e fisiche. Gran parte della ricerca condotta negli ultimi decenni documenta gli effetti dell’integrazione multisensoriale utilizzando diverse tecniche psicofisiche, elettrofisiologiche e di neuroimaging. Mentre la sua presenza è stata segnalata, i metodi utilizzati per determinare l’entità degli effetti di integrazione multisensoriale variano e in genere affronta molte critiche. In quello che segue, vengono descritte le limitazioni degli studi comportamentali precedenti e viene fornita un tutorial passo-passo per calcolare la grandezza degli effetti di integrazione multisensoriale utilizzando modelli di probabilità robusti.

Introduction

Le interazioni tra sistemi sensoriali sono essenziali per le funzioni quotidiane. Mentre gli effetti di integrazione multisensoriale sono misurati su una vasta gamma di popolazioni utilizzando combinazioni sensoriali assortite e diversi approcci neuroscientifici [inclusi, ma non limitati, alla psicofisica, elettrofisiologica e neuroimaging metodologie]1,2,3,4,5,6,7,8,9, attualmente un gold standard per l’integrazione multisensoriale. Dato che gli esperimenti multisensoriali in genere contengono una componente comportamentale, i dati del tempo di reazione (RT) vengono spesso esaminati per determinare l’esistenza di un fenomeno noto chiamato effetto segnali ridondanti10. Come suggerisce il nome, i segnali sensoriali simultanei forniscono informazioni ridondanti, che in genere producono RT più veloci. Race e modelli di co-attivazione vengono utilizzati per spiegare il suddetto effetto di segnali ridondanti11. Sotto i modelli di gara, il segnale unisensoriale che viene elaborato il più veloce è il vincitore della gara ed è responsabile della produzione della risposta comportamentale. Tuttavia, le prove della co-attivazione si verificano quando le risposte agli stimoli multisensoriali sono più rapide di quanto previsto dai modelli di gara.

Le versioni precedenti del modello di gara sono intrinsecamente controverse12,13 in quanto sono indicate da alcuni come eccessivamente conservatrici14,15 e presumibilmente contengono limitazioni per quanto riguarda l’indipendenza tra i tempi di rilevamento unisensoriale costitutivo inerenti alla condizione multisensoriale16. Nel tentativo di affrontare alcune di queste limitazioni, Colonius & Diederich16 sviluppò un test più convenzionale del modello di gara:

Equation 1,

dove le frequenze cumulative di distribuzione (CDF) delle condizioni unisensoriali (ad esempio, A & B; con un limite superiore di uno) sono confrontate con la CDF della condizione multisensoriale simultanea (ad esempio, AB) per una determinata latenza (t)11, 16 , 17. In generale, un CDF determina la frequenza con cui si verifica un RT, all’interno di un determinato intervallo di RT, diviso per il numero totale di presentazioni di stimolo (cioè prove). Se il CDF della condizione Equation 2 multisensoriale effettiva è minore o uguale al CDF previsto derivato dalle condizioni unisensorie

Equation 3,

allora il modello di gara è accettato e non ci sono prove di integrazione sensoriale. Tuttavia, quando la CDF multisensoriale è maggiore della CDF prevista derivata dalle condizioni unisensoriali, il modello di gara viene rifiutato. Il rifiuto del modello di gara indica che le interazioni multisensoriali da fonti sensoriali ridondanti si combinano in modo non lineare, con conseguente accelerazione degli RT (ad esempio, facilitazione RT) a stimoli multisensoriali.

Uno dei principali ostacoli che i ricercatori multisensoriali devono affrontare è come quantificare al meglio gli effetti di integrazione. Ad esempio, nel caso del paradigma multisensoriale comportamentale più basilare, in cui ai partecipanti viene chiesto di eseguire un semplice compito di tempo di reazione, vengono raccolte informazioni relative all’accuratezza e alla velocità. Tali dati multisensoriali possono essere utilizzati al valore facciale o manipolati utilizzando varie applicazioni matematiche, tra cui, ma non solo, la stima della massima probabilità18,19, i CPF11e vari altri Approcci. La maggior parte dei nostri precedenti studi multisensoriali ha impiegato approcci sia quantitativi che probabilistici in cui gli effetti integrativi multisensoriali sono stati calcolati da 1) sottraendo il tempo medio di reazione (RT) a un evento multisensoriale dal tempo di reazione medio ( RT) all’evento unisensoriy più breve, e 2) impiegando CDF per determinare se la facilitazione di RT derivava da interazioni sinergiche facilitate da informazioni sensoriali ridondanti8,20,21, 22 Milia , 23.Tuttavia, la prima metodologia probabilmente non era sensibile alle differenze individuali nei processi integrativi e i ricercatori hanno da allora ipotizzato che la metodologia successiva (cioè i CPF) può fornire un proxy migliore per quantificare la effetti integrativi24.

Gondan e Minakata hanno recentemente pubblicato un tutorial su come testare con precisione la Race Model Inequality (RMI) dal momento che i ricercatori troppo spesso commetteno innumerevoli errori durante le fasi di acquisizione e pre-elaborazione della raccolta e preparazione dei dati RT25. In primo luogo, gli autori ipotizzano che è sfavorevole applicare procedure di taglio dei dati in cui sono impostati determinati limiti minimi e massimi RT a priori. Raccomandano che le risposte lente e omesse siano impostate su infinito, anziché escluse. In secondo luogo, dato che l’RMI può essere violato a qualsiasi latenza, più test t sono spesso utilizzati per testare l’RMI in punti temporali diversi (cioè quantili); purtroppo, questa pratica porta all’aumento dell’errore di tipo I e alla notevole riduzione della potenza statistica. Per evitare questi problemi, si consiglia di testare l’RMI in un intervallo di tempo specifico. Alcuni ricercatori hanno suggerito che ha senso testare il quartile più veloce delle risposte (0-25%)26 o alcune finestre pre-identificate (cioè 10-25%)24,27 come effetti di integrazione multisensoriale sono in genere osservati durante tale intervallo di tempo; Tuttavia, si sostiene che l’intervallo percentile da testare deve essere dettato dal set di dati effettivo (vedere Protocol Section 5). Il problema di basarsi sui dati pubblicati da giovani adulti o simulazioni al computer è che gli adulti più anziani manifestano distribuzioni di RT molto diverse, probabilmente a causa del declino legato all’età nei sistemi sensoriali. I test di significatività del modello di razza devono essere testati solo su porzioni violate (valori positivi) di onda di differenza media di gruppo tra i CF effettivi e quelli previsti della coorte di studio.

A tal fine, è stato dimostrato un effetto protettivo dell’integrazione multisensoriale negli adulti anziani sani utilizzando la prova convenzionale del modello di gara16 e i principi stabiliti da Gondan e colleghi25. Infatti, una maggiore grandezza di RMI visivo-somatosensoriale (un proxy per l’integrazione multisensoriale) è risultato essere collegato per migliorare le prestazioni di equilibrio, una minore probabilità di cadute di incidenti e una maggiore performance dell’andatura spaziale28,29.

L’obiettivo dell’esperimento attuale è quello di fornire ai ricercatori un tutorial passo-passo per calcolare l’entità degli effetti di integrazione multisensoriale utilizzando l’RMI, per facilitare l’aumento della produzione di diversi studi di ricerca traslazionale in tutto molte popolazioni cliniche diverse. Si noti che i dati presentati nello studio attuale provengono da esperimenti visivo-somatosensoriali pubblicati di recente condotti su adulti anziani sani28,29, ma questa metodologia può essere applicata a varie coorti in molti diversi progetti sperimentali, utilizzando una vasta gamma di combinazioni multisensoriali.

Protocol

Tutti i partecipanti hanno fornito un consenso informato scritto alle procedure sperimentali, che sono state approvate dal comitato di revisione istituzionale dell’Albert Einstein College of Medicine. 1. Reclutamento dei partecipanti, criteri di inclusione e consenso Reclutare una coorte relativamente grande di individui di lingua inglese che possono ambulare in modo indipendente e sono liberi da perdite sensoriali significative; disturbi neurologici o psichiatrici attivi che interfe…

Representative Results

Lo scopo di questo studio era quello di fornire un tutorial passo-passo di un approccio metodico per quantificare l’entità degli effetti di integrazione VS, per favorire la pubblicazione di nuovi studi multisensoriali utilizzando simili disegni sperimentali e configurazioni (vedi Figura 1 ). Screenshot di ogni passo e calcolo necessari per derivare la grandezza degli effetti di integrazione multisensoriale, misurati da RMI AUC, sono delineati sopra e illustrati nelle figure 2-8</str…

Discussion

L’obiettivo dello studio attuale era quello di descrivere in dettaglio il processo alla base della creazione di un robusto fenotipo di integrazione multisensoriale. Qui, forniamo i passi necessari e critici necessari per acquisire effetti di integrazione multisensoriale che possono essere utilizzati per prevedere importanti risultati cognitivi e motori basandosi su circuiti neurali simili. Il nostro obiettivo generale era quello di fornire un tutorial passo-passo per calcolare la grandezza dell’integrazione multisensoria…

開示

The authors have nothing to disclose.

Acknowledgements

L’attuale corpus di lavoro è supportato dall’Istituto Nazionale sull’Invecchiamento presso l’Istituto Nazionale della Salute (da K01AG049813 a JRM). Il finanziamento supplementare è stato fornito dal Resnick Gerontology Center dell’Albert Einstein College of Medicine. Un ringraziamento speciale a tutti i volontari e al personale di ricerca per un supporto eccezionale con questo progetto.

Materials

stimulus generator Zenometrics, LLC; Peekskill, NY, USA n/a custom-built
Excel Microsoft Corporation spreadsheet program
Eprime Psychology Software Tools (PST) stimulus presentation software

参考文献

  1. Foxe, J., et al. Auditory-somatosensory multisensory processing in auditory association cortex: an fMRI study. Journal of Neurophysiology. 88 (1), 540-543 (2002).
  2. Molholm, S., et al. Multisensory auditory-visual interactions during early sensory processing in humans: a high-density electrical mapping study. Brain Research: Cognitive Brain Research. 14 (1), 115-128 (2002).
  3. Murray, M. M., et al. Grabbing your ear: rapid auditory-somatosensory multisensory interactions in low-level sensory cortices are not constrained by stimulus alignment. Cerebral Cortex. 15 (7), 963-974 (2005).
  4. Molholm, S., et al. Audio-visual multisensory integration in superior parietal lobule revealed by human intracranial recordings. Journal of Neurophysiology. 96 (2), 721-729 (2006).
  5. Peiffer, A. M., Mozolic, J. L., Hugenschmidt, C. E., Laurienti, P. J. Age-related multisensory enhancement in a simple audiovisual detection task. Neuroreport. 18 (10), 1077-1081 (2007).
  6. Brandwein, A. B., et al. The development of audiovisual multisensory integration across childhood and early adolescence: a high-density electrical mapping study. Cerebral Cortex. 21 (5), 1042-1055 (2011).
  7. Girard, S., Collignon, O., Lepore, F. Multisensory gain within and across hemispaces in simple and choice reaction time paradigms. Experimental Brain Research. 214 (1), 1-8 (2011).
  8. Mahoney, J. R., Li, P. C., Oh-Park, M., Verghese, J., Holtzer, R. Multisensory integration across the senses in young and old adults. Brain Research. 1426, 43-53 (2011).
  9. Foxe, J. J., Ross, L. A., Molholm, S., Stein, B. E. Ch. 38. The New Handbook of Multisensory Processing. , 691-706 (2012).
  10. Kinchla, R. Detecting target elements in multielement arrays: A confusability model. Perception and Psychophysics. 15, 149-158 (1974).
  11. Miller, J. Divided attention: Evidence for coactivation with redundant signals. Cognitive Psychology. 14 (2), 247-279 (1982).
  12. Eriksen, C. W., Goettl, B., St James, J. D., Fournier, L. R. Processing redundant signals: coactivation, divided attention, or what?. Perception and Psychophysics. 45 (4), 356-370 (1989).
  13. Mordkoff, J. T., Yantis, S. An interactive race model of divided attention. Journal of Experimental Psychology: Human Perception and Performance. 17 (2), 520-538 (1991).
  14. Miller, J. Timecourse of coactivation in bimodal divided attention. Perception and Psychophysics. 40 (5), 331-343 (1986).
  15. Gondan, M., Lange, K., Rosler, F., Roder, B. The redundant target effect is affected by modality switch costs. Psychonomic Bulletin Review. 11 (2), 307-313 (2004).
  16. Colonius, H., Diederich, A. The race model inequality: interpreting a geometric measure of the amount of violation. Psychological Review. 113 (1), 148-154 (2006).
  17. Maris, G., Maris, E. Testing the race model inequality: A nonparametric approach. Journal of Mathematical Psychology. 47 (5-6), 507-514 (2003).
  18. Clark, J. J., Yuille, A. L. . Data Fusion for Sensory Information Processing Systems. , (1990).
  19. Ernst, M. O., Banks, M. S. Humans integrate visual and haptic information in a statistically optimal fashion. Nature. 415 (6870), 429-433 (2002).
  20. Mahoney, J. R., Verghese, J., Dumas, K., Wang, C., Holtzer, R. The effect of multisensory cues on attention in aging. Brain Research. 1472, 63-73 (2012).
  21. Mahoney, J. R., Holtzer, R., Verghese, J. Visual-somatosensory integration and balance: evidence for psychophysical integrative differences in aging. Multisensory Research. 27 (1), 17-42 (2014).
  22. Mahoney, J. R., Dumas, K., Holtzer, R. Visual-Somatosensory Integration is linked to Physical Activity Level in Older Adults. Multisensory Research. 28 (1-2), 11-29 (2015).
  23. Dumas, K., Holtzer, R., Mahoney, J. R. Visual-Somatosensory Integration in Older Adults: Links to Sensory Functioning. Multisensory Research. 29 (4-5), 397-420 (2016).
  24. Couth, S., Gowen, E., Poliakoff, E. Using race model violation to explore multisensory responses in older adults: Enhanced multisensory integration or slower unisensory processing. Multisensory Research. 31 (3-4), 151-174 (2017).
  25. Gondan, M., Minakata, K. A tutorial on testing the race model inequality. Attention, Perception & Psychophysics. 78 (3), 723-735 (2016).
  26. Gondan, M. A permutation test for the race model inequality. Behavior Research Methods. 42 (1), 23-28 (2010).
  27. Kiesel, A., Miller, J., Ulrich, R. Systematic biases and Type I error accumulation in tests of the race model inequality. Behavior Research Methods. 39 (3), 539-551 (2007).
  28. Mahoney, J., Cotton, K., Verghese, J. Multisensory Integration Predicts Balance and Falls in Older Adults. Journal of Gerontology: Medical Sciences. , (2018).
  29. Mahoney, J. R., Verghese, J. Visual-Somatosensory Integration and Quantitative Gait Performance in Aging. Frontiers in Aging Neuroscience. 10, 377 (2018).
  30. Yueh, B., et al. Long-term effectiveness of screening for hearing loss: the screening for auditory impairment–which hearing assessment test (SAI-WHAT) randomized trial. Journal of the American Geriatrics Society. 58 (3), 427-434 (2010).
  31. Galvin, J. E., et al. The AD8: a brief informant interview to detect dementia. Neurology. 65 (4), 559-564 (2005).
  32. Galvin, J. E., Roe, C. M., Xiong, C., Morris, J. C. Validity and reliability of the AD8 informant interview in dementia. Neurology. 67 (11), 1942-1948 (2006).
  33. Buschke, H., et al. Screening for dementia with the memory impairment screen. Neurology. 52 (2), 231-238 (1999).

Play Video

記事を引用
Mahoney, J. R., Verghese, J. Using the Race Model Inequality to Quantify Behavioral Multisensory Integration Effects. J. Vis. Exp. (147), e59575, doi:10.3791/59575 (2019).

View Video