Summary

자음과 불요의 간격의 보컬 생성과 관련된 뇌 활동의 fMRI 맵핑

Published: May 23, 2017
doi:

Summary

자음과 불협화음을 듣는 신경 상관 관계는 널리 연구되어 왔지만 자음 및 부조간 간격의 생성과 관련된 신경 메커니즘은 잘 알려져 있지 않습니다. 이 기사에서는 행동 테스트와 fMRI를 간격 확인 및 노래 작업과 결합하여 이러한 메커니즘을 설명합니다.

Abstract

조화와 부조화 인식의 신경 상관 관계는 널리 연구되었지만, 조화와 부조화 생성의 신경 상관은 연구되지 않았다. 음악 제작의 가장 직접적인 방식은 노래이지만, 이미징 관점에서 볼 때, 그것은 모터 활동과 관련되기 때문에 듣기보다 많은 도전 과제를 제시합니다. 음악 간격의 정확한 노래는 각 음을 정확하게 생성하기 위해 청각 피드백 처리와 보컬 모터 제어 간의 통합이 필요합니다. 이 프로토콜은 자음과 불협화음의 보컬 생성과 관련된 신경 활성화를 모니터링 할 수있는 방법을 제시합니다. 청각 감별 테스트와 주어진 간격을 먼저 듣고 재생하는 것과 관련된 4 가지 음악 간격, 즉 자음 2 개와 불협화음 2 개가 자극으로 사용됩니다. 콘서 베터 수준의 모든 여성 보컬 학생들은 기능적 자기 Resonance Imaging (fMRI)을 사용하여 청취 작업을 제어 조건으로 사용합니다. 이러한 방식으로, 모터 및 청각 시스템 모두의 활동이 관찰되었고, 노래 작업 중 보컬 정확도의 척도가 얻어졌다. 따라서 프로토콜을 사용하여 다양한 유형의 인터벌을 노래하거나 필요한 노트를 더 정확하게 노래하는 것과 관련된 활성화를 추적 할 수도 있습니다. 그 결과, 불협화음을 부르는 것은 자음을 발음하는 것보다 청각 및 감각 시스템에서 외부 피드백을 통합하는 신경 메커니즘이 더 많이 참여해야한다는 것을 의미합니다.

Introduction

음악 피치의 특정 조합은 일반적으로 자음으로 인식되며 일반적으로 쾌감과 관련이 있습니다. 다른 조합은 일반적으로 불협화음이라고 불리고 불쾌하거나 미해결 된 감정 1과 관련 됩니다. 문화 화와 훈련이 조화 2 의 인식에 일부 영향을 미친다고 가정하는 것이 현명하게 보일지라도, 자음 및 부조간 간격과 화음의 지각의 차이는 이전에 생각했던 것보다 음악 문화에 크게 의존하지 않는 것으로 나타 났으며 3 심지어 단순한 생물학적 기초 4 , 5 , 6 에서 도출된다. 용어 사전의 모호한 이해를 막기 위해, Terhardt 7 은 음악적 맥락에서의 조화와 달리 감각적 인 조화의 개념을 도입했습니다예를 들어, 조화가 주어진 코드 또는 간격에 대한 응답에 영향을 줄 수 있습니다. 현재의 프로토콜에서는 문맥 의존적 처리에 의한 간섭없이 단지 감각적 인 협상과 관련된 활성화를 단 하나의 분리 된 두 음표 간격 만 사용했다.

순전히 물리적 인 방법으로 조화를 특성화하려는 시도는 Helmholtz 9 에서 시작되었으며, Helmholtz 9 는 불협화음과 관련된 감지 된 거친 정도가 인접한 주파수 구성 요소 간의 충돌에 기인 한 것으로 나타났습니다. 그러나 최근에는 감각적 인 일치가 거칠기의 부재뿐만 아니라 조화와 관련이 있다는 것을 보여주었습니다. 즉, 주어진 음색이나 화음의 부분 음을 들리지 않는 음색과 조화를 이룬다는 것입니다. 낮은 주파수 10 , 11 . 행동 연구는 주관적인 일치가 pu에 의해 실제로 영향을 받는다는 것을 확인합니다.주파수 거리 12 , 13 과 같은 물리적 매개 변수를 사용하지만보다 광범위한 연구를 통해 물리적 현상이인지 된 일치와 불협화음의 차이만을 설명 할 수는 없다는 결론이났다 14 , 15 , 16 , 17 . 그러나 이러한 모든 연구는 다양한 간격이나 코드를들을 때 이러한 차이점을보고합니다. 양전자 방출 단층 촬영 (PET)과 기능적 자기 공명 영상 (fMRI)을 이용한 다양한 연구 결과에 따르면 자음 영역 또는 부조간 간격과 화음 8 , 18 , 19 , 20 중 어느 한쪽을들을 때 활성화되는 대뇌 피질 영역에 중요한 차이가 있음이 밝혀졌습니다. 본 연구의 목적은 차이점을 탐구하는 것이다.자음과 불협화음을 듣기보다는 뇌 활동에서

음악 제작 중에 감각 – 운동 조절에 대한 연구는 일반적으로 악기의 사용을 포함하며, 종종 매우 자주 신경 영상 21 중에 사용하기 위해 수정 된 악기를 제작해야합니다. 그러나 노래는 악기가 인간의 목소리이기 때문에 음악 제작 중에 감각 – 운동 프로세스 분석을위한 적절한 메커니즘을 처음부터 제공하는 것처럼 보이며 보컬 장치는 이미징 22 . 음조 조절 (23) , 음성 모방 ( 24) , 훈련 유발 적응 변화 ( 25 ) 및 외부 피드백 ( 25 ) 의 통합과 같은 노래의 양상과 관련된 신경 메커니즘이 , <s지난 20 년간 여러 연구에서 26 , 27 , 28 , 29 의 주제가 있었지만, 자음과 부조간의 노래 상관 관계는 최근에야 서술되었다. 이를 위해 현재의 논문은 참가자가 자음 및 부조간 간격을 적절하게 인식하도록 고안된 행동 테스트에 대해 설명합니다. 이어서 다양한 자음 부조간을 노래하는 참가자에 대한 fMRI 연구가 이어집니다. fMRI 프로토콜은 비교적 간단하지만 모든 MRI 연구와 마찬가지로 실험을 올바르게 설정하는 데 많은주의를 기울여야합니다. 이 경우 노래 작업 중 머리, 입, 입술의 움직임을 최소화하여 노래의 물리적 행위와 직접적으로 관련이없는 효과의 식별을보다 수월하게하는 것이 특히 중요합니다. 이 방법론은노래로 음악 제작과 관련된 다양한 활동과 관련된 신경 메커니즘을 보여줍니다.

Protocol

이 프로토콜은 Infantil de México "Federico Gómez"병원의 연구, 윤리 및 안전위원회의 승인을 받았습니다. 1. 행동 사전 테스트 모든 예상 참가자가 정상 청력 (옥타브 주파수 -8,000 Hz 이상에서 20 dB 청력 레벨 (HL))을 유지하는지 확인하기 위해 표준 순수 톤 청력 검사를 수행하십시오. Edinburgh Handedness Inventory 31 을 사용하여 모든 참가자가 오른 손잡이…

Representative Results

우리 실험의 11 명 참가자 모두는 보컬 레벨의 여성 보컬 학생들이었으며 스캔을 위해 선택한 간격 인식 작업을 충분히 수행했습니다. 간격 식별 작업의 성공률은 예상대로 65.82 ± 21.67 % 였고, 불협화음과 자음 간격을 식별하는 성공률보다 낮은 74.82 ± 14.15 %였다. 연구의 기본 설계를 검증하기 위해 우리는 이전의 많은 연?…

Discussion

이 작품은 노래가 자음과 불협화음을 만드는 동안 두뇌 활동을 연구하는 수단으로 사용되는 프로토콜을 설명합니다. 비록 노래가 음악 간격 (22) 의 생산을위한 가장 단순한 방법 일 수 있지만, 이는 화음의 생성을 허용하지 않는다. 그러나, 비록 조화 개념의 대부분의 물리적 특성화가 어느 정도는 동시 음의 중첩에 의존하지만, 많은 연구에 따르면 자음 또는 ?…

Divulgations

The authors have nothing to disclose.

Acknowledgements

저자는 Secretaría de Salud de México (HIM / 2011 / 058 SSA. 1009), CONACYT (SALUD-2012-01-182160) 및 DGAPA UNAM (PAPIIT IN109214)에서이 연구에 대한 재정 지원을 인정합니다.

Materials

Achieva 1.5-T magnetic resonance scanner Philips Release 6.4
Audacity Open source 2.0.5
Audio interface  Tascam US-144MKII 
Audiometer Brüel & Kjaer Type 1800
E-Prime Professional Psychology Software Tools, Inc. 2.0.0.74
Matlab Mathworks R2014A
MRI-Compatible Insert Earphones Sensimetrics S14
Praat Open source 5.4.12
Pro audio condenser microphone Shure SM93
SPSS Statistics IBM 20
Statistical Parametric Mapping Wellcome Trust Centre for Neuroimaging 8

References

  1. Burns, E., Deutsch, D. . Intervals, scales, and tuning. The psychology of music. , 215-264 (1999).
  2. Lundin, R. W. Toward a cultural theory of consonance. J. Psychol. 23, 45-49 (1947).
  3. Fritz, T., Jentschke, S., et al. Universal recognition of three basic emotions in music. Curr. Biol. 19, 573-576 (2009).
  4. Schellenberg, E. G., Trehub, S. E. Frequency ratios and the discrimination of pure tone sequences. Percept. Psychophys. 56, 472-478 (1994).
  5. Trainor, L. J., Heinmiller, B. M. The development of evaluative responses to music. Infant Behav. Dev. 21 (1), 77-88 (1998).
  6. Zentner, M. R., Kagan, J. Infants’ perception of consonance and dissonance in music. Infant Behav. Dev. 21 (1), 483-492 (1998).
  7. Terhardt, E. Pitch, consonance, and harmony. J. Acoust. Soc. America. 55, 1061 (1974).
  8. Minati, L., et al. Functional MRI/event-related potential study of sensory consonance and dissonance in musicians and nonmusicians. Neuroreport. 20, 87-92 (2009).
  9. Helmholtz, H. L. F. . On the sensations of tone. , (1954).
  10. McDermott, J. H., Lehr, A. J., Oxenham, A. J. Individual differences reveal the basis of consonance. Curr. Biol. 20, 1035-1041 (2010).
  11. Cousineau, M., McDermott, J. H., Peretz, I. The basis of musical consonance as revealed by congenital amusia. Proc. Natl. Acad. Sci. USA. 109, 19858-19863 (2012).
  12. Plomp, R., Levelt, W. J. M. Tonal Consonance and Critical Bandwidth. J. Acoust. Soc. Am. 38, 548-560 (1965).
  13. Kameoka, A., Kuriyagawa, M. Consonance theory part I: Consonance of dyads. J. Acoust. Soc. Am. 45, 1451-1459 (1969).
  14. Tramo, M. J., Bharucha, J. J., Musiek, F. E. Music perception and cognition following bilateral lesions of auditory cortex. J. Cogn. Neurosci. 2, 195-212 (1990).
  15. Schellenberg, E. G., Trehub, S. E. Children’s discrimination of melodic intervals. Dev. Psychol. 32 (6), 1039-1050 (1996).
  16. Peretz, I., Blood, A. J., Penhune, V., Zatorre, R. J. Cortical deafness to dissonance. Brain. 124, 928-940 (2001).
  17. Mcdermott, J. H., Schultz, A. F., Undurraga, E. A., Godoy, R. A. Indifference to dissonance in native Amazonians reveals cultural variation in music perception. Nature. 535, 547-550 (2016).
  18. Blood, A. J., Zatorre, R. J., Bermudez, P., Evans, A. C. Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nat. Neurosci. 2, 382-387 (1999).
  19. Pallesen, K. J., et al. Emotion processing of major, minor, and dissonant chords: A functional magnetic resonance imaging study. Ann. N. Y. Acad. Sci. 1060, 450-453 (2005).
  20. Foss, A. H., Altschuler, E. L., James, K. H. Neural correlates of the Pythagorean ratio rules. Neuroreport. 18, 1521-1525 (2007).
  21. Limb, C. J., Braun, A. R. Neural substrates of spontaneous musical performance: An fMRI study of jazz improvisation. PLoS ONE. 3, (2008).
  22. Zarate, J. M. The neural control of singing. Front. Hum. Neurosci. 7, 237 (2013).
  23. Larson, C. R., Altman, K. W., Liu, H., Hain, T. C. Interactions between auditory and somatosensory feedback for voice F0 control. Exp. Brain Res. 187, 613-621 (2008).
  24. Belyk, M., Pfordresher, P. Q., Liotti, M., Brown, S. The neural basis of vocal pitch imitation in humans. J. Cogn. Neurosci. 28, 621-635 (2016).
  25. Kleber, B., Veit, R., Birbaumer, N., Gruzelier, J., Lotze, M. The brain of opera singers: Experience-dependent changes in functional activation. Cereb. Cortex. 20, 1144-1152 (2010).
  26. Jürgens, U. Neural pathways underlying vocal control. Neurosci. Biobehav. Rev. 26, 235-258 (2002).
  27. Kleber, B., Birbaumer, N., Veit, R., Trevorrow, T., Lotze, M. Overt and imagined singing of an Italian aria. Neuroimage. 36, 889-900 (2007).
  28. Kleber, B., Zeitouni, A. G., Friberg, A., Zatorre, R. J. Experience-dependent modulation of feedback integration during singing: role of the right anterior insula. J. Neurosci. 33, 6070-6080 (2013).
  29. Zarate, J. M., Zatorre, R. J. Experience-dependent neural substrates involved in vocal pitch regulation during singing. Neuroimage. 40, 1871-1887 (2008).
  30. González-García, N., González, M. A., Rendón, P. L. Neural activity related to discrimination and vocal production of consonant and dissonant musical intervals. Brain Res. 1643, 59-69 (2016).
  31. Oldfield, R. C. The assessment and analysis of handedness: The Edinburgh inventory. Neuropsychologia. 9, 97-113 (1971).
  32. Samuels, M. L., Witmer, J. A., Schaffner, A. . Statistics for the Life Sciences. , (2015).
  33. Eickhoff, S. B., et al. A new SPM toolbox for combining probabilistic cytoarchitectonic maps and functional imaging data. NeuroImage. 25, 1325-1335 (2005).
  34. Evans, A. C., Kamber, M., Collins, D. L., MacDonald, D., Shorvon, S. D., Fish, D. R., Andermann, F., Bydder, G. M., Stefan, H. An MRI-based probabilistic atlas of neuroanatomy. Magnetic Resonance Scanning and Epilepsy. 264, 263-274 (1994).
  35. Ashburner, J., et al. . SPM8 Manual. , (2013).
  36. Özdemir, E., Norton, A., Schlaug, G. Shared and distinct neural correlates of singing and speaking. Neuroimage. 33, 628-635 (2006).
  37. Brown, S., Ngan, E., Liotti, M. A larynx area in the human motor cortex. Cereb. Cortex. 18, 837-845 (2008).
  38. Worsley, K. J. Statistical analysis of activation images. Functional MRI: An introduction to methods. , 251-270 (2001).
  39. . FSL Atlases Available from: https://fsl.fmrib.ox.ac.uk/fsl/fslwiki/Atlases (2015)
  40. Bidelman, G. M., Krishnan, A. Neural correlates of consonance, dissonance, and the hierarchy of musical pitch in the human brainstem. J. Neurosci. 29, 13165-13171 (2009).
  41. McLachlan, N., Marco, D., Light, M., Wilson, S. Consonance and pitch. J. Exp. Psychol. – Gen. 142, 1142-1158 (2013).
  42. Thompson, W. F., Deutsch, D. Intervals and scales. The psychology of music. , 107-140 (1999).
  43. Hurwitz, R., Lane, S. R., Bell, R. A., Brant-Zawadzki, M. N. Acoustic analysis of gradient-coil noise in MR imaging. Radiology. 173, 545-548 (1989).
  44. Ravicz, M. E., Melcher, J. R., Kiang, N. Y. -. S. Acoustic noise during functional magnetic resonance imaging. J Acoust. Soc. Am. 108, 1683-1696 (2000).
  45. Cho, Z. H., et al. Analysis of acoustic noise in MRI. Magn. Reson. Imaging. 15, 815-822 (1997).
  46. Belin, P., Zatorre, R. J., Hoge, R., Evans, A. C., Pike, B. Event-related fMRI of the auditory cortex. Neuroimage. 429, 417-429 (1999).
  47. Hall, D. A., et al. "Sparse" temporal sampling in auditory fMRI. Hum. Brain Mapp. 7, 213-223 (1999).
  48. Ternström, S., Sundberg, J. Acoustical factors related to pitch precision in choir singing. Speech Music Hear. Q. Prog. Status Rep. 23, 76-90 (1982).
  49. Ternström, S., Sundberg, J. Intonation precision of choir singers. J. Acoust. Soc. Am. 84, 59-69 (1988).

Play Video

Citer Cet Article
González-García, N., Rendón, P. L. fMRI Mapping of Brain Activity Associated with the Vocal Production of Consonant and Dissonant Intervals. J. Vis. Exp. (123), e55419, doi:10.3791/55419 (2017).

View Video