Summary

fMRIのことで視覚人口受容野の地形の推定

Published: February 03, 2015
doi:

Summary

It is important to obtain unbiased estimates of visual population receptive fields (pRFs) by functional magnetic resonance imaging. We use mild regularization constraints to estimate pRF topography without a-priori assumptions about pRF shape, allowing us to choose specific pRF models post-hoc. This is particularly advantageous in subjects with visual-pathway lesions.

Abstract

細胞の隣接集団が視野の近隣の部分にマップされるように視覚野はretinotopically構成されています。機能的磁気共鳴画像は、私たちは、ボクセルベースの人口受容野(PRF)、 すなわち 、各ボクセル内の細胞を活性化し、視野の一部を推定することができます。 1)PRFモデルが事前に選択され、完全に実際のPRF形状をキャプチャしないこと、および2)PRFセンターが刺激スペースの国境近くの誤局在する傾向がある:前に、直接、PRF推定方法1は、一定の制限を受ける。ここで新たな地形PRF推定方法2は、主に、これらの制限を回避することが提案されている。線形モデルは、標準的な血行動態応答関数と視覚刺激に対するPRFの線形応答を畳み込むことにより血液酸素レベル依存(BOLD)信号を予測するために使用される。 PRF地形は、成分がSTRを表す重みベクトルとして表現さ​​れる別の視野の場所で発表刺激に対するボクセルニューロンの集合体応答のength。得られた一次方程式は、PRFトポグラフィを得、リッジ回帰3を使用してPRFウェイトベクトルについて解くことができる。推定トポグラフィーに一致するPRFモデルは、それによってそのような PRF-中心位置、PRFの向き、サイズ、PRFパラメータの推定値を改善する、事後選択することができる。 PRF地形が利用可能持つこともPRF構造に関する先験的仮定を加えることなく、様々なPRFの特性の抽出を可能にするのPRFパラメータ推定値を視覚的に確認することができます。このアプローチは、視覚系の障害を有する患者のPRF組織を調査するために特に有用であることを約束。

Introduction

機能的磁気共鳴画像法(fMRI)対策巨視的スケールで視覚皮質の非侵襲的に機能的な組織(典型的にはミリメートルのオーダー)。早期のfMRIレチノトピー研究は、刺激位置間のコヒーレンス測定値を使用し、BOLD応答4-7を誘発た。これらの研究は、一般的に人口受容野の大きさを推定しませんでした。以降、デュムランとWandell 1 BOLD応答を予測するために、このモデルの線形関数を使用して、明示的にPRFの位置とサイズをモデル化することによってこのような制限を克服するための方法を提案した。しかし、この先駆的な方法の一つの限界は、パラメトリックPRFモデルが事前に選択されなければならない、及び誤ったPRFにつながる可能性が適切でないと判明した場合を推定することである

パラメトリックPRF-モデル法の限界を克服するために、新しい方法が開発されている。これらのメソッドは直接sにBOLD応答を予測PRFトポグラフィを再構成することによってtimulus。グリーンらによって提案された方法8は、バック突出した個々の1D刺激空間へBOLD応答を、一般的なコンピュータ断層撮影技術のように2D刺激空間でPRFトポグラフィを構築することにより、PRFトポグラフィを再構築する。一方、我々が提案した方法2直接線形回帰を使用して正則化技法を適用することによって、2D PRF形状を推定する。この方法では、PRFのトポグラフィは、所与のボクセルのニューロン集団の応答を推定するために刺激を乗じて重みのセットとして表される。その後、刺激により誘発される最終的な血液酸素レベル依存(BOLD)応答は、ニューロン集団の応答と標準的な血行動態応答関数を畳み込むことによって推定される。アンダー制約線形システムを解決するために、追加的に、リッジ回帰の正則化は、スパースを実施するために使用されている( 図1参照下)。正則化技術は、ノイズやアーチファクトを抑制し、したがって、私たちの方法は、より堅牢にPRFの地形を推定することができます。

地形的な方法は、実際のP​​RF構造を明らかにすることができ、したがって、特定のパラメトリック形状を有するようにPRF形状を強制していない。適切なパラメトリックモデルは、PRFトポグラフィに基づいて選択することができる。例えば、PRFのトポグラフィは、PRFセンターとサラウンドを分離するために使用することができ、その後のPRF中心モデリングサラウンド抑制の影響ならびにに対して遠隔地に生じる他の潜在的なアーチファクトの影響を最小化することにより、より正確であることができるPRFセンター。我々は最近、PRF 9に定量的な手法と直接いくつかの他の方法との比較( すなわち地形を推定する前に)ガウス1、等方性のフィット異方性ガウシアン、及び等方性のガウス分布の違いを行った。これはtopogrことが見出されたaphyベースの方法は、BOLD信号の時系列の変動を説明し、より高い達成することによりPRF中心モデリングに関して、これらの方法を上回る。

様々な分野でのPRF特性の正確な推定は、彼らが視野をカバーする方法明らかにし、それが視覚に関連し、特にとして視覚野の機能的な組織を調査するために重要である。そのような偏心1,10およびPRFセンターサラウンド団体9 PRFサイズの変更はよく人間の文献で ​​検討されている方法などのプロパティ。 PRFトポグラフィより正確なPRFパラメータモデリングの結果、未知の規則性を明らかにする可能性が高いと推定するための提案された方法は、容易に直接パラメトリックモデルで事前にモデル化されていない。このアプローチは、誰のためにPRF構造は必ずしも予測可能な事前ないが、視覚路病変を有する患者では、PRFの組織を研究するために特に適しているであろう。以下は、目を推定する方法を記述されているE PRF地形とどのPRFセンターをモデル化するために地形を使用する方法。

Protocol

1.データ集録以前にデュムランとWandell 1及びLee らに記載されているように信頼性のある網膜の視覚的応答を誘発するのに有効で刺激プロトコルを準備します。2。しかし、他の十分に確立されたパラダイムが取り組むべき具体的な実験の質問に応じても適用可能である。 現在のバー刺激は45度刻みで、スペースの8方向に沿って画面を順次横切っ漂?…

Representative Results

正確なPRFモデリングは正しくPRF形状をキャプチャする必要があります。 PRFの地形を知らなくても、1,9-11先行研究で使用円対称モデルの選択が合理的な選択である。局所網膜組織は視野のすべての方向に均一である場合には、地元住民の応答が神経応答の円対称の累積的な集合体として表すことができるからである。しかし、我々の観察は、これは必ずしもそうでは( 図2)</stro…

Discussion

この記事では、人間の視覚野とどのように受容野のための適切なパラメトリックモデルを選択するためにそれを利用するには視覚的な人口受容野の地形を推定する方法を示します。成功レチノトピーために、適切な刺激プロトコルで効率的な分析方法を選択する必要があり、被験者の実験パラメータ(運動および固定)が最適化されるべきである。それが明確な刺激の場所とは異なるBOLD応答…

Divulgations

The authors have nothing to disclose.

Acknowledgements

We thank the VISTA software group (Brian Wandell and associates, at Stanford).

S. S. was supported by McNair 2280403105,NEI R01-EY109272, and NEI R01-EY024019 and as HHMI Early Carrer Award. A. P. and G. K. was supported by the Max-Planck Society, G. K. was supported by the PLASTICISE project of the 7th Framework Programme of the European Commission, Contract no. HEATH-F2-2009-223524.

Materials

Name of Equipment/Software Company/Provider Web address
MRI scanner Siemens/Philips/GE
MATLAB The Mathworks, Inc. http://www.mathworks.com 
VISTA software VISTA software group http://white.stanford.edu/newlm/index.php/Software
PsychoToolbox PsychoToolbox  http://psychtoolbox.org 
Eye Tracker(VisuaStimDigital) Resonance Technology Inc http://mrivideo.com/

References

  1. Dumoulin, S. O., Wandell, B. A. Population receptive field estimates in human visual cortex. Neuroimage. 39, 647-660 (2008).
  2. Lee, S., Papanikolaou, A., Logothetis, N. K., Smirnakis, S. M., Keliris, G. A. A new method for estimating population receptive field topography in visual cortex. Neuroimage. 81, 144-157 (2013).
  3. Hastie, T., Tibshirani, R., Friedman, J. H. . The elements of statistical learning : data mining, inference, and prediction. , (2009).
  4. Sereno, M. I., et al. Borders of multiple visual areas in humans revealed by functional magnetic resonance imaging. Science. 268, 889-893 (1995).
  5. Engel, S. A., Glover, G. H., Wandell, B. A. Retinotopic organization in human visual cortex and the spatial precision of functional MRI. Cereb Cortex. 7, 181-192 (1997).
  6. Engel, S. A., et al. fMRI of human visual cortex. Nature. 369, 525 (1994).
  7. DeYoe, E. A., et al. Mapping striate and extrastriate visual areas in human cerebral cortex. Proc Natl Acad Sci U S A. 93, 2382-2386 (1996).
  8. Greene, C. A., Dumoulin, S. O., Harvey, B. M., Ress, D. Measurement of population receptive fields in human early visual cortex using back-projection tomography. J Vis. , (2014).
  9. Zuiderbaan, W., Harvey, B. M., Dumoulin, S. O. Modeling center-surround configurations in population receptive fields using fMRI. J Vis. , (2012).
  10. Harvey, B. M., Dumoulin, S. O. The relationship between cortical magnification factor and population receptive field size in human visual cortex: constancies in cortical architecture. J Neurosci. 31, 13604-13612 (2011).
  11. Haak, K. V., Cornelissen, F. W., Morland, A. B. Population receptive field dynamics in human visual cortex. PLoS One. 7, e37686 (2012).

Play Video

Citer Cet Article
Lee, S., Papanikolaou, A., Keliris, G. A., Smirnakis, S. M. Topographical Estimation of Visual Population Receptive Fields by fMRI. J. Vis. Exp. (96), e51811, doi:10.3791/51811 (2015).

View Video