여기 우리 언어와 해독의 독특하고 일반적인 효과에 독에 대 한 분산 분해 프로토콜을 제시.
독서의 간단한 보기는 읽기 디코딩 및 유일 하 게 독 해를 예측 하는 각 구성 요소와 언어의 제품을 주장 하는 독서의 인기 모델 이다. 연구원 합 구성의 제품 보다는 더 나은 예언자 인지 주장 하고있다, 비록 아무 연구 구성 요소 공유 읽기 예측에 정도 검사를 설명 하는 분산을 분할 수 있다. 분산 분해, 우리는 디코딩을 위한 독특한 R2 를 전체 모델에서 언어 전용 모델에 대 한 R2 를 뺍니다. 둘째, 우리는 언어에 대 한 독특한 R2 를 전체 모델에서 디코딩 전용 모델에 대 한 R2 를 뺍니다. 셋째, 일반적인 차이를 설명 언어 및 디코딩, 우리는 두 개의 독특한 R2 에서 전체 모델에 대 한 R2 의 합계를 뺍니다. 방법은 1 학년에서 학생 들 로부터 데이터와 회귀 접근법에서 설명 된다 (n = 372), 6 (n = 309), 10 (n = 122) 언어 (수용 어휘)의 관찰된 측정을 사용 하 여, 디코딩 (초과 단어 읽기), 및 독 (시험). 결과 상대적으로 많은 양의 디코딩 및 언어에서 일반적인 분산에 의해 급료 1에서에서 설명 하는 독에 분산을 공개. 그러나 10 학년에 의해, 그것은 언어의 독특한 효과 독에 대 한 분산의 대부분을 설명 하는 언어와 해독의 일반적인 효과입니다. 결과 간단한 보기의 독서의 언어와 예측 독에서 해독의 고유 하 고 공유 효과 고려 하는 확장된 버전의 맥락에서 설명 합니다.
간단한 보기 읽기1 (SVR) 계속 읽기 때문에 그것의 단순 읽기 (R)의 인기 있는 모델은 디코딩 (D)의 제품 및 언어 (L)-의 약 60% 설명 읽기에 SVR, 평균, 설명 하는 경향이 있기 때문에 이해2. SVR 예측 D와 R 사이 상관 관계 시간이 지남에 감소 됩니다 그리고 L과 R 사이의 상관 관계 시간이 지남에 증가할 것 이다. 연구는 일반적으로이 예측3,,45를 지원합니다. 그러나 있다 논쟁,, 가산적 모델 SVR의 기능 형태에 대 한 (D + L = R) 독 제품 모델 보다 훨씬 더 많은 변화를 설명 (D × L = R)6,7,8, 그리고 합계 및 제품의 조합 [R = D + L + (D × L) 설명 이해3,9독서에 분산의 큰 금액.
최근 SVR 모델 확정 공장 분석과 구조 방정식 모델링을 사용 하 여 잠재 변수 모델링 관찰된 변수 기반 regressions 넘어 확대 하고있다. D는 일반적으로 실제 단어 nonwords의 없이 또는 초과 읽기와 측정 하 고 R 일반적으로 능력과 정보 구절 객관식 질문 다음을 포함 하는 표준화 된 읽기 테스트에 의해 측정 된다. L은 일반적으로 표현 하 고 수용 구문 및 듣기의 측정에 의해 기본 성적에 특히, 그리고 표현 하 고 수용 어휘 테스트에 의해 측정 됩니다. 가장 경도 연구 보고 L unidimensional10,11,,1213. 그러나, 다른 경도 연구14 L에 대 한 기본 학년에 4-8 학년에서 unidimensional 구조 이중 구조를 보고합니다. 최근 횡단면 연구 보고 bifactor 모델 최고의 데이터 및 예측 R15,,1617,18. 예를 들어 Foorman 외. 16 unidimensional, 3 단계, 4 단계, 및 4-10 학년에서 학생 데이터에서 SVR의 bifactor 모델을 비교 및 bifactor 모델 가장 적합 하 고 인민에 대 한 분산의 72% ~ 99%를 설명 발견 일반 L 요소 모든 7 학년 및 어휘와 구문에 고유 하 게 설명만 한 학년에 설명 했다. 비록 D 요소는 적당히 연관 L과 R 모든 학년에서 (0.40 0.60 및 0.47-0.74, 각각), 그것은 고유 하 게 상관 하지 r 일반 L 요인 존재.
비록 잠재 변수 모델링 확장된 SVR L과 독특한 역할 L R 기본 성적, Foorman 그 외 여러분 에 의해 하나를 제외 하 고는 SVR의 없음 연구 넘어 예측의 차원에 의해 19 D와 L 고유 예정 이며 무슨 공통점 공유 하는에 독에 대 한 분산을 분할 수 있다. 이것은 문학에서 큰 누락 이다. 개념적으로 D와 L 단어 인식 음운론, 의미론, 텍스트와 문장 레벨20에서 담의 언어 능력을 수반 하기 때문에 문된 어를 예측에 대 한 분산 공유 것이 의미가 있습니다. 마찬가지로, 텍스트 이해21을 사용 하는 경우 언어 이해 표음, 형태소, 단어, 문장, 그리고 담의 직교 표현에 연결 되어야 합니다. L D 멀티 이러한 구성 요소에 의해 공유 하는 정보를 생성 하지 않습니다. 무엇 고유 이며 D와 L 예측 연구에 의해 공유로 분산을 분해 통합된 지식 교육 개입의 성공에 중요 한 발표할 예정 이다.
Foorman 그 외 여러분 에 의해 한 연구 무엇 고유 이며 무슨 D와 L에서 공통 공유에 독의 분산 분해 19 잠재 변수 접근 모델링 고용. 다음 프로토콜 1, 7, 및 단일 변수 D (초과 디코딩), L (수용 어휘), 및 R에 대 한 관찰에 따라 10 학년 학생 들 로부터 데이터 기술을 보여줍니다 (읽기 이해력 테스트 표준화) 분해 과정을 만들기 이해 하기 쉬운. 데이터는 Foorman 그 외 여러분 에서 데이터의 하위 집합을 나타냅니다. 19.
L과 디 독특하고 일반적인 분산에 R에 분산 분해 프로토콜에 있는 3 개의 중요 한 단계 첫째, d.에 대 한 독특한 R2 를 전체 모델에서 L 전용 모델에서 R2 빼기 둘째, 독특한 R2 나 3, L과 D에 의해 설명 하는 일반적인 차이를 위한 얻기, 전체 모델에 대 한 R2 에서 두 개의 고유 R2 의 합을 전체 모델에서 D 전용 모델에 대 한 R2 를 뺍니다.
<p class="jove_content…The authors have nothing to disclose.
여기에서 보고 된 연구에 의해 교육 과학 연구소, 미국 교육부, 이해에 대 한 읽기의 일환으로 교육 테스트 서비스 그랜트 R305F100005에서 플로리다 주립 대학에 subaward를 통해 지원 이니셔티브입니다. 의견 표명 그 저자 이며 연구소, 미국 교육부, 교육 시험 서비스, 또는 플로리다 주립 대학교를 대표 하지 않는다.