cross validation 예제

임의 분할 수가 무한대에 가까워지면 반복된 임의 하위 샘플링 유효성 검사의 결과는 리브-p-out 교차 유효성 검사의 결과를 향하게 됩니다. K-Fold의 폴드를 반복기로 사용하고 for 루프에서 팬더 데이터 프레임에 대한 학습을 수행할 수 있습니다. 다음은 예입니다. 맞춤 F의 측정값을 선택하고 교차 유효성 검사를 사용하여 모델의 예상 맞춤 EF*를 학습 데이터와 동일한 모집단에서 가져온 독립적인 데이터 집합에 대한 추정 F*를 생성한다고 가정합니다. 동일한 분포에 따라 여러 개의 독립적인 학습 세트를 샘플링한다고 가정하면 F*의 결과 값이 달라집니다. F*의 통계적 속성은 이러한 변동에서 발생합니다. 다음 예제에서는 데이터를 분할하고 모델을 피팅하고 점수를 5회 연속 계산하여 홍채 데이터 집합에서 선형 커널 지원 벡터 시스템의 정확도를 추정하는 방법을 보여 줍니다(매번 다른 분할이 있음): Hi Jason, 많은 감사 튜토리얼. 그것은 나를 위해 많은 것을 명확히, 그러나, 나는이 fied에 newbei입니다. 내 질문은 모델에 대한 이력서를 얼마나 많이 할 수 있습니까? 예를 들어, 모델에 대해 100배 10배 의 CV를 반복할 수 있습니까? 난 정말 나를 도울 수있는 힌트를 주셔서 감사합니다. 감사! LOOCV는 하나의 데이터 포인트를 남깁니다.

마찬가지로 각 반복에 대해 유효성 검사 크기 p 집합을 갖도록 p 학습 예제를 남겨둘 수 있습니다. 이를 LPOCV(P Out Cross Validation) LOO 교차 유효성 검사는 C k n {디스플레이 스타일 C_{1}{{n=n}만 통과하기 때문에 LpO 교차 유효성 검사보다 계산 시간이 덜 필요합니다. 그러나 n {displaystyle n} 패스에는 여전히 많은 계산 시간이 필요할 수 있으며, 이 경우 k-fold 교차 유효성 검사와 같은 다른 방법이 더 적합할 수 있습니다. [10] 모델이 올바르게 지정된 경우, 훈련 세트에 대한 MSE의 예상 값이 (n − p − 1)/(n + p + 1) < 유효성 검사 세트에 대한 MSE의 예상 값의 1배(예상 값이 distrib를 통해 취직됨)로 표시될 수 있습니다. 교육 세트의 ution). 따라서 모델에 맞게 학습 세트에서 MSE를 계산하면 모델이 독립적인 데이터 집합에 얼마나 잘 맞는지에 대한 낙관적으로 편향된 평가를 얻을 수 있습니다. 이 편향된 추정값은 적합도의 샘플 내 추정값이라고 하는 반면 교차 유효성 검사 추정값은 시료 외 추정값입니다. 이것은 k 접기의 외부 루프와 l 주름의 내부 루프를 포함하는 진정으로 중첩 된 변형 (예 : [17]에서 사용됨)입니다. 총 데이터 집합은 k 집합으로 분할됩니다.

하나씩, 세트는 (외부) 테스트 세트로 선택되고 k-1 다른 세트는 해당 외부 학습 세트로 결합된다. 이는 각 k 세트에 대해 반복됩니다. 각 외부 학습 세트는 l 세트로 더 세분화됩니다. 세트는 하나씩 내부 테스트(validation) 세트로 선택되고 l-1 다른 세트는 해당 내부 학습 세트에 결합됩니다. 이는 각 l 세트에 대해 반복됩니다. 내부 학습 세트는 모델 매개변수에 맞게 사용되는 반면 외부 테스트 세트는 유효성 검사 세트로 사용하여 모델 맞춤에 대한 편견 없는 평가를 제공합니다.

 
Mobile Site

Follow Us On Facebook Follow Us On Twitter Follow Us On Google + Follow Us On LinkedIn Follow Us On You Tube Copyright 2019 © All Rights Reserved. Powered by - ARE Network Solutions