Savstarpējā validācija ir metode, ko izmanto, lai novērtētu, cik labi modelis vispārina jaunus, neredzētus datus. Tās galvenais mērķis ir novērtēt modeļa veiktspēju, novērst pārmērīgu pielāgošanu un nodrošināt ticamus aprēķinus par to, kā modelis darbosies neatkarīgās datu kopās.
Metodoloģija
-
K-Fold savstarpējā validācija: šī metode ietver datu kopas sadalīšanu k aptuveni vienāda lieluma apakškopās/locēs. Modelis tiek apmācīts k reizes, katru reizi izmantojot k-1 kroku apmācībai un atlikušo locījumu apstiprināšanai. Šis process rada k dažādu modeļu un veiktspējas aprēķinus, parasti aprēķinot rezultātus, nodrošinot precīzāku novērtējuma metriku.
-
Atstājiet vienu ārā krustenisko validāciju (LOOCV): LOOCV kā validācijas kopa tiek saglabāts viens datu punkts, bet pārējie dati tiek izmantoti apmācībai. Šis process tiek atkārtots katram datu punktam, iegūstot n iterācijas (kur n = datu punktu skaits). Tas ir ļoti skaitļošanas ziņā dārgs, taču var nodrošināt uzticamu aprēķinu, īpaši ar mazākām datu kopām.
Mērķis
-
Modeļa veiktspējas novērtēšana: savstarpējā validācija palīdz izprast, cik labi modelis darbojas ar neredzamiem datiem, nodrošinot, ka tas nav tikai iegaumējis apmācības kopu (pārmērīga pielāgošana), bet ir apguvis vispārināmus modeļus.
-
Overfitting Reduction: apstiprinot modeli dažādās datu apakškopās, savstarpējā validācija palīdz identificēt un mazināt pārmērīgu pielāgošanu. Tas novērtē, cik labi modelis darbojas ar neredzamiem datiem, līdz minimumam samazinot iespēju uztvert troksni vai neatbilstošus modeļus.
- Uzticami vispārināšanas aprēķini: savstarpējā validācija nodrošina uzticamākus modeļa veiktspējas aprēķinus, izmantojot vairākas validācijas kopas, tādējādi nodrošinot precīzākus modeļa spēju vispārināt jaunus datus.
Priekšrocības un praktiskie scenāriji
-
K-Fold CV: tas tiek plaši izmantots un piemērots lielākajai daļai datu kopu. Tomēr lielām datu kopām skaitļošanas izmaksas var būt augstas.
-
LOOCV: tas nodrošina vismazāk neobjektīvu aprēķinu, taču tas var būt skaitļošanas ziņā dārgs un nepraktisks lielākām datu kopām lielā iterāciju skaita dēļ.
Scenāriji
- Mazas datu kopas: LOOCV varētu būt noderīgs, jo tas nodrošina ticamu aprēķinu, neskatoties uz skaitļošanas izmaksām.
- Lielas datu kopas: K-Fold CV varētu būt praktiskāks, jo ir mazāks skaitļošanas pieprasījums, vienlaikus nodrošinot stabilus aprēķinus.
Savstarpēja validācija ir ļoti svarīga, lai novērtētu modeļa veiktspēju, samazinātu pārmērīgu pielāgošanu un novērtētu modeļa vispārināšanas spēju. Metodes izvēle bieži ir atkarīga no datu kopas lieluma, skaitļošanas resursiem un precizitātes līmeņa, kas nepieciešams, lai novērtētu modeļa veiktspēju.