La convalida incrociata è una tecnica fondamentale utilizzata per valutare le prestazioni di un modello su nuovi dati. L'obiettivo principale è quello di valutare le prestazioni di un modello in modo da ridurre al minimo problemi come l'overfitting (dove il modello impara troppo dai dati di addestramento e si comporta male sui dati non visti) e l'underfitting (B_dove il modello è troppo semplicistico per catturare i modelli nei dati).
Il concetto prevede la suddivisione dei dati disponibili in più sottoinsiemi, in genere due parti principali: l'insieme di addestramento e l'insieme di validazione ( che a volte viene anche chiamato insieme di test).
Una tecnica comune è la convalida incrociata k-fold:
-
Il set di dati viene suddiviso in 'k' sottoinsiemi (o folds) di dimensioni approssimativamente uguali.
-
Il modello viene addestrato 'k' volte, utilizzando ogni volta un diverso fold come set di validazione e i fold rimanenti come set di addestramento.
-
Ad esempio, nella convalida incrociata a 5 volte, i dati vengono suddivisi in cinque sottoinsiemi. Il modello viene addestrato cinque volte, utilizzando ogni volta uno diverso dei cinque sottoinsiemi come set di validazione e gli altri quattro come set di addestramento.
-
Le metriche di prestazione (come l'accuratezza, la precisione, il richiamo, ecc.) sono mediate su queste 'k' iterazioni per ottenere una stima finale delle prestazioni.
Altre tecniche comuni sono
Validazione incrociata con esclusione (LOOCV)
-
Ogni punto di dati serve come set di validazione e il modello viene addestrato sul resto dei dati.
-
Questo metodo è computazionalmente costoso per i grandi insiemi di dati, ma può essere abbastanza accurato poiché utilizza quasi tutti i dati per l'addestramento.
Validazione incrociata stratificata
- Assicura che ogni piega sia rappresentativa dell'intero set di dati. Mantiene la distribuzione delle classi in ogni piega, il che è utile per i set di dati sbilanciati.
La convalida incrociata è fondamentale perché fornisce una stima più affidabile delle prestazioni di un modello su dati non visti rispetto a una singola divisione treno-test. Aiuta a identificare problemi come l'overfitting o l'underfitting, fornendo una stima più robusta di come il modello si generalizzerà ai nuovi dati.
Utilizzando la convalida incrociata, i professionisti dell'apprendimento automatico possono prendere decisioni migliori sulla selezione del modello, sulla regolazione degli iperparametri e sulla valutazione delle prestazioni di generalizzazione di un modello su dati non visti.