Il potere delle tecniche di convalida incrociata
Aggiornato su September 02, 2024 2 minuti a leggere

La convalida incrociata è una tecnica critica utilizzata per valutare quanto bene un modello funzionerà su nuovi dati. L’obiettivo principale è valutare le prestazioni di un modello in modo da ridurre al minimo problemi come l’overfitting (dove il modello apprende troppo dai dati di addestramento e funziona male su dati invisibili) e l’underfitting (dove il modello è troppo semplicistico per catturare i modelli nel modello). dati).
Il concetto prevede la suddivisione dei dati disponibili in più sottoinsiemi, in genere due parti principali: il set di addestramento e il set di validazione (a volte chiamato anche set di test).
Una tecnica comune è la convalida incrociata k-fold:
-
Il set di dati è diviso in sottoinsiemi “k” (o pieghe) di dimensioni approssimativamente uguali.
-
Il modello viene addestrato ‘k’ volte, ogni volta utilizzando una piega diversa come set di validazione e le pieghe rimanenti come set di addestramento.
-
Ad esempio, nella convalida incrociata 5 volte, i dati sono divisi in cinque sottoinsiemi. Il modello viene addestrato cinque volte, ogni volta utilizzando uno diverso dei cinque sottoinsiemi come set di validazione e gli altri quattro come set di training.
-
Viene calcolata la media dei parametri prestazionali (come accuratezza, precisione, richiamo, ecc.) tra queste iterazioni “k” per ottenere una stima finale delle prestazioni.
Altre tecniche comuni includono
Convalida incrociata Leave-One-Out (LOOCV)
-
Ciascun punto dati funge da set di convalida e il modello viene addestrato sul resto dei dati.
-
Questo metodo è computazionalmente costoso per set di dati di grandi dimensioni, ma può essere abbastanza accurato poiché utilizza quasi tutti i dati per l’addestramento.
Convalida incrociata stratificata
- Garantisce che ogni piega sia rappresentativa dell’intero set di dati. Mantiene la distribuzione delle classi in ogni piega, il che è utile per i set di dati sbilanciati.
La convalida incrociata è fondamentale perché fornisce una stima più affidabile delle prestazioni di un modello su dati invisibili rispetto a una singola suddivisione del treno-test. Aiuta a identificare problemi come overfitting o underfitting fornendo una stima più affidabile di come il modello si generalizzerà ai nuovi dati.
Utilizzando la convalida incrociata, i professionisti dell’apprendimento automatico possono prendere decisioni migliori sulla selezione del modello, sull’ottimizzazione degli iperparametri e sulla valutazione delle prestazioni di generalizzazione di un modello su dati invisibili.