La validation croisée est une technique utilisée pour évaluer le degré de généralisation d'un modèle à de nouvelles données inédites. Son objectif principal est d'évaluer les performances d'un modèle, d'éviter le surajustement et de fournir des estimations fiables des performances du modèle sur des ensembles de données indépendants.
Méthodologie
-
La validation croisée K-FoldII : Cette méthode consiste à diviser l'ensemble de données en k sous-ensembles ou plis de taille approximativement égale. Le modèle est entraîné k fois, en utilisant à chaque fois k-1 plis pour l'entraînement et le pli restant pour la validation. Ce processus produit k modèles différents et des estimations de performance, généralement en faisant la moyenne des résultats, ce qui fournit une I_ métrique d'évaluation plus robusteI.
-
La validation croisée avec sortie unique (LOOCV)I_ : En LOOCV, unsingle point de données est conservé comme ensemble de validationtandis que le reste des données est utilisé pour la formation. Ce processus est répété pour chaque point de données, ce qui donne lieu à n itérations (où n = nombre de points de données). Cette méthode est trèscomputationally expensivemais peut fournir une estimationreliable, en particulier avec de petits ensembles de données**.
Objet de l'enquête
-
Évaluer les performances d'un modèle*** : La validation croisée permet de comprendre les performances d'un modèle sur des données inédites, en s'assurant qu'il ne s'est pas contenté de mémoriser l'ensemble des données d'apprentissage (surajustement), mais qu'il a appris des modèles généralisables.
-
Réduction de la suradaptation**I : En validant le modèle sur différents sous-ensembles de données, la validation croisée permet d'identifier et d'atténuer le surajustement. Elle évalue les performances du modèle sur des données inédites, en minimisant les risques de capture de bruit ou de modèles non pertinents.
-
Estimations fiables de la généralisation*** : La validation croisée fournit des estimations plus fiables des performances d'un modèle en s'appuyant sur plusieurs ensembles de validation, ce qui conduit à des évaluations plus robustes de la capacité du modèle à se généraliser à de nouvelles données.
Avantages et scénarios pratiques
-
La méthode CV**K-Fold est largement utilisée et convient à la plupart des ensembles de données : Il est largement utilisé et convient à la plupart des ensembles de données. Cependant, pour les grands ensembles de données, le coût de calcul peut être élevé.
-
IL FOURNIT L'ESTIMATION LA MOINS BIAISÉE *** MAIS PEUT ÊTRE COÛTEUX EN CALCUL ET PEU PRATIQUE POUR LES GRANDS ENSEMBLES DE DONNÉES EN RAISON DU NOMBRE ÉLEVÉ D'ITÉRATIONS : Elle fournit l'estimation** la moins biaisée** mais peut être coûteuse en termes de calcul et peu pratique pour les grands ensembles de données en raison du nombre élevé d'itérations.
Scénarios
-
Les petits ensembles de données sont les suivants : Small Datasets : LOOCV pourrait être bénéfique car il fournit une estimation fiable malgré le coût de calcul.
-
La méthode K-Fold CV pourrait être plus pratique en raison de ses exigences de calcul moindres, tout en fournissant des estimations robustes : K-Fold CV pourrait être plus pratique en raison de ses exigences de calcul moindres tout en fournissant des estimations robustes.
La validation croisée est cruciale pour évaluer les performances des modèles, réduire les surajustements et estimer la capacité de généralisation d'un modèle. Le choix de la méthode dépend souvent de la taille de l'ensemble de données, des ressources informatiques et du niveau de précision requis pour l'estimation des performances du modèle.