Métricas clave de los modelos de clasificación

Evaluación del modelo de clasificación
Métricas de precisión y recuperación
Cálculo de la puntuación F1
Métricas clave de los modelos de clasificación cover image

Al evaluar el rendimiento de un modelo de clasificación, se pueden utilizar varias métricas, pero tres de las más comunes son la precisión, la recuperación y la puntuación F1.

Precisión:

La precisión mide la exactitud de las predicciones positivas realizadas por el modelo. Se calcula como el cociente entre las predicciones positivas verdaderas y el número total de predicciones positivas (verdaderos positivos falsos positivos). En términos sencillos, la precisión responde a la pregunta "De todos los elementos que el modelo predijo como positivos, ¿cuántos fueron realmente positivos?". Una precisión alta significa que cuando el modelo predice algo como positivo, suele acertar.

Recuérdalo:

La recuperación mide la capacidad del modelo para identificar correctamente todos los casos positivos. Se calcula como la relación entre las predicciones positivas verdaderas y el número total de casos positivos reales (positivos verdaderos negativos falsos). En esencia, el recuerdo responde a la pregunta "De todos los casos positivos reales, ¿cuántos identificó correctamente el modelo?". Una recuperación alta indica que el modelo puede identificar la mayoría de los casos positivos.

Puntuación F1:

La puntuación F1 es la media armónica de la precisión y la recuperación. Proporciona una única puntuación que equilibra la precisión y la recuperación. Esta puntuación es especialmente útil cuando se desea encontrar un equilibrio entre precisión y recuperación o cuando las clases están desequilibradas. La puntuación F1 oscila entre 0 y 1, donde un valor más alto indica un mejor rendimiento.

A la hora de evaluar un modelo de clasificación, es importante considerar estas métricas conjuntamente. Por ejemplo, un modelo con alta precisión pero baja recuperación podría ser demasiado cauteloso a la hora de hacer predicciones positivas, mientras que un modelo con alta recuperación pero baja precisión podría ser demasiado liberal a la hora de hacer predicciones positivas. La puntuación F1 ayuda a encontrar un equilibrio entre estas dos métricas.

Además, en función del problema y los requisitos específicos, otras métricas como la precisión, la especificidad, la curva ROC (curva característica de funcionamiento del receptor) y el AUC (área bajo la curva ROC) también podrían ser valiosas para evaluar el rendimiento del modelo.


Career Services background pattern

Servicios profesionales

Contact Section background image

Mantengámonos en contacto

Code Labs Academy © 2025 Todos los derechos reservados.