Calculateur de Matrice de Confusion

Analysez les performances des modèles de classification avec les métriques de la matrice de confusion

Calculateur de Matrice de Confusion

Cas positifs correctement prédits

Cas négatifs correctement prédits

Cas incorrectement prédits comme positifs

Cas incorrectement prédits comme négatifs

Comment Fonctionne le Calculateur

Ce calculateur vous aide à évaluer les performances des modèles de classification en utilisant les métriques de la matrice de confusion :

  • Entrez les quatre valeurs de base de la matrice de confusion :
    • Vrais Positifs (VP) : Cas positifs correctement prédits
    • Vrais Négatifs (VN) : Cas négatifs correctement prédits
    • Faux Positifs (FP) : Cas incorrectement prédits comme positifs
    • Faux Négatifs (FN) : Cas incorrectement prédits comme négatifs
  • Le calculateur va calculer :
    • Exactitude : Prédictions correctes globales
    • Précision : Valeur prédictive positive
    • Rappel : Taux de vrais positifs (Sensibilité)
    • Score F1 : Moyenne harmonique de la précision et du rappel
    • Spécificité : Taux de vrais négatifs
    • Taux de faux positifs et négatifs
Comprendre les Métriques

Métriques clés et leurs formules :

  • Exactitude = (VP + VN) / (VP + VN + FP + FN)

    Mesure les prédictions correctes globales pour toutes les classes

  • Précision = VP / (VP + FP)

    Combien de prédictions positives sont réellement positives

  • Rappel = VP / (VP + FN)

    Combien de cas positifs réels sont correctement identifiés

  • Score F1 = 2 × (Précision × Rappel) / (Précision + Rappel)

    Moyenne harmonique équilibrant précision et rappel

  • Spécificité = VN / (VN + FP)

    Combien de cas négatifs réels sont correctement identifiés

Applications et Utilisations

Les matrices de confusion sont utilisées dans divers domaines :

  • Évaluation des modèles d'apprentissage automatique
  • Tests de diagnostic médical
  • Systèmes de contrôle qualité
  • Détection de fraude
  • Filtrage des spams
  • Classification d'images
  • Traitement du langage naturel
Questions Fréquentes

Sur quelle métrique dois-je me concentrer ?

Cela dépend de votre application. Utilisez l'exactitude pour les jeux de données équilibrés, la précision lorsque les faux positifs sont coûteux, le rappel lorsque les faux négatifs sont coûteux, et le score F1 lorsque vous avez besoin d'un équilibre entre précision et rappel.

Quelle est la différence entre l'exactitude et la précision ?

L'exactitude mesure les prédictions correctes globales (positives et négatives), tandis que la précision se concentre sur l'exactitude des prédictions positives uniquement. Une haute exactitude ne signifie pas toujours une haute précision, en particulier avec des jeux de données déséquilibrés.

Quand dois-je utiliser le score F1 ?

Utilisez le score F1 lorsque vous avez besoin d'une métrique unique qui équilibre précision et rappel, en particulier avec des jeux de données déséquilibrés. C'est particulièrement utile lorsque les faux positifs et les faux négatifs ont des coûts similaires.