Résumé
Calcule une matrice de confusion en fonction des erreurs d'omission et de commission, puis déduit un indice Kappa d'accord entre la carte classée et les données qui sont considérées comme réalité de terrain.
Cet outil utilise les sorties de l'outil Créer des points d'évaluation de la précision ou de l'outilMettre à jour les points d'évaluation de la précision.
Utilisation
Cet outil calcule une matrice de confusion à l'aide des points d'évaluation de la précision aléatoires générés par l'outil Créer des points d'évaluation de la précision. Il calcule la précision des utilisateurs et des producteurs de chaque classe, ainsi qu'un indice Kappa d'accord global. Ces taux de précision sont compris entre 0 et 1, 1 représentant une précision de 100 pour cent. Traditionnellement, ils sont désignés sous le nom de taux d'erreur même s'ils illustrent la précision. Pour respecter cette convention, ce document les désigne sous le nom de taux d'erreur.
La précision des utilisateurs montre les faux positifs, où les pixels sont incorrectement classés comme une classe connue alors qu'ils devraient être classés autrement. Cela est le cas par exemple lorsque l'image classée indique qu'un pixel est imperméable, mais que la réalité de terrain stipule qu'il s'agit d'une forêt. La classe imperméable comporte des pixels supplémentaires qui ne devraient pas être présents d'après les données de la réalité de terrain.
La précision de l'utilisateur est également désignée sous le nom d'erreurs de commission ou d'erreur de type 1. Les données qui permettent de calculer ce taux d'erreur sont lues à partir des lignes de la table.
La ligne Total montre le nombre de points qui devraient être identifiés comme une classe donnée d'après les données de la réalité de terrain.
La précision des producteurs est un faux négatif, où les pixels d'une classe connue sont classés ailleurs que dans cette classe. Cela est le cas par exemple lorsque l'image classée indique qu'un pixel est une forêt, mais qu'il est en réalité imperméable. Dans ce cas, la classe imperméable ne comporte pas les pixels qui devraient être présents d'après les données de la réalité de terrain.
La précision des producteurs est également désignée sous le nom d'erreurs d'omission ou d'erreur de type 2. Les données qui permettent de calculer ce taux d'erreur sont lues dans les colonnes de la table.
La colonne Total montre le nombre de points qui ont été identifiés comme une classe donnée d'après la carte classée.
L'indice Kappa d'accord offre une évaluation globale de la précision de la classification.
Syntaxe
ComputeConfusionMatrix (in_accuracy_assessment_points, out_confusion_matrix)
Paramètre | Explication | Type de données |
in_accuracy_assessment_points | La classe d'entités des points d'évaluation de la précision, créée à partir de l'outil Créer des points d'évaluation de la précision, contenant les champs CLASSIFIED et GROUND_TRUTH. | Feature Layer |
out_confusion_matrix | Le nom du fichier en sortie de la matrice de confusion au format tabulaire. Le format de la table est déterminé par l'emplacement et le chemin d'accès en sortie. Par défaut, la sortie sera une table de géodatabase. Si le chemin ne se trouve pas dans une géodatabase, spécifiez une extension .dbf pour l'enregistrer au format dBASE. | Table |
Exemple de code
Exemple 1 d'utilisation de l'outil ComputeConfusionMatrix (script autonome)
Cet exemple calcule la matrice de confusion en fonction des points d'évaluation de la précision.
import arcpy
from arcpy.sa import *
arcpy.gp.ComputeConfusionMatrix("aapnt2.shp", "confm.dbf")
Environnements
Informations de licence
- ArcGIS Desktop Basic: Requiert Spatial Analyst
- ArcGIS Desktop Standard: Requiert Spatial Analyst
- ArcGIS Desktop Advanced: Requiert Spatial Analyst