Resumen
Calcula una matriz de confusión con errores de omisión y comisión, luego deriva un índice de acuerdo kappa y la precisión general entre el mapa clasificado y los datos de referencia.
Esta herramienta usa las salidas de la herramienta Crear puntos de evaluación de exactitud o de la herramienta Actualizar puntos de evaluación de exactitud.
Uso
Esta herramienta calcula una matriz de confusión usando los puntos de evaluación de exactitud. Los puntos de evaluación de exactitud se generan mediante la herramienta Crear puntos de evaluación de exactitud y se actualizan mediante la herramienta Actualizar puntos de evaluación de exactitud. Esas dos herramientas garantizan que cada punto tendrá valores de clase válidos para los campos CLASSIFIED y GROUND_TRUTH. La herramienta calcula la exactitud del usuario y la exactitud del productor para cada clase, así como un índice de acuerdo Kappa global. Estos índices de exactitud oscilan entre 0 y 1, donde 1 representa el 100 por cien de exactitud. A continuación se muestra un ejemplo de una matriz de confusión.
Ejemplo de matriz de confusiónc_1
c_2
c_3
Total
U_Accuracy
Kappa
c_1
49
4
4
57
0.8594
0
c_2
2
40
2
44
0.9091
0
c_3
3
3
59
65
0.9077
0
Total
54
47
65
166
0
0
P_Accuracy
0.9074
0.8511
0.9077
0
0.8916
0
Kappa
0
0
0
0
0
0.8357
La exactitud del usuario muestra falsos positivos, donde los píxeles se clasifican incorrectamente como una clase conocida cuando deberían haberse clasificado como algo diferente. Un ejemplo podría ser donde la imagen clasificada identifica un píxel como impermeable, pero la referencia lo identifica como bosque. La clase impermeable tiene píxeles extra que no debería tener según los datos de referencia.
La exactitud del usuario también se conoce como errores de comisión o errores de tipo 1. Los datos para calcular esta tasa de error se leen en las filas de la tabla.
En la fila Total se muestra el número de puntos que deben haber sido identificados como una clase dada, según los datos de referencia.
La exactitud del productor es un falso negativo, donde los píxeles de una clase conocida se clasifican como algo diferente a una clase. Un ejemplo podría ser donde la imagen clasificada identifica un píxel como bosque pero en realidad debería ser impermeable. En este caso, a la clase impermeable le faltan píxeles según los datos de referencia.
La exactitud del productor también se conoce como errores de omisión o errores de tipo 2. Los datos para calcular esta tasa de error se leen en las columnas de la tabla.
En la columna Total se muestra el número de puntos que se identificaron como una clase dada, según el mapa clasificado.
El índice de acuerdo Kappa proporciona una evaluación global de la exactitud de la clasificación.
Sintaxis
ComputeConfusionMatrix (in_accuracy_assessment_points, out_confusion_matrix)
Parámetro | Explicación | Tipo de datos |
in_accuracy_assessment_points | Clase de entidad de puntos de evaluación de la exactitud, creada a partir de la herramienta Crear puntos de evaluación de exactitud, que contiene los campos CLASSIFIED y GROUND_TRUTH. | Feature Layer |
out_confusion_matrix | El nombre del archivo de salida de la matriz de confusión en formato de tabla. El formato de la tabla está determinado por la ubicación y la ruta de salida. De forma predeterminada, la salida será una tabla de geodatabase. Si la ruta no está en una geodatabase, especifique una extensión .dbf para guardarla en formato dBASE. | Table |
Muestra de código
Ejemplo 1 de ComputeConfusionMatrix (secuencia de comandos independiente)
Este ejemplo calcula la matriz de confusión basada en puntos de evaluación de exactitud.
import arcpy
from arcpy.sa import *
arcpy.gp.ComputeConfusionMatrix("aapnt2.shp", "confm.dbf")
Entornos
Información sobre licencias
- ArcGIS Desktop Basic: Requiere Spatial Analyst
- ArcGIS Desktop Standard: Requiere Spatial Analyst
- ArcGIS Desktop Advanced: Requiere Spatial Analyst