Resumen
Calcula una matriz de confusión basada en errores de omisión y comisión y, a continuación, deriva un índice de acuerdo Kappa entre el mapa clasificado y los datos que se consideran reales del terreno.
Esta herramienta usa las salidas de la herramienta Crear puntos de evaluación de exactitud o de la herramienta Actualizar puntos de evaluación de exactitud.
Uso
Esta herramienta calcula una matriz de confusión usando los puntos de evaluación de exactitud aleatorios que genera la herramienta Crear puntos de evaluación de exactitud. Calcula la exactitud del usuario y la exactitud del productor para cada clase, así como un índice de acuerdo Kappa global. El índice de exactitud oscila entre 0 y 1, donde 1 representa el 100 por cien de exactitud. Tradicionalmente, se hace referencia a estos valores como tasas de error a pesar de que muestran exactitud. Para mantener la convención, en este documento nos referiremos a ellos como tasas de error.
La exactitud del usuario muestra falsos positivos, donde los píxeles se clasifican incorrectamente como una clase conocida cuando deberían haberse clasificado como algo diferente. Un ejemplo podría ser donde la imagen clasificada dice que un píxel es impermeable pero en realidad el terreno indica que es bosque. La clase impermeable tiene píxeles extra que no debería tener según los datos reales del terreno.
La exactitud del usuario también se conoce como errores de comisión o errores de tipo 1. Los datos para calcular esta tasa de error se leen en las filas de la tabla.
En la fila Total se muestra el número de puntos que se deben haber identificado como una clase dada, según los datos reales del terreno.
La exactitud del productor es un falso negativo, donde los píxeles de una clase conocida se clasifican como algo diferente a una clase. Un ejemplo podría ser donde la imagen clasificada dice que un píxel es bosque pero en realidad es impermeable. En este caso a la clase impermeable le faltan píxeles según los datos reales del terreno.
La exactitud del productor también se conoce como errores de omisión o errores de tipo 2. Los datos para calcular esta tasa de error se leen en las columnas de la tabla.
En la columna Total se muestra el número de puntos que se identificaron como una clase dada, según el mapa clasificado.
El índice de acuerdo Kappa proporciona una evaluación global de la exactitud de la clasificación.
Sintaxis
ComputeConfusionMatrix (in_accuracy_assessment_points, out_confusion_matrix)
Parámetro | Explicación | Tipo de datos |
in_accuracy_assessment_points | Clase de entidad de puntos de evaluación de la exactitud, creada a partir de la herramienta Crear puntos de evaluación de exactitud, que contiene los campos CLASSIFIED y GROUND_TRUTH. | Feature Layer |
out_confusion_matrix | El nombre del archivo de salida de la matriz de confusión en formato de tabla. El formato de la tabla está determinado por la ubicación y la ruta de salida. De forma predeterminada, la salida será una tabla de geodatabase. Si la ruta no está en una geodatabase, especifique una extensión .dbf para guardarla en formato dBASE. | Table |
Muestra de código
Ejemplo 1 de ComputeConfusionMatrix (secuencia de comandos independiente)
Este ejemplo calcula la matriz de confusión basada en puntos de evaluación de exactitud.
import arcpy
from arcpy.sa import *
arcpy.gp.ComputeConfusionMatrix("aapnt2.shp", "confm.dbf")
Entornos
Información sobre licencias
- ArcGIS Desktop Basic: Requiere Análisis espacial
- ArcGIS Desktop Standard: Requiere Análisis espacial
- ArcGIS Desktop Advanced: Requiere Análisis espacial