Zusammenfassung
Berechnet eine Konfusionsmatrix basierend auf Überlassungs- und Unterlassungsfehlern und leitet anschließend einen Kappa-Übereinstimmungindex zwischen der klassifizierten Karte und den Daten ab, die als überprüft gelten.
Dieses Werkzeug verwendet die Ausgaben aus dem Werkzeug Punkte für Genauigkeitsbewertung erstellen oder aus dem Werkzeug Punkte für Genauigkeitsbewertung aktualisieren.
Verwendung
Mit diesem Werkzeug wird eine Konfusionsmatrix anhand der zufälligen Punkte für die Genauigkeitsbewertung berechnet, die von dem Werkzeug Punkte für Genauigkeitsbewertung erstellen generiert werden. Es berechnet die Benutzer- und Erstellergenauigkeit für jede Klasse sowie einen allgemeinen Kappa-Übereinstimmungindex. Diese Genauigkeitsraten reichen von 0 bis 1, wobei 1 eine Genauigkeit von 100 Prozent darstellt. Bisher wurden diese als Fehlerraten bezeichnet, obwohl sie die Genauigkeit angeben. Zur Beibehaltung der Konvention werden sie in diesem Dokument als Fehlerraten bezeichnet.
Die Genauigkeit des Benutzers zeigt falsche positive Ergebnisse, bei denen Pixel als bekannte Klasse falsch klassifiziert werden, wenn sie als etwas anderes hätten klassifiziert werden sollen. Ein Beispiel hierfür wäre, wenn das klassifizierte Bild anzeigt, dass ein Pixel undurchlässig ist, die Überprüfungsdaten jedoch angeben, dass es sich um Wald handelt. Die undurchlässige Klasse verfügt über zusätzliche Pixel, die sie gemäß Überprüfungsdaten nicht aufweisen sollte.
Die Benutzergenauigkeit wird auch als Unterlassungsfehler oder Fehler vom Typ 1 bezeichnet. Die Daten zum Berechnen dieser Fehlerrate werden aus den Zeilen der Tabelle gelesen.
Die Zeile "Gesamt" zeigt die Anzahl der Punkte an, die den Überprüfungsdaten entsprechend als angegebene Klasse hätten identifiziert werden müssen.
Die Erstellergenauigkeit ist ein falsches negatives Ergebnis, bei dem Pixel einer bekannten Klasse als etwas anderes klassifiziert werden als diese Klasse. Ein Beispiel hierfür wäre, wenn das klassifizierte Bild angibt, dass es sich bei einem Pixel um Wald handelt, es tatsächlich jedoch undurchlässig ist. In diesem Fall fehlen der undurchlässigen Klasse gemäß den Überprüfungsdaten Pixel.
Die Erstellergenauigkeit wird auch als Überlassungsfehler oder Fehler vom Typ 2 bezeichnet. Die Daten zum Berechnen dieser Fehlerrate werden in den Spalten der Tabelle gelesen.
Die Spalte Gesamt zeigt die Anzahl der Punkte an, die entsprechend der klassifizierten Karte als angegebene Klasse identifiziert wurden.
Der Kappa-Übereinstimmungindex liefert eine Gesamtbewertung der Genauigkeit der Klassifizierung.
Syntax
ComputeConfusionMatrix (in_accuracy_assessment_points, out_confusion_matrix)
Parameter | Erläuterung | Datentyp |
in_accuracy_assessment_points | Die mit dem Werkzeug Punkte für Genauigkeitsbewertung erstellen erstellte Point-Feature-Class für Genauigkeitsbewertung mit den Feldern CLASSIFIED und GROUND_TRUTH. | Feature Layer |
out_confusion_matrix | Der Name der Ausgabedatei der Konfusionsmatrix im Tabellenformat. Das Format der Tabelle wird durch das Ausgabeverzeichnis und den Ausgabepfad bestimmt. Die Ausgabe ist standardmäßig eine Geodatabase-Tabelle. Wenn der Pfad nicht in einer Geodatabase enthalten ist, geben Sie eine .dbf-Erweiterung an, um ihn im dBASE-Format zu speichern. | Table |
Codebeispiel
ComputeConfusionMatrix – Beispiel 1 (eigenständiges Skript)
In diesem Beispiel wird die Konfusionsmatrix basierend auf Punkten für die Genauigkeitsbewertung berechnet.
import arcpy
from arcpy.sa import *
arcpy.gp.ComputeConfusionMatrix("aapnt2.shp", "confm.dbf")
Umgebungen
Lizenzinformationen
- ArcGIS Desktop Basic: Erfordert Spatial Analyst
- ArcGIS Desktop Standard: Erfordert Spatial Analyst
- ArcGIS Desktop Advanced: Erfordert Spatial Analyst