ArcGIS Desktop

  • ArcGIS Pro
  • ArcMap

  • My Profile
  • Hilfe
  • Sign Out
ArcGIS Desktop

ArcGIS Online

Die Mapping-Plattform für Ihre Organisation

ArcGIS Desktop

Ein vollständiges professionelles GIS

ArcGIS Enterprise

GIS in Ihrem Unternehmen

ArcGIS Developers

Werkzeuge zum Erstellen standortbezogener Apps

ArcGIS Solutions

Kostenlose Karten- und App-Vorlagen für Ihre Branche

ArcGIS Marketplace

Rufen Sie Apps und Daten für Ihre Organisation ab.

  • Dokumentation
  • Support
Esri
  • Anmelden
user
  • Eigenes Profil
  • Abmelden

ArcMap

  • Startseite
  • Erste Schritte
  • Karte
  • Analysieren
  • Verwalten von Daten
  • Werkzeuge
  • Erweiterungen

Konfusionsmatrix berechnen

Mit der Spatial Analyst-Lizenz verfügbar.

  • Zusammenfassung
  • Verwendung
  • Syntax
  • Codebeispiel
  • Umgebungen
  • Lizenzinformationen

Zusammenfassung

Berechnet eine Konfusionsmatrix mit Unterlassungs- und Überlassungsfehlern und leitet anschließend einen Kappa-Übereinstimmungsindex und eine Gesamtgenauigkeit zwischen der klassifizierten Karte und den Referenzdaten ab.

Dieses Werkzeug verwendet die Ausgaben aus dem Werkzeug Punkte für Genauigkeitsbewertung erstellen oder aus dem Werkzeug Punkte für Genauigkeitsbewertung aktualisieren.

Verwendung

  • Dieses Werkzeug berechnet eine Konfusionsmatrix anhand der Punkte für die Genauigkeitsbewertung. Die Punkte für die Genauigkeitsbewertung werden vom Werkzeug Punkte für Genauigkeitsbewertung erstellen oder vom Werkzeug Punkte für Genauigkeitsbewertung aktualisieren erstellt. Mit diesen beiden Werkzeugen wird sichergestellt, dass jeder Punkt über gültige Klassenwerte für die Felder CLASSIFIED und GROUND_TRUTH verfügt. Das Werkzeug berechnet die Nutzer- und Produzentengenauigkeit für jede Klasse sowie einen allgemeinen Kappa-Übereinstimmungindex. Diese Genauigkeitsraten reichen von 0 bis 1, wobei 1 eine Genauigkeit von 100 Prozent darstellt. Nachfolgend finden Sie ein Beispiel für eine Konfusionsmatrix:

    c_1

    c_2

    c_3

    Gesamt

    U_Accuracy

    Kappa

    c_1

    49

    4

    4

    57

    0,8594

    0

    c_2

    2

    40

    2

    44

    0,9091

    0

    c_3

    3

    3

    59

    65

    0,9077

    0

    Gesamt

    54

    47

    65

    166

    0

    0

    P_Accuracy

    0,9074

    0,8511

    0,9077

    0

    0,8916

    0

    Kappa

    0

    0

    0

    0

    0

    0,8357

    Beispiel für Konfusionsmatrix

  • Die Nutzergenauigkeit zeigt falsche positive Ergebnisse, bei denen Pixel als bekannte Klasse falsch klassifiziert werden, wenn sie als etwas anderes hätten klassifiziert werden sollen. Ein Beispiel hierfür wäre, wenn das klassifizierte Bild ein Pixel als undurchlässig, die Referenz es jedoch als Wald identifiziert. Die undurchlässige Klasse verfügt über zusätzliche Pixel, die sie gemäß Referenzdaten nicht aufweisen sollte.

    Die Nutzergenauigkeit wird auch als Überlassungsfehler oder Fehler vom Typ 1 bezeichnet. Die Daten zum Berechnen dieser Fehlerrate werden aus den Zeilen der Tabelle gelesen.

    Die Zeile Total zeigt die Anzahl der Punkte an, die den Referenzdaten entsprechend als angegebene Klasse hätten identifiziert werden müssen.

  • Die Produzentengenauigkeit ist ein falsches negatives Ergebnis, bei dem Pixel einer bekannten Klasse als etwas anderes klassifiziert werden als diese Klasse. Ein Beispiel hierfür wäre, wenn das klassifizierte Bild ein Pixel als Wald identifiziert, es tatsächlich jedoch undurchlässig ist. In diesem Fall fehlen der undurchlässigen Klasse gemäß den Referenzdaten Pixel.

    Die Produzentengenauigkeit wird auch als Unterlassungsfehler oder Fehler vom Typ 2 bezeichnet. Die Daten zum Berechnen dieser Fehlerrate werden in den Spalten der Tabelle gelesen.

    Die Spalte Total zeigt die Anzahl der Punkte an, die entsprechend der klassifizierten Karte als angegebene Klasse identifiziert wurden.

  • Der Kappa-Übereinstimmungindex liefert eine Gesamtbewertung der Genauigkeit der Klassifizierung.

Syntax

ComputeConfusionMatrix(in_accuracy_assessment_points, out_confusion_matrix)
ParameterErklärungDatentyp
in_accuracy_assessment_points

Die mit dem Werkzeug Punkte für Genauigkeitsbewertung erstellen erstellte Point-Feature-Class für Genauigkeitsbewertung mit den Feldern CLASSIFIED und GROUND_TRUTH.

Feature Layer
out_confusion_matrix

Der Name der Ausgabedatei der Konfusionsmatrix im Tabellenformat.

Das Format der Tabelle wird durch das Ausgabeverzeichnis und den Ausgabepfad bestimmt. Die Ausgabe ist standardmäßig eine Geodatabase-Tabelle. Wenn der Pfad nicht in einer Geodatabase enthalten ist, geben Sie eine .dbf-Erweiterung an, um ihn im dBASE-Format zu speichern.

Table

Codebeispiel

ComputeConfusionMatrix – Beispiel 1 (eigenständiges Skript)

In diesem Beispiel wird die Konfusionsmatrix basierend auf Punkten für die Genauigkeitsbewertung berechnet.

import arcpy
from arcpy.sa import *

arcpy.gp.ComputeConfusionMatrix("aapnt2.shp", "confm.dbf")

Umgebungen

Dieses Werkzeug verwendet keine Geoverarbeitungsumgebungen.

Lizenzinformationen

  • Basic: Erfordert Spatial Analyst
  • Standard: Erfordert Spatial Analyst
  • Advanced: Erfordert Spatial Analyst

Verwandte Themen

  • Überblick über das Toolset "Segmentierung und Klassifizierung"
  • Was ist Bildklassifizierung?

ArcGIS Desktop

  • Startseite
  • Dokumentation
  • Support

ArcGIS

  • ArcGIS Online
  • ArcGIS Desktop
  • ArcGIS Enterprise
  • ArcGIS
  • ArcGIS Developer
  • ArcGIS Solutions
  • ArcGIS Marketplace

Über Esri

  • Über uns
  • Karriere
  • Esri Blog
  • User Conference
  • Developer Summit
Esri
Wir sind an Ihrer Meinung interessiert.
Copyright © 2021 Esri. | Datenschutz | Rechtliches