Краткая информация
Получая случайные точки или объекты с весами (точки или полигоны), создает карту статистически значимых "горячих" точек и "холодных" точек на основе статистического показателя Getis-Ord Gi*. При этом выполняется оценка характеристик класса входных объектов для получения оптимальных результатов.
Подробнее о том, как работает Оптимизированный анализ горячих точек
Иллюстрация
Использование
Этот инструмент идентифицирует статистически значимые пространственные кластеры высоких значений (горячих точек) и низких значений (холодных точек). Он автоматически агрегирует случайные данные, выбирает подходящий масштаб анализа и выполняет корректировку для множественного тестирования и пространственной зависимости. Этот инструмент обрабатывает ваши данные, чтобы определить настройки, которые помогут получить оптимальные результаты анализа горячих точек. Если вам необходим полный контроль над данными настройками, используйте инструмент Анализ горячих точек (Hot Spot Analysis).
Вычисленные настройки, используемые для получения оптимальных результатов анализа горячих точек, выводятся в Окне результатов. Связанные рабочие процессы и алгоритмы описаны в разделе Как работает Оптимизированный анализ горячих точек.
Инструмент создает новый Выходной класс объектов (Output Feature Class) с z-оценкой, p-значением и уровнем достоверности (Gi_Bin) для каждого объекта во Входном классе объектов (Input Feature Class).
Поле Gi_Bin определяет статистически значимые "горячие" и "холодные" точки с поправкой на множественное тестирование и пространственную зависимость, используя метод коррекции FDR (False Discovery Rate). Объекты с +/-3 bins (объекты со значением Gi_Bin, равным +3 или -3) являются статистически значимыми с уровнем достоверности 99 процентов; объекты с +/-2 bins отражают статистическую значимость с уровнем достоверности 95 процентов; объекты с +/-1 bins отражают статистическую значимость с уровнем достоверности 90 процентов; а кластеризация для объектов со значением 0 в поле Gi_Bin не имеет статистической значимости.
Поля p-значений и z-оценки не отражают коррекцию FDR (False Discovery Rate). Дополнительные сведения о z-оценке и p-значениях см. в разделе Что такое z-оценка? Что такое p-значение?
Когда Входной класс объектов (Input Feature Class) не имеет проекции (т.е. когда координаты заданы в градусах, минутах и секундах), или когда в качестве выходной системы координат (output coordinate system) используется Географическая система координат (Geographic Coordinate System), расстояния в этих случаях будут рассчитываться с помощью хордовых измерений. Измерения хордовых расстояний применяются постольку, поскольку они могут быть быстро вычислены и дают очень хорошие оценки истинных геодезических расстояний, по крайней мере для точек, расстояние между которыми в пределах порядка тридцати градусов. Хордовые расстояния основаны на эллипосиде вращения. Если взять две любые точки на поверхности Земли, то хордовым расстоянием между ними будет длина прямой линии, проходящей через трехмерное тело Земли и соединяющей эти две точки. Хордовые расстояния выражаются в метрах.
Входными объектами (Input Features) могут быть точки или полигоны. Для полигонов требуется Поле анализа (Analysis Field).
Если Вы предоставляете Поле анализа (Analysis Field), то оно должно содержать разные значения. Для математических расчетов, выполняемых в рамках этих статистических операций, требуется, чтобы исходные переменные были разными. Например, анализ не будет выполняться, если все входящие значения равны 1.
С Полем анализа (Analysis Field) этот инструмент подходит для всех данных (точки и полигоны), в том числе для выборочных данных. В действительности, этот инструмент эффективен и надежен даже в случаях, когда число объектов очень большое. Когда объектов много, инструмент получает больше информации для вычисления точных и надежных результатов. Когда объектов мало, инструмент по-прежнему будет работать, чтобы получить точные и надежные результаты, но у него будет меньше информации, с которой он может работать.
Поскольку лежащая в основе и используемая этим инструментом статистика Getis-Ord Gi* является асимптотически нормальной, то даже когда в Поле анализа (Analysis Field) содержатся искаженные данные, результаты получаются надежными.
С точечными данными вам иногда может понадобиться анализ значений данных по каждому из точечных объектов, и следовательно, вы будете использовать Поле анализа (Analysis Field). В других случаях вам будет нужно лишь получить оценку пространственных структурных закономерностей (кластеризацию) местоположений точек или инцидентов точек. Решение вопроса о том, добавлять ли Поле анализа (Analysis Field) или нет, зависит от исследуемой вами задачи.
- Анализ точечных объектов с Полем анализа (Analysis Field) позволит вам получить ответ на такие вопросы, как: где сконцентрированы высокие и низкие значения?
- Выбранное поле анализа может представлять:
- Количество (например, число ДТП на перекрестках)
- Показатели (например, безработица в городах, где каждый город показан точечным объектом)
- Средние (например, среднее значение результатов тестов по математике, проведенных во всех школах)
- Индексы (например, оценка уровня потребительской удовлетворенности автодилерами по всей стране)
- Анализ точечных объектов без добавления Поля анализа (Analysis Field) позволит вам определить места статистически значимой интенсивной или невысокой концентрации точек. Такой тип анализа поможет вам найти ответ на такие вопросы, как: В каком месте имеется много точек? В каком месте очень мало точек?
Если вы не будете использовать Поле анализа (Analysis Field), инструмент соберет все ваши точки для их подсчета и использования в качестве поля анализа. Есть три возможных схемы агрегации:
- Для COUNT_INCIDENTS_WITHIN_FISHNET_POLYGONS вычисляется соответствующий размер ячейки полигона, который используется для создания ячейки полигональной сетки. Сетка размещается над точками инцидентов и производится подсчет точек внутри каждой полигональной ячейки. Если не существует векторного слоя Ограничивающие полигоны, определяющие возможное расположение инцидентов (Bounding Polygons Defining Where Incidents Are Possible), то ячейки сетки с нулевым количеством точек удаляются, и анализируются только оставшиеся ячейки. Если существует векторный слой ограничивающих полигонов, то все ячейки сетки, попадающие внутрь ограничивающих полигонов, сохраняются и анализируются. Количество точек для каждой полигональной ячейки используется в качестве поля анализа.
- Для COUNT_INCIDENTS_WITHIN_AGGREGATION_POLYGONS необходимо предоставить векторный слой Полигоны для агрегирования инцидентов по количеству. Инциденты точек, попадающие внутрь каждого полигона, будут посчитаны, и эти полигоны со связанным количеством инцидентов будут затем проанализированы. Опция COUNT_INCIDENTS_WITHIN_AGGREGATION_POLYGONS является подходящей стратегией агрегации, когда точки связаны с административными единицами, такими как участки, округа или школьные районы. Вы также можете использовать эту опцию, если вы хотите, чтобы изучаемая область оставалась одной и той же во время множественных анализов, чтобы воспользоваться преимуществом сравнения.
- Для параметра SNAP_NEARBY_INCIDENTS_TO_CREATE_WEIGHTED_POINTS вычисляется расстояние замыкания, которое используется для агрегирования ближайших точек инцидентов. Каждой агрегированной точке присваивается количество, отражающее число инцидентов, которые были замкнуты друг с другом. Агрегированные точки затем анализируются, при этом количество инцидентов используется в качестве поля анализа. Опция SNAP_NEARBY_INCIDENTS_TO_CREATE_WEIGHTED_POINTS является подходящей стратегией агрегации, когда у вас есть много совпадающих или почти совпадающих точек, и вы хотите сохранить аспекты пространственной структурной закономерности исходных точечных данных. Во многих случаях вы можете захотеть использовать обе опции SNAP_NEARBY_INCIDENTS_TO_CREATE_WEIGHTED_POINTS и COUNT_INCIDENTS_WITHIN_FISHNET_POLYGONS, чтобы узнать, результаты какой из них наилучшим образом отражают пространственную структурную схему исходных точечных данных. Решения с использованием сетки могут искусственным образом разделить кластеры точечных инцидентов, но выходные данные при этом могут быть проще для интерпретации для некоторых пользователей, чем взвешенные выходные точечные данные.
Когда вы выбираете опцию COUNT_INCIDENTS_WITHIN_FISHNET_POLYGONS для Метода агрегирования данных инцидентов вы можете дополнительно указать векторный слой Ограничивающие полигоны, определяющие возможное расположение инцидентов. Когда не предоставлено никаких ограничивающих полигонов, инструмент не может узнать, должно ли расположение без инцидента иметь значение 0, указывающее, что инцидент возможен, но не произошел, или расположение должно быть удалено из анализа, поскольку инциденты никогда не происходят в данном расположении. Соответственно, если не существует ни одного ограничивающего полигона, то для анализа берутся только те ячейки сетки, которые содержат как минимум один инцидент. Если такое поведение вам не подходит, вы можете предоставить векторный слой Ограничивающие полигоны, определяющие возможное расположение инцидентов (Bounding Polygons Defining Where Incidents Are Possible), чтобы убедиться, что все берутся все расположения внутри ограничивающих полигонов. Ячейки сетки, не имеющие внутренних инцидентов, получат значение количества инцидентов, равное нулю.
Любые инциденты, не попадающие в Ограничивающие полигоны, определяющие возможное расположение инцидентов (Bounding Polygons Defining Where Incidents Are Possible) или в Полигоны для агрегирования инцидентов в количество (Polygons For Aggregating Incidents Into Counts), будут исключены из анализа.
Если у вас есть ArcGIS Spatial Analyst, то вашим выбором может стать создание Поверхности плотности (Density Surface) своих точечных Входных объектов (Input Features). С точечными Входными объектами параметр Плотность поверхности будет включен тогда, когда вы укажете Поле анализа или если вы выберете SNAP_NEARBY_INCIDENTS_TO_CREATE_WEIGHTED_POINTS в качестве Метода агрегирования данных инцидентов. Выходная Поверхность плотности (Density Surface) будет вырезана по маске анализа растра, указанной в системных настройках. Если маска растра не указана, выходной растровый слой будет вырезан по выпуклой оболочке вокруг Входных объектов (Input Features).
Вам необходимо использовать инструменты Построить матрицу пространственных весов (Generate Spatial Weights Matrix) и Анализ горячих точек (Getis-Ord Gi*) (Hot Spot Analysis (Getis-Ord Gi*)), если вы хотите идентифицировать горячие точки пространства-времени. Дополнительные сведения о пространственно-временном кластерном анализе см. в разделе Пространственно-временной анализ кластеров.
-
Слои карты можно использовать для определения Входного класса объектов (Input Feature Class). Если в слое есть выборка, только выбранные объекты будут включены в анализ.
-
Слой Выходных объектов автоматически добавляется в таблицу содержания с методом отображения по умолчанию, примененного к полю Gi_Bin. Применяемое отображение со шкалой «от горячего к холодному» определяется файлом слоя в <ArcGIS>/Desktop10.x/ArcToolbox/Templates/Layers. Метод отображения по умолчанию, если это необходимо, можно применить заново путем импорта символов слоя шаблона.
Синтаксис
OptimizedHotSpotAnalysis_stats (Input_Features, Output_Features, {Analysis_Field}, {Incident_Data_Aggregation_Method}, {Bounding_Polygons_Defining_Where_Incidents_Are_Possible}, {Polygons_For_Aggregating_Incidents_Into_Counts}, {Density_Surface})
Параметр | Объяснение | Тип данных |
Input_Features | Точечный или полигональный класс объектов, по которому будет выполняться анализ горячих точек. | Feature Layer |
Output_Features | Выходной класс объектов для получения результатов z-оценки, р-значения и Gi_Bin. | Feature Class |
Analysis_Field (Дополнительный) | Числовое поле (количество инцидентов, тяжести преступления, тестовые оценки и т.д.), которое должно быть оценено. | Field |
Incident_Data_Aggregation_Method (Дополнительный) | Метод агрегирования, используемый для создания объектов с весами для анализа из данных точек инцидентов.
| String |
Bounding_Polygons_Defining_Where_Incidents_Are_Possible (Дополнительный) | Полигональный класс пространственных объектов, который определяет, где могут встретиться Input_Features инцидента. | Feature Layer |
Polygons_For_Aggregating_Incidents_Into_Counts (Дополнительный) | Полигоны, которые будут использоваться для агрегирования Input_Features инцидентов, чтобы рассчитать число инцидентов для каждого полигонального объекта. | Feature Layer |
Density_Surface (Дополнительный) | Выходная поверхность плотности для входных точечных объектов. Этот параметр будет доступным только в случае, если Input_Features являются точками, и у вас есть ArcGIS Spatial Analyst. Созданная выходная поверхность будет вырезана по маске анализа растра, указанной в ваших системных настройках. Если маска растра не указана, выходной растровый слой будет вырезан по выпуклой оболочке входных объектов. | Raster Dataset |
Пример кода
OptimizedHotSpotAnalysis Пример 1 (окно Python)
Следующий скрипт, представленный в окне Python, демонстрирует использование инструмента OptimizedHotSpotAnalysis.
import arcpy
arcpy.env.workspace = r"C:\OHSA"
arcpy.OptimizedHotSpotAnalysis_stats("911Count.shp", "911OptimizedHotSpots.shp", "#", "SNAP_NEARBY_INCIDENTS_TO_CREATE_WEIGHTED_POINTS", "#", "#", "calls911Surface.tif")
OptimizedHotSpotAnalysis Пример 2 (автономный скрипт Python)
Следующий автономный скрипт Python демонстрирует, как использовать инструмент OptimizedHotSpotAnalysis.
# Analyze the spatial distribution of 911 calls in a metropolitan area
# Import system modules
import arcpy
# Set property to overwrite existing output, by default
arcpy.env.overwriteOutput = True
# Local variables...
workspace = r"C:\OHSA\data.gdb"
try:
# Set the current workspace (to avoid having to specify the full path to the feature classes each time)
arcpy.env.workspace = workspace
# Create a polygon that defines where incidents are possible
# Process: Minimum Bounding Geometry of 911 call data
arcpy.MinimumBoundingGeometry_management("Calls911", "Calls911_MBG", "CONVEX_HULL", "ALL",
"#", "NO_MBG_FIELDS")
# Optimized Hot Spot Analysis of 911 call data using fishnet aggregation method with a bounding polygon of 911 call data
# Process: Optimized Hot Spot Analysis
ohsa = arcpy.OptimizedHotSpotAnalysis_stats("Calls911", "Calls911_ohsaFishnet", "#", "COUNT_INCIDENTS_WITHIN_FISHNET_POLYGONS",
"Calls911_MBG", "#", "#")
except:
# If any error occurred when running the tool, print the messages
print(arcpy.GetMessages())
Параметры среды
- Выходная система координат (Output Coordinate System)
- Географические преобразования (Geographic Transformations)
- Текущая рабочая область (Current Workspace)
- Временная рабочая область (Scratch Workspace)
- Стандартизированные имена полей (Qualified Field Names)
- Выходные данные содержат значения M (Output has M values)
- Разрешение M (M Resolution)
- Допуск M (M Tolerance)
- Выходные данные содержат Z значения (Output has Z values)
- Выходное значение Z по умолчанию (Default Output Z Value)
- Разрешение Z (Z Resolution)
- Допуск Z (Z Tolerance)
- Разрешение XY (XY Resolution)
- Допуск XY (XY Tolerance)
- Размер ячейки (Cell size)
- Маска (Mask)
- Растр привязки (Snap Raster)
Информация о лицензиях
- ArcGIS Desktop Basic: Да
- ArcGIS Desktop Standard: Да
- ArcGIS Desktop Advanced: Да
Связанные разделы
- Моделирование пространственных отношений
- Что такое z-оценка? Что такое p-значение?
- Пространственные веса
- Обзор группы инструментов Список кластеров (Mapping Clusters)
- Пространственная автокорреляция (Глобальный индекс Морана I)
- Как работает Оптимизированный анализ горячих точек
- Анализ горячих точек (Getis-Ord Gi*)
- Анализ кластеров и выбросов (Anselin Локальный индекс Морана I)