栅格所表示的内容的详细程度(要素/现象)通常取决于像元(像素)大小或空间分辨率。像元必须足够小,这样才可以捕获到所需的详细信息;而像元又必须足够大,这样才可以提高计算机存储和分析的执行效率。栅格可以使用更小的像元大小在要素的范围内表示更多的特征、更小的要素或更详细的内容。不过,更多通常未必更好。像元大小如果较小,则在表示整个表面时会造成栅格数据集较大;因此,会需要更大的储存空间,而且通常会使处理时间更长。
选择合适的像元大小并不总是很简单的。您必须权衡该应用的空间分辨率要求和实际需求,例如显示速度、处理时间和储存空间等。实际上,在 GIS 中,结果的精确度只能与精确度最低的输入数据集相同。如果您使用的分类数据集是从 30 米分辨率的美国陆地资源卫星影像获得的,则可能没有必要使用例如 10 米这样的高分辨率来创建数字高程模型 (DEM) 或其他辅助数据。关键变量,例如地形和土地利用,区域越均匀,分析精度越不容易受到像元大小增大的影响。
在 GIS 应用规划阶段,确定适当像元大小与确定要获取哪些数据集一样重要。通过对栅格数据集进行重新采样随时可使像元大小增大;但却不能通过对栅格重新采样来使像元大小减小而获取更详细的内容。根据对此数据的未来规划,应该在像元大小最小且准确度最高情况下保存数据的复本,同时重新采样数据以匹配像元大小最大且精度最低的情况。这可提高分析处理速度。
在指定像元大小时,应考虑以下几个因素:
- 输入数据的空间分辨率
- 要执行的应用程序和分析
- 结果数据库大小(对比磁盘容量)
- 所需的响应时间
分辨率类型
当处理影像栅格数据时,可能会涉及到四种类型的分辨率:空间分辨率、光谱分辨率、时间分辨率和辐射分辨率。
在 GIS 中,最常涉及到的是栅格数据集的空间分辨率,尤其是当显示栅格数据或将栅格数据与其他类型的数据(例如矢量)进行对比时。在这种情况下,分辨率与像元大小(在地面上覆盖的并由一个单独像元表示的面积)相关。空间分辨率越高,意味着每个单位面积中的像元越多;因此,左侧图形所表示的空间分辨率比右侧图形的高。
光谱分辨率则描述了传感器区分电磁光谱各波长间隔的能力。光谱分辨率越高,则特定波段的波长范围越窄。例如,一个单波段灰度航空像片(影像)记录的波长数据范围覆盖了电磁光谱中的大部分可见区;因此,它的光谱分辨率就较低。一个彩色影像(有三个波段)基本上可从电磁光谱中较小的三个可见区部分(红色、绿色和蓝色部分)中收集波长数据。因此,彩色影像中每个波段的光谱分辨率都比灰度影像的高。高级多光谱和高光谱传感器可从电磁光谱各个部分下的多达数百个窄光谱波段中收集数据,因而得到的数据具有非常高的光谱分辨率。
时间分辨率则是指对地球表面的同一地点捕获影像的频率,也称为重复观测周期,这一术语最常用来描述卫星传感器。因此,对于每周捕获一次数据的传感器,其时间分辨率便比每个月捕获一次要高。
辐射分辨率用于描述传感器在电磁光谱的同一部分中对所查看对象的区分能力;这等同于每个波段中可具有的数据值数量。例如,美国陆地资源卫星波段通常都为 8 位数据,IKONOS 波段通常为 11 位数据;因此,IKONOS 数据的辐射分辨率更高。
空间分辨率与比例
空间分辨率是指像元大小所表示的在地面上覆盖面积的尺寸。因此,如果一个像元的覆盖面积为 5 x 5 米,则分辨率为 5 米。栅格的分辨率越高,像元大小越小,从而详细程度便越高。这和比例相反。比例越小,显示的细节越少。例如,以比例 1:2,000 显示的正射影像(呈放大样式)会比以比例 1:24,000 显示的(呈缩小样式)影像更加详细。但是,如果此相同正射影像的像元大小为 5 米,则不管以什么比例来显示,相应的分辨率将始终保持不变,因为实际的像元大小(在地面上覆盖的并由一个单独的像元表示的面积)并未发生改变。
在下方,左侧影像的比例 (1:50,000) 比右侧影像的比例 (1:2,500) 小;但是,数据的空间分辨率(像元大小)相同。
在下方,左侧影像中所使用的数据的空间分辨率比右侧影像的低。这表示左侧影像中数据的像元大小比右侧影像数据的大,但其中显示的比例却相同。