在进行遥感影像处理之前一般都会进行影像融合处理,但是为什么要进行这步处理呢?
这是因为同一份遥感数据里相对来说全色影像分辨率要高,但它无法显示地物色彩,美观度不够,而多光谱影像可以给不同波段赋予RGB颜色来得到彩色影像,但它分辨率低,不符合大家对分辨率的需求。为了获得一张高分辨率的彩色影像,我们便将高分辨率的全色影像和可赋颜色的多光谱影像进行融合。
为什么同一份影像为什么全色影像分辨率比多光谱影像要高呢?
一份原始影像中一般会包括两张TIFF/TIF格式的影像:
这两张影像在遥感软件中打开(或者在其他图像软件中打开)后会发现,其中一张是没有颜色的(也称为灰度图),另一张是有颜色的(彩色图)。一般我们把灰度图称为全色影像,也把彩色图称为多光谱影像:
全色影像:传感器获取整个全色波段(0.5微米到0.75微米左右的单波段)的黑白影像。因为只获取单波段,在图上显示是灰度图片。全色遥感影象一般空间分辨率高,但无法显示地物色彩。
多光谱影像:传感器对地物辐射中多个单波段的摄取得到的包含多个波段的光谱信息的影像,对各个不同的波段分别赋予RGB颜色将得到彩色影象。
仔细点观察上面的对比图,我们还能发现这两张图清晰度不一样,全色影像清晰度更高一些,彩色的多光谱影像较为模糊。
在遥感软件中分别对三份不同卫星的数据的分辨率进行查看,得到三份影像的分辨率:
卫星 | 全色分辨率(m) | 多光谱分辨率(m) |
Pleiades1 | 0.52 | 2.1 |
QuickBird | 0.6 | 2.4 |
高分二号GF2 | 0.87 | 3.5 |
下面我们就来解释一下为什么全色影像分辨率高于多光谱分辨率。
说到分辨率就不得不提到遥感影像的几大分辨率概念:
(1)空间分辨率:一个像元对应的地面距离,距离越小,分辨率越高,如0.5m分辨率高于1m分辨率。
(2)光谱分辨率:传感器在接收目标辐射的光谱时能分辨的最小波长间隔。间隔越小,分辨率越高。
(3)时间分辨率:对同一地点进行遥感采样的时间间隔,集采样的时间频率,也称重访周期。
(4)辐射分辨率:传感器接收波谱信号时,能分辨的最小辐射度差。
上面几种分辨率中辐射分辨率和时间分辨率和我们探讨的问题关系不大,暂且抛开不谈。
其实我们平时所提到的某某影像的分辨率是多少多少,这个分辨率正是上文提到空间分辨率,空间分辨率越高,影像清晰度越高。
下图是同一区域不同分辨率的影像对比图:
上述提到的空间分辨率和光谱分辨率(其实还包括辐射分辨率,但是上面已经说啦,忽略它。)对于传感器来说是相互制约的,空间分辨率高,光谱分辨率一定高不起来。
上述多光谱影像中含有四个波段——红、绿、蓝和近红外(波长范围见下表),而全色影像的波段范围则一般是绿色之后(500纳米至750纳米左右)的可见光波段,波长范围间隔大于多光谱中的单波段波段范围。
卫星 | 波段 | 波段范围 |
QuickBird | 蓝 | 450-520nm |
绿 | 520-600nm | |
红 | 630-690nm | |
近红外 | 760-900nm | |
GF-2 | 蓝 | 450-520nm |
绿 | 520-590nm | |
红 | 630-690nm | |
近红外 | 770-890nm | |
Pleiades-1 | 蓝 | 430-550nm |
绿 | 490-610nm | |
红 | 600-720nm | |
近红外 | 750-950nm |
所以简单来说,全色影像接收的波段波长范围长于多光谱的,所以它的光谱分辨率较低,进而它的空间分辨率更高。也可以这么理解,全色影像保留了空间分辨率,而多光谱影像保留了光谱信息。
从更深的原因层面来说的话呢,还有另一种解释角度——传感器的分光方式:
传感器是需要获得一定光能才能响应的,对于多光谱影像来说,传感器接收到光信号前会有一个分光的过程,将入射的白光分解成所需的RGB光谱段和近红外光束,然后传感器(一般是一组传感器)才分别接受这些光束,而对于全色影像来说,传感器摄取的是单波段,所以不存在分光过程。光的入射能量是一定的,分光后能量降低了,所以对应的分辨率也降低了。
简单总结一下,全色影像比多光谱影像分辨率高的原因可以从两个角度来解释:
一是光谱分辨率和空间分辨率彼此制约,全色影像的光谱分辨率低,所以空间分辨率高;
二为对于多光谱影像来说,光束经过分光 ,带给传感器的能量减少了,所以空间分辨率低。
一份影像中,全色影像保留着空间分辨率,多光谱影像保留光谱信息,各司其职,后期的遥感处理将两者融合在一起,便得到了一份既有高空间分辨率又保留着光谱分辨率的影像!因此遥感影像进行后期处理是很有必要!