目录
引言
一、模式和模式类
二、基于决策理论方法的识别
2.1 匹配
2.2 最佳统计分类器
2.3 神经网络
三、结构方法
3.1 匹配形状数
3.2 串匹配
四、总结
引言
在界定数字图像处理的覆盖范围时,包含了图像中各个区域的识别,我们将这些区域称为目标或模式。模式识别主要分为两大领域,决策理论方法和结构方法,第一类处理的是使用定量描绘子来描述各种模式,例如长度、面积和纹理等。第二类处理的是由定性描绘子来描述的各种模式。
一、模式和模式类
模式是描绘子的组合,亦或者可以用特征来表示描绘子。模式类则是指具有某种共同属性的一族模式。可以用
表示。
在实践中常用的三种模式组合是向量、串和树,模式向量可以表示为:
这里的
表示第i个描绘子,n是与该模式有关的描绘子的总数。模式向量以列向量的形式表示。模式向量x中的各个分量的性质,取决于用于描述该物理模式本身的方法。下面介绍一个简单的例子用以介绍。
判别分析是Fisher在一篇经典的论文中所使用的技术,在这篇论文里对三种鸢尾花进行了识别,方法是测量花瓣的宽度与长度:
所以就生成了两个度量,形如:
在这个二维模式里
分别代表这花瓣的长度与宽度。 其模式类
就代表了三种不同品种的鸢尾花。不同品种的鸢尾花其长度和宽度也不同,故描述这些花的模式向量也会不同,这不仅体现在不同类之间,也体现在一个类的内部。上图就显示了每种鸢尾花的几个样本的长度和宽度度量。每种花就成为二维欧式空间中的一个点。
上图显示了模式向量生成的另一个例子。这里关注的对象变成了不同类型的噪声波形。选择用信号表示目标时,得到了图b那般的一维信号,用取样后的幅度值来描述每个信号;这里以指定间隔值
对信号进行取样,并构成模式向量,这些向量就成为n维欧氏空间中的点。
替代直接使用信号的幅度,就可以计算一个给定信号的前n个统计矩,由这些描绘子作为每个模式向量的分量。
统计矩的计算:
v为幅度,
为v出现的概率估计,量m为v的均值或平均值,
为v的方差。
当然模式特征也可由结构关系来描述,基于痕迹特性的相互关系就可以称为细节。 除此之外还有很多其他种类的相互关系。
二、基于决策理论方法的识别
决策理论方法识别是以使用决策函数为基础的,x为一个n为模式向量。对于W个模式类,决策理论模式识别的基本问题是依据如下属性找到W个决策函数
。如果x属于类
,则
也就是将x代入所有的决策函数后,如果
得到一个最大值,就称未知模式x属于第i个模式类。 从类
中分离出类
的决策边界,由:
的x值给出。 接下来就讨论探寻满足决策函数的x的各种方法。
2.1 匹配
最小距离分离器
假设将每个模式类的原型定义为该类模式的平均向量:
其中,
是来自
类模式向量的数量,求和操作是对所有的这些向量进行的。W是模式类的数量。由此就能知道,就x的类成员的一种方法,将其赋值给最接近的原型类。使用欧式距离求接近程度可将该问题简化为计算距离度量:
其中
为欧几里得范数。若
是最小距离,则把x赋给类
。
选择最小距离等同于计算函数:
当
获得最大数值时,将x划归类
。所以就可以得到
、
的决策边界为:
这个决策面是连接
的线段的垂直等分线。n=2时,垂直等分线就是一条直线;n=3时,是一个平面,n>3时,称之为一个超平面。
相关匹配
在先前的学习中,有接触到空间相关的基本概念,并了解到大小为m*n的模板w(x,y)与图像f(x,y)的相关可表示为:
其中,求和的上下限取w和f的共同范围。
空间相关通过相关定理与函数的变化相联系:
☆为空间相关,
为F的复共轭。
归一化相关系数:
求和的上下限取x和f的共同范围,
是模板的平均值,
是f中与w重合区域的平均值。通常将w称为模板,将相关称为模板匹配。当归一化的w和f中对应的归一化区域相同时,
出现最大值,即最大相关。 当两个归一化函数在上式的意义下表现出最小相似性时,出现最小值。下图说明了该机理。
下面为利用相关进行匹配的例子:
图a为飓风卫星图像,图b则是飓风眼模型,为找到图b在图a中最好的匹配位置,使用归一化系数的公式,就可获得图c,在该图像里,灰度与相关值成正比,且所有的负相关都为(黑),借此达到视觉效果,由此可以得到最亮点图d。
所以对被处理的函数的灰度值变化进行归一化相关是可能的。
2.2 最佳统计分类器
来自类别
的特定模式x的概率为
。当分类器出现错误时就会导致一次损失,表示为
。可以将模式x赋予类
的平均损失为:
这称为条件平均风险或损失。
由概率论的概念我们就可以将上式重写为:
由于
为正,因此可以将它从上式中忽略,而不影响这些函数从最小值到最大值的相对顺序。所以平均损失的表达式就简化为:
由于分类器的可能的类存在W个,任何给定的未知迷失都可以从这些类中选择。当分类器为每个模式x计算平均损失,并将该模式以最低损失赋给相应的类,则关于所有的决策的总体平均损失将是最低的。这种将总体平均损失降至最低的分类器又称贝叶斯分类器。满足:
通常,正确决策的损失将被赋以零值,不正常决策的损失被赋予相同的非零值。由此损失函数变成:
i=j=1时,
=0。代入前面的公式:
当i≠j时,可以得到:
由此就可以得出0-1损失的贝叶斯分类器的决策函数计算为:
高斯模式类的贝叶斯分类器
记两个模式类的均值分别为
,标准差为
,则可以得出贝叶斯决策函数的形式为:
上图为两个模式类的概率密度函数曲线,两个类之间的边界是一个单点,由满足
的
表示。当两个类的出现概率相同时,有:
,此时决定决策边界的是满足
的
。在上图中可以看出满足式子的是两曲线的交点。在交点右侧的点为类
,其他的为另一类。
在n维的情形下,第j个模式类中的向量的高斯密度为:
其中,每个密度都由其均值向量
和协方差矩阵
确定。定义如下:
是来自类
的模式向量的数量,求和操作是对所有的这些向量执行的。
协方差矩阵是对称的和半正定的。将高斯密度函数由指数形式转变为对数形式可得:
这里可以看出,对数函数的单调递增的,我们将第j个模式类中的向量的高斯密度代入其中,就会得到如下的公式:
其中的(n/2)ln2Π对所有的类都是相同的因此可以消去:
这就可以表示高斯模式类在0-1损失函数条件下的贝叶斯决策函数了。
2.3 神经网络
先前讨论的方法是基于样本模式来估计每个模式类的统计参数。最小距离分类器完全由每个类的均值向量来确定。总体为高斯分布的贝叶斯分类器则完全由每个类的均值向量和协方差矩阵确定。训练模式被用以估计这些参数的模式。来自每个类的这样一组模式称为训练集,使用训练集得到决策函数的过程就被称为学习或训练。
我们将基本非线性计算单元称为神经元,当这些单元以网络的形式进行组织时,所得到的模型就可以得到不同的名称包括有,神经网络、神经计算机、并行分布式处理模型、神经形态学系统等。
两个模式类的感知机
最基本的形式中,感知机学习一个线性决策函数,该决策函数对分两个线性可分的训练集。
上图就显示了两个模式类的感知机模型,其响应基于其输入的加权和,即:
这是一个与模式向量的分量有关的线性决策函数。
当d(x)>0时,阈值单元使感知机的输出为+1,即模式x被识别为类
,d(x)<0时,情况相反。而当等于0时,x位于分割两个模式类的决策面上。可以通过令:
使得感知机实现决策边界。这是在n维模式空间中的一个超平面方程。在几何层面,前n个系数确定了超平面 的方向,而最后一个系数
与从原点到超平面的垂直距离成正比。当
=0时,超平面通过模式空间的原点。
对于阈值单元的输出,有如下定义:
线性可分的类
对于两个分别属于类
和类
的扩充模式向量的训练集来说,假定w(1)表示初始权重向量,在第k步迭代中,若
,就可以得到:
c是一个正的修正增量,而当
,就可以得到:
否则的话:
只有当正被考虑的模式训练序列第k步被错误分类时,才会改变w,若c为正,它就是一个常量。这个算法又称固定增量校正准则。
线性不可分的类
在实际应用中线性可分的模式类并不多见,往往都是一个例外,随着神经网络训练方面取得进展,原始的delta规则的出现使得研究出现了重大转变,最小均方delta规则能够使得任何训练步骤在实际响应与期望响应间的误差最小。
准则函数:
r为期望的响应,为了在
时求最小值,其任务就是在J(w)的相反梯度方向逐步调整w,即该最小值对应于正确的分类。通用的梯度下降算法可以写成:
由于
给出修正量,所以:
可得:
w(1)的任意的。将权重向量中的增量定义为
由此就可以按照delta修正算法将:
进行改写,得到:
对其中的e(k)进行讨论,当将权重向量w(k)改为w(k+1)时,就可以得到误差的变化:
又由于
,所以:
三、结构方法
先前提及的都是通过技术可定量的处理模式,而忽略了模式形状中固有的结构关系,然而在实际中是可以通过精确运用这些类的关系来实现模式识别的目的的,这里将介绍两种基本的基于串表示的边界形状的识别方法。
3.1 匹配形状数
为了比较根据形状数描述的区域边界,我们可以效仿先前讨论中为模式向量引入最小距离的概念,我们知道两个区域边界之间的相似度k定义为它们的形状数仍保持一致的最大阶。比如,让a,b代表4方向链码表示的闭合边界的形状数,若:
则这两个形状有一个相似度k,s代表形状数,下标代表着阶。两个形状a,b之间的距离定义为它们的相似度的倒数:
距离需满足:
下图为使用形状数比较形状的图示:
3.2 串匹配
区域边界a,b若被编码成串,令
为两个串之间的匹配数,则不匹配的符号数就是:
a,b之间的一种简单的相似性度量是比率即:
当R最大时,匹配最好。
下图为串匹配的示例;
四、总结
本章主要讲述了目标识别的相关基础知识,包括模式与模式类的基本知识、决策理论方法的识别、训练算法,神经网络、结构方法等的相关内容。