基于SVM的ISAR像中的目标识别(2)

时间:2020-10-11 09:33:17 计算机应用毕业论文 我要投稿

基于SVM的ISAR像中的目标识别


  由式(1-1)可知,傅里叶变换系数F(p,q)为图像中ejf(2p/M)pmejf(2p/M)pn频率分量的大小,其中F(0,0)系数对应着直流分量(零频分量)的大小;傅里叶系数是以二维中心对称分布的,其中四个角上的频谱分量为图像的低阶频谱分量。傅里叶变换系数为复数,其中即包含各分量的幅值,又包含各分量的相位,但是从保存原始信息主要能量的角度来看,特征提取时可只取各系数的幅度。具体选择方式如下:
  在频谱系数方阵|F(p,q)|中,以F(0,0)点为左上角设大小为M行N列的矩形窗具体方式如图示1所示,在窗内按按逐行方式提取M×N个低频系数作为分类特征,所以某个样本(图像)的特征向量各分量依次是:
 
  最近邻分类实验验证,以5×4矩形窗提取傅里叶低频系数作特征可以得到较好识别效果。图2-2中给出将5×4矩形窗外的系数全部赋值为0时进行逆傅里叶变换所得的还原图像,与原始图像对比,可看出所选特征对目标轮廓的反映能力。
图2窗选傅里叶低频系数对目标的重建   因此本文利用傅里叶变换低频系数作为ISAR像中三类飞机目标分类识别的特征。
2支持向量机分类法
  支持向量机(SVM)是以统计学习理论为基础的学习机器,它在有限样本集的学习上性能卓越,而且这一学习机器最早用于二值分类问题。SVM根据有限样本信息,按结构风险最小原则进行网络结构优化,通过同时减小训练集上的经验误差和学习机器结构的复杂性(在二者间寻求最佳折衷)建立了具有良好推广能力的分类器。
2.1支持向量机建立的最优分类面
  SVM的目标是建立最优分类面,即实现经验风险最小化(对给定样本集无误分)和最佳置信度(两类的分类界面间隔最大化)的分类器。
  两类线性可分SVM的原理为如图示3所示:
  图中圆点和方点分别代表两类样本;H为最优分类线;H1和H2分别是过两类中离分类线最近的样本且平行于分类线的直线,它们之间的距离称为分类间隔(margin),和上的样本即为支持向量。最优分类线就是能将两类无误的分开且能使分类间隔最大的分类线。推广到高维样本特征空间,最优分类线就成为最优分类面。

  非线性分类问题中SVM巧妙地得利用Mercer核函数实现特征空间的升维和新特征空间内的内积运算,在高维线性可分空间内SVM建立的最优分类面,形成有较好泛化能力的分类器。Mercer核的采用使算法复杂度仅由原特征空间维数决定,巧妙地解决了特征空间升维时的“维数灾”问题。常用的核函数K(c,g)有多项式核函数、径向基核函数、Sigmoid核函数等。核函数的选择非常关键,它的好坏直接影响到算法的效果,目前对这方面的研究缺乏相应的理论根据,所以本文中用支持向量机来实现目标的分类时主要研究了核函数的选择与参数的设置。
  进行多类目标分类时需要对标准SVM算法进行改造,主要采用了两种方法,一类是采用完全多类支持向量机,这种算法是通过SVM算法对多类分类的目标函数进行优化,另外一类是组合多类支持向量机,即把多个二值子分类进行组合形成多类分类器,目前多采用组合多类支持向量机。这里我们采用 一对一支持向量机的组合,针对k类间的k(k-1/2)种组合建立k(k-1/2)个SVM子分类器,每个分类器实现一个组合中两类的分类。第i类和第j类间的'SVM分类器将第i类的训练样本标记为 1,第j类的样本标记为-1,测试时用测试数据对k(k-1/2)个子分类器分别进行测试,根据各子分类器的分类结果决定目标最终类别。组合子分类器时,采用所有子分类器的投票机制。