基于镜像Mean Shift的遮挡目标跟踪算法

时间:2020-10-03 10:51:07 数学毕业论文 我要投稿

基于镜像Mean Shift的遮挡目标跟踪算法

  摘要:针对当目标跟踪过程中目标被全遮挡时易导致目标跟踪不精确、甚至丢失目标的问题,提出一种基于镜像Mean Shift的遮挡目标跟踪算法。当前后帧Bhattacharyya系数匹配度大于等于80%时,表示目标没有被遮挡,采用颜色特征和轮廓特征定位目标,利用分块沙包窗核函数实现尺寸自适应;当前后帧Bhattacharyya系数匹配度小于80%时,表示目标进入遮挡区域,则利用先验训练分类器和镜像原理对遮挡区域目标的位置和尺寸大小进行预测;当前后帧Bhattacharyya系数匹配度再次大于等于80%时,表示目标离开遮挡区域,则转换为Mean Shift跟踪。当目标没有遮挡时,采用颜色特征和轮廓特征定位目标,利用分块沙包窗核函数实现尺寸自适应;当目标进入遮挡区域时,在改进的巴氏系数条件触发下(低于设定值),利用先验训练分类器和镜像原理对遮挡区域目标的位置和尺寸大小进行预测;当目标离开遮挡区域时,再次利用巴氏系数条件触发(高于设定值)【什么】转换为Mean Shift跟踪实验结果表明:所提算法与子区域分类器的在线Boosting算法和多视角多目标协同追踪算法相比,在目标全遮挡的情况下能更好地跟踪目标,提高了跟踪精度和鲁棒性,且满足实时性要求。

基于镜像Mean Shift的遮挡目标跟踪算法

  关键词:镜像; Mean Shift; 全遮挡; 巴氏系数; 目标跟踪; 全遮挡

  引言

  机器视觉技术广泛应用于军事制导、视频监控、医疗诊断、产品检测等领域[1-3]。而在上述领域中都会涉及目标跟踪,在跟踪目标的过程中,由于目标本身特征的多样性以及外界环境的复杂性,尤其当目标被自遮挡、物体相互遮挡、背景遮挡时,如何更精确地定位和跟踪目标成为一个极具挑战性的课题[4]。Thompson等[5]提出利用光流场来检测视频中的遮挡面,但是没有涉及如何跟踪目标。Maver等[6]从遮挡的角度出发,研究如何获得一个未知场景的3D数据,利用几何关系从先验的纹理信息预测出遮挡时目标状态,但是预测状态的误差会随着跟踪的进行而逐渐增大,同时计算复杂度高。Zitnick等[7]利用视差图的方法解决遮挡问题,要求各个像素点具有唯一性,否则当遇到相似目标或者背景时易导致跟踪失败。在文献[8-10]中学者利用分割理论提取遮挡区域的目标解决目标部分遮挡问题,对全遮挡情况误差很大,甚至跟踪失败。Zhang等[11]通过帧内、帧间、跟踪等级三个顺序层次实现目标遮挡跟踪; 李沛等[12]提出基于信用度分类遮挡问题解决方法,对前后帧计算结果的连续性要求较高,否则计算得到的遮挡目标定位精度不高。颜佳等[13]在遮挡环境下采用在线Boosting的目标跟踪,利用分区域的特征匹配法剔除被遮挡子区域对目标定位的影响,但对目标尺寸发生变化并且伴有遮挡时的跟踪问题没有提供解决方案。龚卫国等[14]提出一种像素投影算法(Running Average with Selectivily, RAS)背景更新,利用RAS对遮挡粘连目标进行分离,采用滤波加Mean Shift 算法,并将其与 Kalman算法结合,实现红外目标的实时准确跟踪,较好地解决了部分遮挡问题。周良毅等[15]提出基于动态遮挡值的多视角多目标协作追踪,引入遮挡变量,改进了目标遮挡的判决标准和公共平面中的目标融合特征,并通过结合改进粒子滤波得到基于遮挡变量的多视角目标协作追踪算法。

  上述目标跟踪算法对目标被自遮挡、物体相互遮挡、背景遮挡时针对目标部分遮挡跟踪取得了较好的效果,但仍存在以下不足:1)目标在部分遮挡的场景下提出的算法对目标的定位不精确;2)涉及的是目标部分遮挡跟踪,而对于目标在被相似目标和背景全遮挡的场景下没有提供很好的解决方案。

  基于以上不足,本文提出一种基于镜像Mean Shift的目标遮挡处理算法。在没有或者部分遮挡(D(n)≥0.8D(n-1))情况下,融合颜色特征和轮廓特征表述目标,然后利用沙包核窗函数和Mean Shift算法对目标进行跟踪,并将每帧的序号和目标的位置信息保存在一个记忆队列中;当D(n)<0.8D(n-1)时,表明目标处于完全遮挡的`情况,记录当前值变化帧的序号(假设为第m帧),利用先验训练分类器和镜像原理可以预测在遮挡区域中目标第n帧尺寸大小等于第2m-n帧的尺寸大小(已知),遮挡区域的目标到临界点的距离(第n帧到第m帧的距离)等于目标从未遮挡区域(第2m-n帧)到临界点(第m帧)的距离,从而可以确定目标的位置信息。

  一、传统的Mean Shift目标跟踪算法

  1.1颜色特征描述

  设qc={qcu}u=1,2,…,Bc表示目标参考颜色直方图,{xi}i=1,2,…,n为中心位置y的目标候选区域的像素位置,则目标候选图像区域的颜色加权直方图pc={pcu(y)}u=1,2,…,Bc为:

  pcu(y)=ch∑ni=1k(‖(y-xi)/h‖2)δ[bf(xi)-u](1)

  其中:ch为颜色直方图归一化常数;u为目标特征值;k(・)为下列Epanechnikov核剖面函数:

  kE(r)=

  1-r,r≤1

  0,r>1 (2

  对于离目标中心位置越近的像素赋予较大的权值,对于远离目标中心位置的像素赋予较小的权值;h为核半径;δ是Epanechnikov函数;bf(・)是将给定位置的像素映射到颜色直方图相应颜色区间(color bin)的映射函数。

  1.2轮廓特征描述

  轮廓作为特征来描述目标有一定的优势,轮廓的提取过程比较简单,以目标的形状作为先验信息,结合Bayesian理论来提取目标的轮廓,当目标运动时目标轮廓所包含的面积变化明显。如果图像中某一区域目标静止,则轮廓所包含的面积变化率很小,图像的像素落到轮廓直方图较低的颜色区间;如果该区域发生运动时,则相应的轮廓所包含的面积变化率很大,图像像素会落到轮廓直方图的每个颜色空间,因此采用均匀分布模型。设qo={qou}u=1,2,…,Bo表示目标参考轮廓直方图,{xi}i=1,2,…,n为中心位置y的目标候选区域的像素位置,则目标候选图像区域的轮廓加权直方图po={pou(y)}u=1,2,…,Bo为:

  pou(y)=ch∑ni=1k(‖(y-xi)/h‖2)δ[bf(xi)-u](3

  1.3跟踪窗的选取和遮挡跟踪

  传统Mean Shift 跟踪算法跟踪窗采用固定尺寸的矩形窗以及利用分割算法和Kalman算法预测目标在遮挡区域的状态。当目标尺寸变化时,跟踪窗包含目标特征的同时,也包含更多的背景特征,导致定位不精确、计算复杂度高、实时性差; Kalman算法对目标的位置和尺寸的预测,在短时间跟踪或者部分遮挡的场景取得不错的效果,但在长时间遮挡或者全遮挡的场景下,跟踪误差会逐渐增大,甚至跟踪失败,而实际场景长时间全遮挡的场景很常见,所以算法具有一定的局限性,影响跟踪效果。