技术摘要:
本发明提供了一种基于YOLOv3的目标跟踪中的重检测方法,该方法主要使用深度学习目标检测算法YOLOv3作为重检测方法,YOLOv3具有深度学习强大的特征提取能力,在检测精度上遥遥领先于传统的重检测方法,使用YOLOv3算法代替传统的重检测方法,可以极大地提高重检测效果, 全部
背景技术:
遮挡问题是目标跟踪领域的难点。目标遮挡是指跟踪目标受到遮挡物不同程度的 覆盖,从而干扰了目标的正常表达,在像素方面表现为纹理、颜色等特征的改变,并且这种 改变一般是不可恢复的。由于出现遮挡情况时目标特征发生变化,可能使目标跟踪发生偏 移,在遮挡严重或完全遮挡时甚至会造成目标的跟丢,严重影响目标跟踪的精度。而在平时 的目标跟踪场景中,跟踪环境复杂多变,尺度变化、遮挡等常见因素经常会影响到目标跟踪 的结果,很难进行高效、稳定的跟踪。这样,为了保证跟踪的持续性和鲁棒性,需要对遮挡进 行判断,并加入算法跟踪失败的重检测模块。 目前,常用的丢失重检测方法大多都为传统方法上的重检测如SVM,模板匹配等, 这些方法的优点是检测速度较快,但是对于一些场景下检测精度较低。而深度学习目标检 测算法YOLOv3同时具有检测精度高、速度快的优点。因此,本发明利用YOLOv3代替传统的目 标重检测方法来解决目标跟踪下的重检测问题。
技术实现要素:
为解决现有技术中存在的问题,本发明提出了一种基于YOLOv3的目标跟踪重检测 方法,针对MSS算法进行目标跟踪时,因目标被遮挡、超出视野范围等导致的目标跟丢情况, 结合YOLOv3目标检测算法进行丢失目标的重检测,使得算法能在目标重新出现时自动找回 目标继续跟踪任务,进一步提高算法的跟踪效果。在后文中,使用MSS-YOLOv3表示本发明改 进的跟踪算法,MSS表示带尺度估计的Mean-shift跟踪算法。 本发明采用的技术方案是: 一种基于YOLOv3的目标跟踪中的重检测方法,该方法主要通过两个模块实现,分 别为跟踪模块和重检测模块,该方法的整体结构框图如图1所示,包括以下步骤: Step 1.开始基于YOLOv3的目标跟踪中的重检测方法; Step 2.获取跟踪目标:开始获取视频序列,读取视频初始帧图像的目标位置,提 取目标区域直方图特征,进行跟踪模板初始化; Step 3 .判断视频序列是否结束,若未结束,进入Step 4;若结束,直接结束基于 YOLOv3的目标跟踪中的重检测方法; Step 4.进入跟踪模块:读入当前帧图像,通过上一帧图像确定的目标中心来提取 当前帧图像的目标候选区域,并进行带尺度估计的Mean-shift跟踪(MSS)算法跟踪。首先, 提取目标候选区域内的直方图特征,得到关于候选模型的描述;然后,利用相似函数度量目 标模版和当前帧图像的候选模型的相似性,选择使相似函数最大的候选模型并得到关于目 标模型的Mean-shift向量,这个向量正是目标由上一帧图像的位置向当前帧图像正确位置 6 CN 111582062 A 说 明 书 2/10 页 移动的向量;由于均值漂移算法的快速收敛性,通过不断迭代计算Mean-shift向量,MSS算 法最终将收敛到目标的真实位置。最终得到当前帧图像的目标的中心位置和尺度; Step 5.特征匹配模块:对前后两帧图像中的目标区域直方图特征进行匹配。通过 该特征匹配模块计算当前帧图像和上一帧图像跟踪目标的模型匹配程度,衡量当前帧图像 算法的跟踪效果。匹配程度通过二者直方图特征的巴氏系数来量化,通过预设阈值判断是 否跟偏或跟丢,若跟偏或跟丢,则进入Step 6;若未跟偏或跟丢,则进入Step 7; Step 6.进入重检测模块:若目标跟丢,则通过YOLOv3进行目标重检测,在全幅图 像范围进行目标检测获取若干候选目标,主要是获取高精度的目标区域矩形框信息,再对 每个候选目标区域与跟丢前的目标模板进行特征匹配,通过匹配值和阈值进行判断,选取 匹配值最高且高于阈值的目标,作为找回的跟踪目标。若当前帧图像检测的候选目标均不 满足匹配阈值指标,则下一帧图像继续进行重检测;否则,重检测模块结束,进入Step 7。 Step 7.模板更新:对于每一帧图像中通过跟踪模块或者重检测模块确定的最终 目标,需要通过提取其特征,更新该帧图像的目标模板,以适应目标在跟踪过程中的变化。 然后进入Step 3。 进一步地,Step 4分为以下步骤: (1)读取当前帧图像,在图像中以上一帧图像的目标位置为中心建立候选矩形框, 提取目标候选区域。 (2)在目标候选区域候进行直方图特征提取,即建模为颜色空间直方图,得到关于 候选模型的描述,同时获取上一帧图像的目标模板。 (3)均值漂移:对目标区域直方图特征和候选区域直方图特征进行反向投影,获得 反向投影图,每一个像素值代表了输入图像上对应点属于目标对象的概率。根据反向投影 图和目标轮廓进行Mean-shift迭代,找到该帧图像中的目标位置。并通过三个尺度因子来 确定目标尺度。 进一步地,Step 6分为以下步骤: (1)若根据特征匹配结果判断目标丢失,进入重检测模块。 (2)对全局图像进行YOLOv3目标检测,检测出若干候选目标。 (3)对若干目标和模板以Step 5的方式进行特征匹配,找到最相似的目标即为重 检测目标。若候选目标均不满足匹配阈值指标,则下一帧继续进行重检测。 因此,本发明主要使用深度学习目标检测算法YOLOv3作为重检测方法。YOLOv3具 有深度学习强大的特征提取能力,在检测精度上遥遥领先于传统的重检测方法,使用 YOLOv3算法代替传统的重检测方法,可以极大地提高重检测效果,同时也有较好的检测速 度,最终使得目标跟踪过程能够更稳定的进行。 附图说明 图1为本发明的整体结构框图。 图2为本发明的跟踪模块示意图。 图3为本发明的重检测模块示意图。 图4为Darknet-53网络结构图。 图5为改进前的算法测试结果图。 7 CN 111582062 A 说 明 书 3/10 页 图6为改进后的算法测试结果图。