高级检索

ISSN1001-3806CN51-1125/TN 网站地图

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于元学习的红外弱小点状目标跟踪算法

热孜亚·艾沙 艾斯卡尔·艾木都拉

引用本文:
Citation:

基于元学习的红外弱小点状目标跟踪算法

    作者简介: 热孜亚·艾沙(1996-), 女, 硕士研究生, 现主要研究方向为时空3维空间中点状运动目标的可靠识别与实时跟踪.
    通讯作者: 艾斯卡尔·艾木都拉, askar@xju.edu.cn
  • 基金项目:

    国家自然科学基金资助项目 61563049

  • 中图分类号: TN911.73

Infrared small target tracking algorithm based on meta-learning

    Corresponding author: ASKAR Hamdulla, askar@xju.edu.cn
  • CLC number: TN911.73

  • 摘要: 为了在研究红外弱小点状目标的特征基础上有效解决训练数据不足的问题, 采用了基于改进的元学习红外点状目标跟踪算法。首先将元学习通过预训练跟踪模型运用到卷积神经网络中, 采用离线训练的方式在静态红外图像数据集上训练得到目标的通用表示, 再通过在线训练的方式利用初始帧的目标位置学习得到目标的特定表示; 通过卡尔曼滤波算法预测目标运动模型, 得到最优的搜索区域。此外, 为了解决遮挡造成的目标丢失问题, 研究了重检测机制, 并进行了理论分析和实验验证, 取得了较好的跟踪结果, 跟踪精度达到了90%。结果表明, 该方法在同一数据集下相对其它跟踪算法实现了更精确地跟踪红外弱小点状目标的效果。该研究为机器学习算法在红外弱小点状目标跟踪中的应用提供了参考。
  • Figure 1.  The architecture of VGG network

    Figure 2.  Meta-learning training process

    Figure 3.  Some examples of static data and dynamic video data in the pre-training stage

    a—infrared static data set b—dynamic data set of field backgroundc—dynamic data set of sea-sky background

    Figure 4.  Features of different layers extracted using VGG network

    a—original image b~d—conv 1~conv 3 visualization

    Figure 5.  The target is occlusion, deformation, back-ground clutter

    Figure 6.  Flow chart of the entire algorithm

    Figure 7.  Representative visual results of four tracking algorithms on seq.1 dataset

    a—tracking result of frame 1 b—tracking result of frame 10 c— tracking result of frame 20 d—tracking result of frame 30

    Figure 8.  Representative visual results of four tracking algorithms on seq.2 dataset

    a—racking result of frame 1 b—tracking result of frame 180 c—tracking result of frame 280 d— tracking result of frame 381

    Figure 9.  Representative visual results of four tracking algorithms on seq.3 dataset

    a—tracking result of frame 1 b—tracking result of frame 60 c—tracking result of frame 110 d—tracking result of frame 170

    Figure 10.  Representative visual results of four tracking algorithms on seq.4 dataset

    a—tracking result of frame 1 b—tracking result of frame 140 c—tracking result of frame 240 d—tracking result of frame 342

    Figure 11.  Representative visual results of four tracking algorithms on seq.5 dataset

    a—tracking result of frame 1 b—tracking result of frame 100 c—tracking result of frame 170 d—tracking result of frame 270

    Figure 12.  IOU, CLE, PRE plots of the four tracking algorithms on the seq. 1

    Figure 13.  IOU, CLE, PRE plots of the four tracking algorithms on the seq.2

    Figure 14.  IOU, CLE, PRE plots of the four tracking algorithms on the seq. 3

    Figure 15.  IOU, CLE, PRE plots of the four tracking algorithms on the seq.4

    Figure 16.  IOU, CLE, PRE plots of the four tracking algorithms on the seq.5

    Table 1.  Data set for the test tracking

    databasesback-groundimage sizeframe
    numbers
    target size/pixel
    (n×n)
    seq.1sunny-sky256×200308×8
    seq.2missile504×3963819×9
    seq.3could-sky 1250×2501707×7
    seq.4sea-sky250×2503428×8
    seq.5could-sky 2250×2502707×7
    下载: 导出CSV

    Table 2.  Number of successfully tracked frames(ours in comparison to medianflow, TLD, MIL results)

    sequenceframesocclusionmedianflowTLDMILours
    sunny-sky30101012530
    missile38101525343381
    could-sky 11705763165161170
    sea-sky342065340277342
    could-sky 22701245217250270
    下载: 导出CSV
  • [1]

    WANG Y H, XU Zh Y, YE D M, et al. A target tracking algorithm based on local feature segmentation[J]. Laser Technology, 2019, 43(4): 569-573(in Chinese).
    [2]

    FENG Y. Infrared dim target detection based on improved singular value decomposition[J]. Laser Technology, 2016, 40(3): 335-338(in Chinese). 
    [3]

    GAO C Q, WANG L, XIAO Y X, et al. Infrared small-dim target detection based on Markov random field guided noise modeling[J]. Pattern Recognition, 2018, 76(1): 463-475. 
    [4]

    WU W Ch, ASKAR H. The detection technology of the small moving object based on space-time[J]. Laser Infrared, 2019, 49(5): 626-632(in Chinese). 
    [5]

    GUAN H, XUE X Y, AN Zh Y, et al. Advances on application of deep learning for video object tracking[J]. Acta Automatica Sinica, 2016, 42(6): 834-847(in Chinese). 
    [6]

    ZHUANG X Y, CHEN G B, ZHANG J Sh, et al. Application prospect of deep learning in infrared target tracking[J]. Aero Weaponry, 2019, 26(1): 51-56(in Chinese). 
    [7]

    LUCA B, JACK V, JOAO F H, et al. Fully-convolutional siamese networks for object tracking[C]// European Conference on Computer Vision. Amsterdam, The Netherlands: Springer, Cham, 2016: 850-865.
    [8]

    HAN B, SIM J, ADAM H, et al. BranchOut: Regularization for online ensemble tracking with convolutional neural networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York, USA: IEEE, 2017: 521-530.
    [9]

    CHEN Y, HOFFMAN M W, COLMENAREJO S G, et al. Learning to learn without gradient descent by gradient descent[C]// International Conference on Machine Learning. Sydney, Australia: PMLR, 2017: 748-756.
    [10]

    LAMPERT C H, NICKISCH H, HARMELING S, et al. Attribute-based classification for zero-shot visual object categorization[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(3): 453-465. doi: 10.1109/TPAMI.2013.140
    [11]

    ADAM S, SERGEY B, MATTHEW B, et al. One-shot learning with memory-augmented neural networks[C]//International Confe-rence on Machine Learning. New York, USA: PMLR, 2016: 1842-1850.
    [12]

    MARCIN A, MISHA D, SERGIO G, et al. Learning to learn by gradient descent by gardient descent[C]//Advances in Neural Information Processing Systems. Red Hook, USA: Curran Associates Inc, 2016: 3988-3996.
    [13]

    QIAN Q, JIN R, YI J F, et al. Efficient distance metric learning by adaptive sampling and mini-batch stochastic gradient descent (SGD)[J]. Machine Learning, 2015, 99(3): 353-372. doi: 10.1007/s10994-014-5456-x
    [14]

    ASKAR H, WU W Ch. Point target detection technology based on multi-scale local gradient[J]. Journal of University of Electronic Science and Technology of China, 2019, 48(6): 893-903(in Chinese). 
    [15]

    LIU W J, ZHANG Zh, JIANG W T, et al. Multiscale correlation filtering and tracking algorithm based on occlusion discrimination[J]. Chinese Journal of Image Grahics, 2018, 23(12): 1789-1800(in Chinese).
    [16]

    CHEN K. Visual object tracking via deep learning and regression model[D]. Wuhan: Huazhong University of Science and Technology, 2018: 4-125(in Chinese).
    [17]

    MA S H, XU B Q. Adaptive scale target tracking based on color features[J]. Software Guide, 2018, 17(10): 9-12(in Chinese). 
    [18]

    DATTATHREYA, HAN S, KIM M J, et al. Keypoint-based object tracking using modified median flow[C]//IEEE International Conference on Consumer Electronics-Asia. New York, USA: IEEE, 2016: 1-2.
    [19]

    WANG J G, LI X F, CHEN Ch, et al. Improved TLD approach a-pplied in optoelectronic tracking[J]. Infrared Technology, 2015, 37(10): 824-830(in Chinese).
    [20]

    YANG H H, QU S R, MI X X, et al. Tracking approach based on online multiple instance learning with weight distribution and multiple feature representation[J]. Journal of Beijing University of Aeronauties and Astronautics, 2016, 42(10): 2146-2154(in Chinese). 
  • [1] 王其华叶苗 . 基于裂变自举粒子滤波的红外目标跟踪处理. 激光技术, 2011, 35(1): 141-144. doi: 10.3969/j.issn.1001-3806.2011.01.038
    [2] 陈树越朱双双蒋星徐扬 . 基于高斯型点扩展函数的红外图像热源复原. 激光技术, 2016, 40(2): 270-273. doi: 10.7510/jgjs.issn.1001-3806.2016.02.025
    [3] 未永飞杜正春姚振强 . 中值滤波在激光雷达点云数据预处理中的应用. 激光技术, 2009, 33(2): 213-216.
    [4] 房垚鑫郭宝峰马超 . 基于改进点扩散函数的遥感图像超分辨率重建. 激光技术, 2019, 43(5): 713-718. doi: 10.7510/jgjs.issn.1001-3806.2019.05.024
    [5] 冯军波周昕 . 点光源照射下彩色图像随机相位编码的实现. 激光技术, 2008, 32(6): 621-623.
    [6] 江天沈会良杨冬晓刘建军邹哲 . 基于模糊局部信息C均值的太赫兹图像目标检测. 激光技术, 2015, 39(3): 289-294. doi: 10.7510/jgjs.issn.1001-3806.2015.03.001
    [7] 陈勤霞武文成艾斯卡尔·艾木都拉 . 一种基于多尺度点状目标建模的检测算法. 激光技术, 2020, 44(4): 520-524. doi: 10.7510/jgjs.issn.1001-3806.2020.04.021
    [8] 李霞杨正维黄俊伟杨亚复高莎 . 机器学习参与山区村落影像点云分类的研究. 激光技术, 2024, 48(2): 288-294. doi: 10.7510/jgjs.issn.1001-3806.2024.02.022
    [9] 陈树越刘金星丁艺 . 基于小波变换的红外与X光图像融合方法研究. 激光技术, 2015, 39(5): 685-688. doi: 10.7510/jgjs.issn.1001-3806.2015.05.021
    [10] 刘超军段喜萍谢宝文 . 应用GhostNet卷积特征的ECO目标跟踪算法改进. 激光技术, 2022, 46(2): 239-247. doi: 10.7510/jgjs.issn.1001-3806.2022.02.015
    [11] 王宇慧徐志远叶德茂 . 一种基于局部特征分块的目标跟踪算法. 激光技术, 2019, 43(4): 569-573. doi: 10.7510/jgjs.issn.1001-3806.2019.04.023
    [12] 何易德朱斌王询陈好贾静 . 基于跟踪特征的目标模型逼真度评估方法. 激光技术, 2020, 44(4): 515-519. doi: 10.7510/jgjs.issn.1001-3806.2020.04.020
    [13] 虞文俊顾国华刘骋昊 . 红外偏振图像的仿真. 激光技术, 2014, 38(1): 76-78. doi: 10.7510/jgjs.issn.1001-3806.2014.01.016
    [14] 张宝华刘鹤 . 基于区域定位与轮廓分割的红外目标检测. 激光技术, 2015, 39(6): 840-844. doi: 10.7510/jgjs.issn.1001-3806.2015.06.023
    [15] 贺锋涛吴倩倩杨祎张建磊王炳辉张依 . 基于深度学习的激光散斑图像识别技术研究. 激光技术, 2024, 48(3): 443-448. doi: 10.7510/jgjs.issn.1001-3806.2024.03.022
    [16] 周永康朱尤攀曾邦泽胡健钏欧阳慧明李泽民 . 宽动态红外图像增强算法综述. 激光技术, 2018, 42(5): 718-726. doi: 10.7510/jgjs.issn.1001-3806.2018.05.025
    [17] 冯洋 . 基于改进的奇异值分解的红外弱小目标检测. 激光技术, 2016, 40(3): 335-338. doi: 10.7510/jgjs.issn.1001-3806.2016.03.007
    [18] 张明淳牛春晖刘力双刘洋 . 用于无人机探测系统的红外小目标检测算法. 激光技术, 2024, 48(1): 114-120. doi: 10.7510/jgjs.issn.1001-3806.2024.01.018
    [19] 蹇渊黄自力王询 . 基于随机化张量算法的红外弱小目标检测. 激光技术, 2024, 48(1): 127-134. doi: 10.7510/jgjs.issn.1001-3806.2024.01.020
    [20] 朱金辉张宝华谷宇李建军张明 . 基于双邻域对比度的红外小目标检测算法. 激光技术, 2021, 45(6): 794-798. doi: 10.7510/jgjs.issn.1001-3806.2021.06.020
  • 加载中
图(16) / 表(2)
计量
  • 文章访问数:  4877
  • HTML全文浏览量:  3527
  • PDF下载量:  22
  • 被引次数: 0
出版历程
  • 收稿日期:  2020-04-08
  • 录用日期:  2020-08-15
  • 刊出日期:  2021-05-25

基于元学习的红外弱小点状目标跟踪算法

    通讯作者: 艾斯卡尔·艾木都拉, askar@xju.edu.cn
    作者简介: 热孜亚·艾沙(1996-), 女, 硕士研究生, 现主要研究方向为时空3维空间中点状运动目标的可靠识别与实时跟踪
  • 新疆大学 信息科学与工程学院, 乌鲁木齐 830046
基金项目:  国家自然科学基金资助项目 61563049

摘要: 为了在研究红外弱小点状目标的特征基础上有效解决训练数据不足的问题, 采用了基于改进的元学习红外点状目标跟踪算法。首先将元学习通过预训练跟踪模型运用到卷积神经网络中, 采用离线训练的方式在静态红外图像数据集上训练得到目标的通用表示, 再通过在线训练的方式利用初始帧的目标位置学习得到目标的特定表示; 通过卡尔曼滤波算法预测目标运动模型, 得到最优的搜索区域。此外, 为了解决遮挡造成的目标丢失问题, 研究了重检测机制, 并进行了理论分析和实验验证, 取得了较好的跟踪结果, 跟踪精度达到了90%。结果表明, 该方法在同一数据集下相对其它跟踪算法实现了更精确地跟踪红外弱小点状目标的效果。该研究为机器学习算法在红外弱小点状目标跟踪中的应用提供了参考。

English Abstract

    • 红外点状目标的跟踪是红外搜索和跟踪(infrared search and track, IRST)系统中的关键技术之一[1],在红外目标跟踪、遥感制图等多个方面占据主要的位置[2]。在红外背景的图像中,目标占据像素小、无具体的形状、缺少纹理呈点状[3-4], 在复杂的红外背景下,跟踪阶段常常存有如目标遮蔽、背景杂波、迅速移动等困难,这些因素增加了红外点状目标跟踪的难度。目前所使用的大多数都是常规的一些手工设计的特征提取方法,使得传统方法无法很好地用于红外点状目标跟踪。因此,在复杂背景下准确地跟踪红外点状目标成为一项具有挑战性的研究。

      目前机器学习的算法被广泛应用于目标跟踪,通常需求大量的训练数据[5]。过度依赖于训练数据使得跟踪模型存在以下问题:(1)需要耗费大量人力进行数据标注,这给算法的计算带来很多困难;(2)这种依赖大量训练数据的模型在训练数据上可以取得较小的误差,但是在测试中遇到新状态下的视频序列时跟踪性能比较差,无法精确跟踪到目标。机器学习的算法需要足够的训练数据,但红外点状目标自身弱和小的特点,而且在点状目标的跟踪领域,公开的、大规模的点状小目标的视频数据十分有限,由于没有大数据的支撑,因而机器学习的算法不能直接用在红外点状目标的跟踪[6]。因此,如何根据红外弱小点状目标的特点,能够让模型尽量用少量的数据,建立具有代表性的、结合深度学习的红外点状目标跟踪算法是一个很大的难题。

      将机器学习的方法运用在红外点状目标跟踪中,作者提出基于改进的元学习红外点状目标跟踪算法,该算法使用静态红外图像通过元学习的方法对卷积神经网络做离线训练,学习点状目标的通用特征表示,有效解决红外点状目标训练数据不足的问题。其次将静态红外图像传入预训练的卷积神经网络中提取特征[7],将红外点状目标跟踪问题转化为二元分类问题的判别模型,通过基于深度特征学习分类器来区分背景与前景信息。在跟踪阶段,依据点状目标的运动的特征,运用基于运动模型的目标位置预测的方法来除去后续的帧中非目标点和噪声点对跟踪结果的影响,定位精确的目标位置。结果表明,该实验方法能够稳定地、精确地跟踪到红外点状目标。

    • 牛津大学视觉几何组(visual geometry group, VGG) 提出分类任务预训练网络[8]

      图 1所示,网络模型包含3个卷积层(convolutional)conv 1~conv 3,3个全连接层(fully connected, FC)FC 4~FC 6。输入图像的大小为C×W×H,其中C为图像的通道数,W为图像的宽度,H为图像的高度。卷积层1有96个卷积核,卷积层2有256个卷积核,卷积层3有512个卷积核,其中卷积核的大小为3×3。两个全连接层(FC 4,FC 5)分别有512个神经元节点。首先通过网络中的卷积层提取目标的特征,其次将得到的特征作为全连接层的输入,最后一层全连接层FC 6的输出是二分类分支,判别目标和背景。

      Figure 1.  The architecture of VGG network

    • 现存的大部分基于深度学习的方法都依赖于大规模的训练数据,这要求人工标注很多数据标签,这是极其浪费时间的,使得只有少量标注数据的任务难以进一步发展,如红外点状目标跟踪。元学习是解决训练数据不足的有效方法。元学习的主要目的是使模型能够用尽量少的训练数据获得尽量大的泛化能力。

      尽管元学习在如图像分类等很多领域取得了不错的效果,但是基于元学习的单目标跟踪算法却很少见。运用元学习的离线训练和在线更新的方式,达到准确地跟踪点状目标。元学习又称为学会学习[9-10]。基于优化更新的元学习的主要思想是将跟踪问题当作二元分类问题。

      使用初始帧数据(X1, Y1)和网络模型的参量θ,通过对损失函数Lθ经过一次或少量几次梯度下降得到模型f的参量θ*。采用随机梯度下降的方法对参量进行更新[11]

      $ \theta^{*}=\theta-\alpha \frac{\partial \boldsymbol{L}_{\theta}\left(\boldsymbol{X}_{1}, \boldsymbol{Y}_{1}\right)}{\partial_{\theta}} $

      (1)

      式中,X1为初始帧图像,Y1X1所对应的标签,θ为网络模型的参量,α为学习率。

      更新后的参量θ*满足:

      $ \theta^{*}=\arg \min \limits_{\theta} \sum\limits_{i=1}^{n} \boldsymbol{L}_{\theta}\left(\boldsymbol{X}_{n}, \boldsymbol{Y}_{n}\right) $

      (2)

      式中,(Xn, Yn)为后续帧的数据,Xn为第n帧图像,Yn为对应的标签,Lθ(X, Y)为损失函数。

      将红外点状目标跟踪问题看作为二元分类问题的判别模型,其常用的损失函数为交叉熵损失:

      $ \boldsymbol{L}=-\left[\boldsymbol{Y}_{i} \ln P_{i}+\left(1-\boldsymbol{Y}_{i}\right) \ln \left(1-P_{i}\right)\right] $

      (3)

      式中,Yi表示样本i的标签,正样本为1,负样本为0,Pi表示样本i预测为目标的概率。

    • 目前深度学习的算法被广泛应用于目标跟踪,通常需要大量的训练数据。由于红外点状小目标视频数据十分有限,因此运用预训练跟踪模型,将元学习运用到卷积神经网络中,在共享域中使用包含红外点状目标的静态图片对模型进行离线的预训练,充分的表示点状目标的外观特征,使得模型学习目标的通用属性,如时序性、空间特性等。本文中采用对VGG网络模型进行训练,来初始化跟踪模型。

      首先,随机初始化网络模型参量θ并将Xn输入到VGG网络中提取目标特征f(Xn),利用网络模型参量θf(Xn)上做卷积操作,得到目标位置的响应图像,响应图像与真实标签Yn之间的差异来计算损失L,然后求得损失L对初始参量θ的导数并将其送到优化网络U(ϕ)中,获得更新后的参量θ*,训练过程如图 2所示。

      $ \boldsymbol{L}=\boldsymbol{l}\left(\theta * f\left(\boldsymbol{X}_{n}\right), \boldsymbol{Y}_{n}\right) $

      (4)

      $ \boldsymbol{l}(\boldsymbol{S}, \boldsymbol{Y})=\ln [1+\exp (-\boldsymbol{S} \boldsymbol{Y})] $

      (5)

      Figure 2.  Meta-learning training process

      式中,l为分类损失函数,*为卷积操作,S是响应图像,Y为训练数据的标签。

      利用损失函数L来更新优化器参量ϕ与网络模型参量θ,如下式所示[12]

      $ \left\{\begin{array}{l} \phi^{*}=\phi-\alpha \nabla \boldsymbol{L}_{\phi} \\ \theta^{*}=\theta+\boldsymbol{U}\left(\nabla \boldsymbol{L}_{\theta}, \phi^{*}\right) \end{array}\right. $

      (6)

      通过随机梯度下降算法(stochastic gradient descent, SGD)[13]对网络参量θ和优化器参量ϕ进行优化,得到更新后的网路模型参量θ*和优化器参量ϕ*,学习率α=0.0001,$\nabla {\mathit{\boldsymbol{L}}_\theta }$表示损失梯度,更新网络U(·)为随机梯度下降算法。

      图 3a为俯拍海面船舶的场景,受海面的反光,海面波浪等的影响。图 3b为田野背景模糊小目标红外图像序列,受到不同背景杂波的影响,如光照强度、树木遮挡、形状变化等。图 3c为海天背景红外图像序列。由于高亮的云层的影响,目标通常被淹没在杂波中。图像以“.jpg”格式存储,数据集获取场景涵盖了天空、海面等多种场景,背景相对复杂。

      Figure 3.  Some examples of static data and dynamic video data in the pre-training stage

      通过网络的卷积层在离线训练阶段学习包含红外点状目标的静态图像中的通用属性,如时序性、空间特性等。特定属性是目标在不同的红外场景下所具有的明显差异目标特征的信息,通过初始帧中的目标来学习目标的特定表示,如尺度。

      图 4a是原图,图 4b是卷积层1,图 4c是卷积层2,图 4d是卷积层3的卷积层的特征可视化显示的图。从图 4中可以看出,红外点状目标占较小的像素,因此浅层特征更多地偏向于对图像边缘的信息,包含较多的位置信息和丰富的运动信息,同时会保留图像更多的空间特性,这有利于目标定位。随着层数的加深,空间信息逐渐减少,从而影响分类器的定位精确度。

      Figure 4.  Features of different layers extracted using VGG network

    • 在长时目标跟踪过程中,跟踪目标的相关特性可能会发生变化,如目标的形状,目标被遮挡,以及背景变化等。如果没有根据目标最新状态进行采样来更新模型,会导致目标跟踪失败。因此,为了适应目标在跟踪过程中外观的变化,避免跟踪器产生漂移,更精确地跟踪目标,因而根据跟踪目标和背景的变化来更新样本和模型。

      在后续帧中,当第t帧候选样本中前3帧的最大响应值的平均值大于设定的阈值Tth,认为当前帧跟踪结果可靠,则把R作为当前帧中目标的位置。若R小于阈值Tth(其中Tth=0.5为经验值)时,说明目标被遮挡,发生形变和光照变化,目标和背景产生较大的变化(如图 5所示),此时重新获取当前帧目标信息,这时启动重检测,使用多尺度局部梯度强度评估算法[14]来检测出当前帧的目标位置信息,当检测算法定位到目标在当前测试帧的位置时,会按照模型初始化时的方式将检测算法定位得到的目标区域的基础上采集样本。通过检测得到的目标位置作为正样本,其周围区域作为负样本来构成样本集合,将在线获得的样本作为训练数据来训练网络,对模型进行训练更新,直到成功预测目标位置。通过这种方式,使得模型能够及时适应目标的外观变化。

      Figure 5.  The target is occlusion, deformation, back-ground clutter

      给定视频帧中第t帧的图像,以t-1帧图像中目标的预测位置为中心获得搜索区域图像Xt,利用网络获得响应图像St

      $ \boldsymbol{S}_{t}=\theta^{*} * f\left(\boldsymbol{X}_{t}\right) $

      (7)

      St中通过响应值最大的位置来估计出目标所在的位置。

    • 本文中算法以对卷积神经网络(convolutional neural networks, CNN)进行离线训练和在线模型更新相结合的方式对红外点状目标进行跟踪。跟踪过程的整体框架如图 6所示。

      Figure 6.  Flow chart of the entire algorithm

      图 6中,紫色的实线框1为初始帧给定的目标区域,红色的虚线框2为前一帧目标区域,蓝色虚线框3为待搜索区域,绿色实线框4为当前帧目标区域,蓝色实线框5为最后一帧目标区域。

      当前视频帧将前一帧的目标位置作为输入,根据前一帧的目标位置为中心,在它的周围用多维高斯分布的形式进行采样,将采集的样本输入到模型中获得输出结果,输出结果为输入图像块的响应值,取其中前3个具有最大响应值的平均值的图像块位置作为预测目标位置。如果将最大响应值作为目标位置,因测试和训练样本之间的差异,背景变化等这些原因,响应值最高的点不一定是最优的目标位置。因此,为了解决这个问题,本文中从多个响应值中选择前3个最高的响应值,然后对它求平均值作为目标的预测位置。

      根据设定的阈值Tth来判断目标是否进行重检测。将取平均值后的响应值R与设定的阈值Tth进行比较,若R>Tth,认为跟踪准确,则把R作为当前帧中目标的位置; 若R < Tth,那么认为目标发生了遮挡,本文中检测方法使用多尺度局部梯度强度评估算法,再次检测到目标。通过检测得到的目标位置作为正样本,其周围区域作为负样本组成一个小批量数据,使用在线获得的样本作为训练数据,对模型进行更新。

      在红外视频序列中,红外点状目标在前后两帧中的像素是相接近的,而且在相邻的多帧图像中,目标位置信息有相关性,而背景杂波没有这个特性。卡尔曼滤波根据前几帧目标状态来预测当前帧目标可能的运动方向和运动速度。

      当目标运动速度过快或者过慢时,初步设定的以目标区域大小的3倍的搜索框就不合理,在搜索框内可能不存在目标,导致目标的丢失。根据卡尔曼滤波预测的目标运动速度自适应调节搜索框的大小,根据预测的目标运动方向把搜索框选择在目标可能存在的区域。因此在卡尔曼滤波预测的位置范围内,用模型来确定最终的目标位置。

      在复杂的红外背景下,目标与背景的灰度差较小,当目标消失在杂波中或者重新出现时,跟踪算法会失去目标,采用重检测使跟踪算法发生跟踪失败时,能够让跟踪算法重新检测到目标是非常重要的。若逐帧都进行重检测,那么计算量较大,因此通过阈值来判断是否进行重检测。本文中检测方法使用多尺度局部梯度强度评估算法,达到再次检测到目标的目的。首先计算前3帧的最大响应值的平均值R。当前3帧的最大响应值的平均值R < Tth时,认为目标发生了遮挡,需要进行重检测; 当RTth时,认为跟踪准确,作为新的目标位置。

      $ \bar{R}=\frac{R_{t-1}+R_{t-2}+R_{t-3}}{3} $

      (8)

      式中,Tth=0.5为经验值,Rt-1, Rt-2, Rt-3为前3帧的最大响应值,R为平均响应值。

    • 为了测试本文中所提出算法的跟踪性能,在不同的数据集上进行了对比实验。这5幅红外点状图像序列的详细信息如表 1所示。本文中通过对具有不同背景的5幅红外序列的数据集上对本文中提出的算法进行了跟踪对比实验。本文中所有的实验都是在一台具有一个3.6GHz Intel Core i7 CPU、8G内存的计算机上进行的,并使用MatConvNet工具箱。

      Table 1.  Data set for the test tracking

      databasesback-groundimage sizeframe
      numbers
      target size/pixel
      (n×n)
      seq.1sunny-sky256×200308×8
      seq.2missile504×3963819×9
      seq.3could-sky 1250×2501707×7
      seq.4sea-sky250×2503428×8
      seq.5could-sky 2250×2502707×7
    • 在本文实验中采用3个评价指标来测试跟踪算法的性能。

      (1) 重叠率(intersection-over-union, IOU),它主要度量通过跟踪算法估计的目标位置框与目标真实位置框之间的重叠部分[15]

      $ U_{\mathrm{IOU}}=\frac{\boldsymbol{A}_{1} \cap \boldsymbol{A}_{2}}{\boldsymbol{A}_{1} \cup \boldsymbol{A}_{2}} $

      (9)

      式中,A1为标注的目标框,A2为跟踪的跟踪框,∩为交集操作,∪为并集操作。

      (2) 中心位置误差(center location error, CLE),通过计算跟踪框的中心位置之间的欧氏距离,ECLE的值越小,说明该方法更加有效[16]

      $ E_{\mathrm{CLE}}=\sqrt{\left(x_{0}-x_{1}\right)^{2}+\left(y_{0}-y_{1}\right)^{2}} $

      (10)

      式中,(x0, y0)为目标真实位置的中心坐标,(x1, y1)为跟踪到的目标位置中心坐标。

      (3) 准确率(precision plots,PRE),它的定义为:

      $ E_{\mathrm{PRE}}=\frac{r}{s} $

      (11)

      式中,s为红外图像序列总的帧数,r为中心位置误差的值小于阈值的图像帧数[17]。比值越大,说明该算法的跟踪结果越准确。

    • 为了检验本文中提出的算法跟踪红外点状目标的性能,选择了中值光流算法[18]、在线学习及检测(tracking learning detection, TLD)算法[19]、多实例学习(multiple instance learning, MIL)算法[20]等3种常规的跟踪算法作为本文中算法的对比实验。本文中的实验是计算机环境Windows10,3.6GHz Intel Core i7 CPU、8G内存,基于Python实现的。实验中采用的软件开发平台是Microsoft Visual Studio 2015,使用MatConvNet库的MATLAB2014软件。本文中的实验通过对具有不同背景的5幅红外序列的数据集上对4种跟踪算法进行了跟踪。

      图 7~图 11中显示了4个跟踪算法在5个不同的红外视频序列上的跟踪结果。绿色框表示目标真实位置框(ground-truth, GT),红色框通过本文中算法得到的跟踪结果坐标框,深蓝色、橙色、紫色框依次分别是通过中值光流算法、TLD算法、MIL算法得到的跟踪结果坐标框。

      Figure 7.  Representative visual results of four tracking algorithms on seq.1 dataset

      Figure 8.  Representative visual results of four tracking algorithms on seq.2 dataset

      Figure 9.  Representative visual results of four tracking algorithms on seq.3 dataset

      Figure 10.  Representative visual results of four tracking algorithms on seq.4 dataset

      Figure 11.  Representative visual results of four tracking algorithms on seq.5 dataset

      在红外视频序列1中(如图 7所示),在第1帧(如图 7a所示),目标与背景的灰度差较小,当点状目标最先从云层中出现时,TLD算法偏移较大,出现丢帧现象,失去了目标。中值光流算法、MIL算法偏移较小。在第10帧(如图 7b所示),中值光流算法偏移较大。从第20帧开始(如图 7c所示),TLD算法和中值光流算法在不同的阶段都失去了目标, 无法再次检测到目标。在信噪比较低的情况下,本文中算法能够准确跟踪到目标。

      在红外视频序列2中(如图 8所示),在第180帧(如图 8b所示),中值光流算法、TLD算法和MIL算法偏移较大、失去了目标。在第280帧(如图 8c所示),MIL和中值光流算法都失去目标。在第381帧(如图 8d所示),中值光流算法、MIL算法、TLD算法失去了目标,无法恢复。本文中算法一直稳定地跟踪到目标,而其它3种算法跟踪失败,失去目标。

      在红外视频序列3中(如图 9所示),在第1帧(如图 9a所示),MIL算法发生微小的偏移。在第60帧(如图 9b所示),MIL算法和TLD算法初始发生偏移,目标并不处于跟踪区域的中心。在第110帧(如图 9c所示),红外点状目标初步进去云层中,这时中值光流算法、MIL算法中,目标并不处于跟踪区域的中心。在第170帧(如图 9d所示), 目标消失在云层被遮挡时,背景与目标之间的灰度差比较小并且红外背景相对较复杂,中值光流算法失去了目标。尽管是在复杂背景下,本文中算法依然能够有效地准确跟踪到红外点状目标。

      在红外视频序列4中(如图 10所示),在第140帧(如图 10b所示),中值光流算法偏移变大,失去目标,无法再次检测到目标,MIL算法偏移较小。在第240帧(如图 7c所示),TLD算法、MIL算法跟踪效果并不稳定,而本文中算法一直稳定地跟踪到目标。

      在红外视频序列5中(如图 11所示),在第100帧(如图 11b所示),目标重现在云层中出来,目标区域发生了变化,中值光流算法失去了目标,无法恢复。在第170帧(如图 11c所示),目标开始重新进入云层中,TLD算法、MIL算法中的目标并不在跟踪区域的中心位置。在第270帧(如图 11d所示),目标消失在云层中被遮挡,MIL算法偏移较小,中值光流算法和TLD算法偏移较大,失去了目标,无法再次检测到目标。当目标从非云层区域移动到云层区域时,中值光流算法和TLD算法跟踪失败,MIL算法开始发生偏移,而本文中算法保持了较强的跟踪性能。

      综上所述,通过对5幅图像序列的对比,本文中提出的算法在不同的红外场景下稳定地跟踪到目标的同时,还可以保证对整个视频序列的准确跟踪,抗干扰能力较强。中值光流算法和TLD算法的跟踪性能较差,对跟踪过程常存在的如目标遮挡、背景杂波和快速运动等问题解决较差。在突然变化的背景或背景杂波的环境中,本文中算法不仅准确跟踪到目标,而且跟踪结果坐标更加贴近真实目标框。

      表 2显示,将本文中算法与中值光流算法、TLD算法、MIL算法的跟踪结果来评价算法的性能, 展现几种跟踪算法准确跟踪的帧数。其中occlusion表示目标被遮挡的总帧数。实验表明,中值光流算法和TLD算法对目标被局部遮挡的情况下跟踪效果比较差,MIL算法有部分未跟踪成功的情况,而本文中算法对整个视频序列准确跟踪。

      Table 2.  Number of successfully tracked frames(ours in comparison to medianflow, TLD, MIL results)

      sequenceframesocclusionmedianflowTLDMILours
      sunny-sky30101012530
      missile38101525343381
      could-sky 11705763165161170
      sea-sky342065340277342
      could-sky 22701245217250270

      图 12~图 16是本文中提出的算法、中值光流算法、TLD算法、MIL算法等4种跟踪算法在不同背景下的红外图像序列上的重叠率(IOU)、中心位置误差图(CLE)和基于中心位置误差的精确度图(PRE)。从图 12~图 16中清楚地看到,本文中算法的跟踪结果受到的背景杂波和非目标点的影响较小,表明该方法是比较有效的。还可以看出,与其它3种算法相比,本文中算法在不同背景下的性能都是较好的,这表明本文中算法具有更好的跟踪性能。

      Figure 12.  IOU, CLE, PRE plots of the four tracking algorithms on the seq. 1

      Figure 13.  IOU, CLE, PRE plots of the four tracking algorithms on the seq.2

      Figure 14.  IOU, CLE, PRE plots of the four tracking algorithms on the seq. 3

      Figure 15.  IOU, CLE, PRE plots of the four tracking algorithms on the seq.4

      Figure 16.  IOU, CLE, PRE plots of the four tracking algorithms on the seq.5

    • 本文中把机器学习的方法运用在红外点状目标跟踪中,使用元学习的线下训练,使得模型可以学习到跟踪目标的通用特征,有效解决了红外点状目标训练数据不足的问题。此外,在长时跟踪过程中,目标可能存在被遮挡、跟踪可能会发生漂移等情况,从而丢失目标,因此,本文中提出重检测机制,重新跟踪到目标,实现稳定跟踪。与此同时,通过卡尔曼滤波算法预测目标运动模型,得到最优的搜索区域。为了验证本文中算法的有效性,对不同背景下的红外图像序列上进行测试,均表现出了良好的性能,实验结果表明了此方法的有效性。同时,与现有方法进行了比较,该算法优于其它几种红外点状目标跟踪算法。在后续的研究中,将在此基础上,结合使用优化算法来进一步提高算法的实时性。

参考文献 (20)

目录

    /

    返回文章
    返回