高级检索

ISSN1001-3806CN51-1125/TN 网站地图

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于NSCT域的动态WNMF图像融合算法的研究

葛雯 杨阳

引用本文:
Citation:

基于NSCT域的动态WNMF图像融合算法的研究

    作者简介: 葛雯(1972-), 女, 博士, 副教授, 现主要从事图像处理、航空电子信息的研究。E-mail:gewenbox@sina.com.
  • 基金项目:

    辽宁省自然科学基金资助项目 201602556

  • 中图分类号: TP391

Research of dynamic WNMF image fusion algorithm based on NSCT domain

  • CLC number: TP391

  • 摘要: 在红外线与可见光图像的融合过程中,经常会出现融合图像细节方面缺失的情况。为了解决这一问题,采用了改进的非下采样轮廓波变换(NSCT)图像融合算法,融入动态的加权非负矩阵分解规则(WNMF),对图像进行融合处理。结果表明,利用非下采样轮廓波变换算法对两幅源图像进行多尺度多方向的分解,可得到低频与高频部分;动态的WNMF融合规则作为低频部分的融合规则;高频部分中最高层的分解尺度采用绝对值取大的方法;高频部分其它各层则设定匹配度阈值;低于阈值时,使用基于区域能量匹配度的区域方差选大的方法;如果高于阈值时,采用加权平均的方法进行;通过对低频部分与高频部分的处理,用NSCT逆变换方式获得了融合图像。该方法有效提高了融合图像清晰度,凸显了其细节信息,缩短了所需的计算时间。
  • Figure 1.  Decomposition steps of NSCT

    Figure 2.  Experimental image 1

    a—infrared image b—visible light image c—contourlet fusion image d—NSCT fusion image e—WNMF fusion image f—NSCT and WNMF fusion image g—the difference image of Fig. 2a h—the difference image of Fig. 2b

    Figure 3.  Experimental image 2

    a—infrared image b—visible light image c—contourlet fusion image d—NSCT fusion image e—WNMF fusion image f—NSCT and WNMF fusion image g—the difference image of Fig. 3a h—the difference image of Fig. 3b

    Table 1.  Fusion quality evaluation indexes of several algorithms of experimental image 1 and image 2

    infornation entropy standard decuation average gredient correlation coefficient distortion cperation time/s
    Fig. 2c 7.0532 7.6095 4.3013 -0.0612 97.0941 30.427
    Fig. 2d 7.0742 7.6417 6.1340 -0.2323 38.1157 24.782
    Fig. 2e 7.0527 7.6049 5.7882 0.8699 6.6102 29.548
    Fig. 2f 7.1634 7.8574 6.7115 -0.4199 33.7592 21.563
    Fig. 3c 6.1885 30.1053 5.0723 0.4842 19.8994 32.650
    Fig. 3d 7.3526 31.5697 6.5345 0.6903 18.9129 28.764
    Fig. 3e 6.7074 35.6624 8.1043 0.6898 20.0759 26.532
    Fig. 3f 7.3674 36.7720 7.1884 0.7042 6.7784 20.875
    下载: 导出CSV
  • [1]

    GAO J S, DONG Y N, SHEN Y, et al. Research on image fusion algorithm based on improved Tetrolet transform[J]. Computer Science, 2015, 42(5):320-322(in Chinese). 
    [2]

    MASON W P. Physical acoustics principles and methods[M]. London, UK:Academic Press, 1964:57-89.
    [3]

    MASON W P. Electromechanical transducers and wave filters[M]. London, UK:Van Nostrand Company, 1958:37-43.
    [4]

    CUNHA A L, ZHOU J, DO M N. The Nonsubsampled contourlet transform:theory, design, and applications[J]. IEEE Transactions on Image Processing, 2006, 15(10):3089-3103. doi: 10.1109/TIP.2006.877507
    [5]

    LEE D D, SEUNG H S. Learning the parts of objects by non-negative matrix factorization[J]. Nature, 1999, 401(6755):788-791. doi: 10.1038/44565
    [6]

    GILLIS N, VAVASIS S A. Fast and robust recursive algorithms for separable non-negative matrix factorization[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(4):698-714. doi: 10.1109/TPAMI.2013.226
    [7]

    CHIN W S, ZHUANG Y, JUAN Y C, et al. A fast parallel stochastic gradient method for matrix factorization in shared memory system[J]. ACM Transactions on Intelligent Systems and Technology, 2015, 6(1):1-24.
    [8]

    GUILLAMET D, VITRIA J, SCHIELE B. Introducing a weighted non-negative matrix factorization for image classification[J]. Patten Recognition Letters, 2003, 24(14):2447-3454. doi: 10.1016/S0167-8655(03)00089-8
    [9]

    ZHANG L, JIN L X, HAN Sh M, et al. The infrared visible image fusion of non-sampled contourlet transform and regional classification is adopted[J]. Optics and Precision Engineering, 2015, 23(3):810-818(in Chinese). doi: 10.3788/OPE.
    [10]

    GONG M, ZHANG Y S, LI Y J, et al. Regional energy and image from similar NSCT domain image fusion[J]. Transducer and Microsystem Technologies, 2017, 35(5):2096-2436(in Chinese).
    [11]

    SHARIPOV R. Course of differential geometry[M]. New York, USA:Bulletin of the American Mathematical Society, 2014:33.
    [12]

    LIU Sh P, HE Q, SONG Y. Dynamic weighted non-negative matrix factorization and its using research in image fusion[J]. Chinese Journal of Sensors and Actuators, 2010, 23(9):1266-1271. 
    [13]

    ZHANG Y, LI Y J, ZHANG K, et al. Fusion of infrared and visible images based on NSCT[J]. Computer Engineering and Applications, 2011, 47(3):196-198(in Chinese). 
    [14]

    DENG L, CHEN Y H, LI J, et al. A method of adaptive remote sensing image fusion based on wavelet transforms[J]. Journal Infrared Millim Waves, 2005, 24(1):34-38(in Chinese). 
    [15]

    ZHANG Zh J. Research on optimization of fusion algorithm based on NSCT infrared and visible image[J].Infrared Technique, 2017, 38(12):1001-1591(in Chinese).
    [16]

    LI Z H, DONG A G, FENG J H. Regranal fousion algorithm of images based on multistage guide filters.Laser Techlonology, 2016, 40(5):756-761(in Chinese).
  • [1] 郑伟孙雪青李哲 . shearlet变换和区域特性相结合的图像融合. 激光技术, 2015, 39(1): 50-56. doi: 10.7510/jgjs.issn.1001-3806.2015.01.010
    [2] 张雷罗长更张颖颖李根全杨兴强王肖霞 . 基于支持度变换的红外与可见光图像融合算法. 激光技术, 2015, 39(3): 428-431. doi: 10.7510/jgjs.issn.1001-3806.2015.03.032
    [3] 陈树越刘金星丁艺 . 基于小波变换的红外与X光图像融合方法研究. 激光技术, 2015, 39(5): 685-688. doi: 10.7510/jgjs.issn.1001-3806.2015.05.021
    [4] 高颖王阿敏王凤华郭淑霞 . 改进的小波变换算法在图像融合中的应用. 激光技术, 2013, 37(5): 690-695. doi: 10.7510/jgjs.issn.1001-3806.2013.05.028
    [5] 李旭寒董安国封建湖 . 基于多级引导滤波器的图像区域融合算法. 激光技术, 2016, 40(5): 756-761. doi: 10.7510/jgjs.issn.1001-3806.2016.05.029
    [6] 郑伟李涵安晓林刘帅奇张晓丹马泽鹏 . 基于ShearLab 3D变换的3维PET/MRI图像融合. 激光技术, 2021, 45(1): 86-92. doi: 10.7510/jgjs.issn.1001-3806.2021.01.015
    [7] 朱文艳李莹袁飞冯少彤聂守平 . 基于JPEG压缩编码的小波域多图像融合算法研究. 激光技术, 2014, 38(3): 425-430. doi: 10.7510/jgjs.issn.1001-3806.2014.03.031
    [8] 刘凯王慧琴吴萌相建凯卢英 . 基于提升小波的古铜镜X光图像融合方法研究. 激光技术, 2020, 44(1): 113-118. doi: 10.7510/jgjs.issn.1001-3806.2020.01.020
    [9] 陈锋张闻文虞文俊陈钱顾国华 . 基于小波变换的EMCCD微光图像融合算法. 激光技术, 2014, 38(2): 155-160. doi: 10.7510/jgjs.issn.1001-3806.2014.02.003
    [10] 虞文俊顾国华杨蔚 . 基于小波变换的红外偏振图像融合算法. 激光技术, 2013, 37(3): 289-292. doi: 10.7510/jgjs.issn.1001-3806.2013.03.004
    [11] 张宝华刘鹤张传亭 . 基于经验模态分解提取纹理的图像融合算法. 激光技术, 2014, 38(4): 463-468. doi: 10.7510/jgjs.issn.1001-3806.2014.04.007
    [12] 李昌海叶玉堂沈淦松徐伟叶涵姚景昭 . 基于图像轮廓分析的LCD线路缺陷检测. 激光技术, 2013, 37(2): 207-210. doi: 10.7510/jgjs.issn.1001-3806.2013.02.017
    [13] 刘艾琳 . 基于提升小波变换的红外图像双重滤波算法. 激光技术, 2015, 39(4): 545-548. doi: 10.7510/jgjs.issn.1001-3806.2015.04.026
    [14] 郎川萍杨仁怀 . 基于改进脊波变换的红外视频图像高质量复原. 激光技术, 2015, 39(2): 247-251. doi: 10.7510/jgjs.issn.1001-3806.2015.02.022
    [15] 张凡 . 红外图像改进非局部均值滤波算法研究. 激光技术, 2015, 39(5): 662-665. doi: 10.7510/jgjs.issn.1001-3806.2015.05.016
    [16] 张宝华刘鹤 . 基于能量梯度场映射关系的红外图像分割方法. 激光技术, 2015, 39(1): 76-81. doi: 10.7510/jgjs.issn.1001-3806.2015.01.015
    [17] 曹国强刘禹廷王琳霖 . 改进非下采样轮廓波在散斑条纹中的滤波处理. 激光技术, 2019, 43(2): 269-274. doi: 10.7510/jgjs.issn.1001-3806.2019.02.022
    [18] 徐光宪徐山强郭晓娟华一阳 . DCT变换与DNA运算相结合的图像压缩加密算法. 激光技术, 2015, 39(6): 806-810. doi: 10.7510/jgjs.issn.1001-3806.2015.06.016
    [19] 郭佑东凌福日姚建铨 . 基于梯度变换的太赫兹图像超分辨率重建. 激光技术, 2020, 44(3): 271-277. doi: 10.7510/jgjs.issn.1001-3806.2020.03.001
    [20] 胡克亚王君王莹 . 基于分块压缩感知和改进幻方变换的图像加密. 激光技术, 2019, 43(4): 532-538. doi: 10.7510/jgjs.issn.1001-3806.2019.04.017
  • 加载中
图(3) / 表(1)
计量
  • 文章访问数:  5482
  • HTML全文浏览量:  3865
  • PDF下载量:  79
  • 被引次数: 0
出版历程
  • 收稿日期:  2018-04-02
  • 录用日期:  2018-07-18
  • 刊出日期:  2019-03-25

基于NSCT域的动态WNMF图像融合算法的研究

    作者简介: 葛雯(1972-), 女, 博士, 副教授, 现主要从事图像处理、航空电子信息的研究。E-mail:gewenbox@sina.com
  • 沈阳航空航天大学 电子与信息工程学院 电子与通信工程系, 沈阳 110136
基金项目:  辽宁省自然科学基金资助项目 201602556

摘要: 在红外线与可见光图像的融合过程中,经常会出现融合图像细节方面缺失的情况。为了解决这一问题,采用了改进的非下采样轮廓波变换(NSCT)图像融合算法,融入动态的加权非负矩阵分解规则(WNMF),对图像进行融合处理。结果表明,利用非下采样轮廓波变换算法对两幅源图像进行多尺度多方向的分解,可得到低频与高频部分;动态的WNMF融合规则作为低频部分的融合规则;高频部分中最高层的分解尺度采用绝对值取大的方法;高频部分其它各层则设定匹配度阈值;低于阈值时,使用基于区域能量匹配度的区域方差选大的方法;如果高于阈值时,采用加权平均的方法进行;通过对低频部分与高频部分的处理,用NSCT逆变换方式获得了融合图像。该方法有效提高了融合图像清晰度,凸显了其细节信息,缩短了所需的计算时间。

English Abstract

    • 随着社会的进步与科技的发展,单一传感器不仅容易受到环境或人为因素的影响,而且所能得到的图像也无法满足人们的需求。科研工作者通过研究后发现,可以使用两个或以上的传感器进行多方位多角度的拍摄,并且通过某种手段将其融合成一幅符合人们需求的图像。从而衍生出图像融合技术。随着融合技术的不断发展,所产生的类别也不断增多,譬如红外与可见光融合技术、高光谱图像融合技术、多传感器多聚集图像融合技术等等。并且根据不同的需求,提取信息的特征层次也不同,从而出现了像素级图像融合、特征级图像融合、以及决策级图像融合3个层次[1]

      contourlet变换是DO与VETERLI在2002年所提出的,这种融合方式不仅具备小波变化的多分辨率视频分析特征,而且具备了较好的各向异性特征[2-3]。但是在利用contourlet变换算法时,必须对源图象使用上采样与下采样方式,这使得其缺少了平移不变性,因此CUNHA等人在2005年提出了具备平移不变性的contourlet变换,即非下采样contourlet变换(nonsubsampled contourlet transform, NSCT)。非下采样contourlet变换由一个非下采样的塔形结构以及一个非下采样的方向滤波带构成,这种图像分解方式是一种灵活的、具备多尺度与多方向性的平移不变图像分解方法[4]

      标准非负矩阵分解(non-negative matrix factorization,NMF)是由LEE等人于2000年提出,它是继多分辨率分析图像融合算法之后的新型算法,并且比其更为优秀[5]。它具备提取向量全局特征的能力,可以将原始矩阵分成非负的基矩阵与非负的权值系数矩阵,从而将源图像的维度进行降低。为了更好地符合人眼的视觉效果,作者对传统的标准NMF采用动态加权的方式进行处理,即对加权非负矩阵分解(weighted NMF, WNMF)进行改进,得到了较好的结果。

    • NSCT是基于contourlet变换理论所提出的,它具备离散性,是一种多尺度多方向进行图像分解的方法。NSCT变换具有两部分,分别是非采样塔式滤波器(nonsubsamplet pyramid filter bank,NSP)与非采样方向滤波器(nonsubsamplet directional filter bank,NSDFB),二者可以分开进行多尺度与多方向的分析,从而代替了对信号分量进行上采样与下采样的操作。在分解时,先是使用NSP对两幅源图像进行一次多尺度分解,从而得到低通子带与带通子带图像,然后对所得的低通子带图像再次使用NSP进行迭代式分解,与此同时对每一级所得的带通子带图像使用NSDFB进行方向分解,经过这种方式,可以得到若干个多尺度多方向的子带系数(图像),最终连接所处方向相同的奇异点,最终形成轮廓段。其分解步骤如图 1所示。

      Figure 1.  Decomposition steps of NSCT

    • NMF的标准计算公式如下:

      $ {\mathit{\boldsymbol{V}}_{M \times N}} \approx {\mathit{\boldsymbol{W}}_{M \times R}}{\mathit{\boldsymbol{H}}_{R \times N}} $

      (1)

      式中,V表示原始的非负矩阵,W表示分解后的非负基矩阵,H表示分解后的非负权值系数矩阵; R表示矩阵分解维数,M表示列,N表示行;并且R满足(N+MR < NM

      对于研究非负矩阵分解来说,目标函数的定义是十分重要的。现阶段有以下两种常用的目标函数:一种是以最小化2个矩阵间的欧式距离作为目标函数[6-7]

      $ \begin{array}{*{20}{c}} {\min \mathit{\boldsymbol{E}}\left( {\mathit{\boldsymbol{W}},\mathit{\boldsymbol{H}}} \right) = {{\left\| {\mathit{\boldsymbol{V}} - \mathit{\boldsymbol{WH}}} \right\|}^2} = }\\ {\sum\limits_{M,N} {{{\left[ {{\mathit{\boldsymbol{V}}_{M \times N}} - {{\left( {\mathit{\boldsymbol{WH}}} \right)}_{M \times N}}} \right]}^2}} } \end{array} $

      (2)

      式中,‖ ‖表示模的绝对值。

      VWH=0成立时,目标函数为0。另一种是将最小化的Kullback-Liebler散度作为目标函数:

      $ \begin{array}{*{20}{c}} {\mathit{\boldsymbol{D}}\left( {\mathit{\boldsymbol{V}}\left\| {\mathit{\boldsymbol{WH}}} \right.} \right) = }\\ {\sum\limits_{M,N} {\left[ {{\mathit{\boldsymbol{V}}_{M \times N}}\lg {\mathit{\boldsymbol{V}}_{M \times N}}/{{\left( {\mathit{\boldsymbol{W}} \times \mathit{\boldsymbol{H}}} \right)}_{M \times N}} - {\mathit{\boldsymbol{V}}_{M \times N}} + {{\left( {\mathit{\boldsymbol{WH}}} \right)}_{M \times N}}} \right]} } \end{array} $

      (3)

      式中, ‖表示VWH之间的距离。作者将(2)式作为目标函数,为了进一步提高算法对局部特征的提取能力,通过设计动态加权系数,对重要数据区域进行设计,并且对重要区域提高重建误差的权重,从而使数据重要特征的表达能力得到提高[8]。动态的WNMF迭代规则如下:

      $ \mathit{\boldsymbol{W}} = \mathit{\boldsymbol{W}} \cdot \frac{{\left( {\mathit{\boldsymbol{U}} \cdot \mathit{\boldsymbol{V}}} \right){\mathit{\boldsymbol{H}}^{\rm{T}}}}}{{\left[ {\mathit{\boldsymbol{U}} \cdot \left( {\mathit{\boldsymbol{WH}}} \right)} \right]{\mathit{\boldsymbol{H}}^{\rm{T}}}}} $

      (4)

      $ \mathit{\boldsymbol{H}} = \mathit{\boldsymbol{H}} \cdot \frac{{{\mathit{\boldsymbol{W}}^{\rm{T}}}\left( {\mathit{\boldsymbol{U}} \cdot \mathit{\boldsymbol{V}}} \right)}}{{{\mathit{\boldsymbol{W}}^{\rm{T}}}\left[ {\mathit{\boldsymbol{U}} \cdot \left( {\mathit{\boldsymbol{WH}}} \right)} \right]}} $

      (5)

      式中, U为加权系数矩阵。

    • (1) 首先对两幅源图像进行各个层级各方位NSCT分解,得到相应的子带系数,即高频子带系数和低频子带系数,{Cv, j0(x, y), Cv, j, l(x, y)(jj0)}和{Ci, j0(x, y), Ci, j, l(x, y)(jj0)},其中Cj0(x, y)为低频子带系数,Cj, l(x, y)为图像在j尺度和l方向上的高频子带系数。在分解过程中分解级数如果选择过高,会使变化后的较小边缘或者纹理信息丢失,通过前人的大量研究分析可知,分解级数为4层时最优,所以本文中最高分解级数J=4。

      (2) 经过分解所得的红外图像与可见光图像低频子带Ci, j0(x, y)与Cv, j0(x, y),使用动态WNMF融合方法,得到低频子带融合图像Ci, v, j0(x, y)。

      (3) 对红外图像与可见光图像的高频子带Ci, j, l(x, y)与Cv, j, l(x, y)使用基于区域能量匹配度的混合融合规则进行融合。

      (4) 对得到的低频与高频融合系数使用NSCT逆变换,得到最终融合图像Q

    • 对于图像的低频部分来说,大部分的信息都储存在其中,因此该部分反映的是源图像的近似特征。随着图像迭代的增加,融合图像的像素灰度值也会随之动态变化,这就使得融合图像与源图像的灰度分布出现区别,由于图像的各个区域重要程度并不是绝对存在的,所以随着灰度值的变化,各区域重要程度也发生了变化,原有的WNMF这种固定加权系数的融合方法并不能完全体现该变化。

      本文中对低频部分使用动态加权系数融合规则。在迭代过程中,实时的调整加权系数,当迭代结果不等于额定阈值时,调整加权系数,使之大于或等于额定阈值;当迭代结果等于或大于额定阈值时,停止调整加权系数。通过使用这种动态加权系数调整方式,从而提高低频融合部分效果。

      由于人眼对图像的对比度较为敏感,为了达到改善视觉效果的目的,选取的目标函数为与对比度具有同一变化趋势的突变度,对WH的迭代规则进行修改,修改如下:

      $ \left\{ \begin{array}{l} {\mathit{\boldsymbol{U}}_{\rm{i}}} = {\mathit{\boldsymbol{U}}_{\rm{i}}}\frac{{{d_{\rm{i}}}}}{{{d_{\rm{v}}}}}\\ {\mathit{\boldsymbol{U}}_{\rm{v}}} = {\mathit{\boldsymbol{U}}_{\rm{v}}}\frac{{{d_{\rm{v}}}}}{{{d_{\rm{i}}}}} \end{array} \right. $

      (6)

      式中,Ui, Uv分别表示红外图像和可见光图像的加权余数矩阵; didv分别为红外图像与可见光图像的突变度。

      $ d = \left| {\frac{{x\left( {m,n} \right) - \mu }}{\mu }} \right| $

      (7)

      (7) 式定义了图像灰度突变度,x(m, n)为图像在点(m, n)上的灰度值,μ是图像的平均灰度值。

      以下为低频部分的融合步骤:

      (1) 对Ci, j0(x, y)与Cv, j0(x, y)低频系数矩阵使用行优先方式,将其转变为列向量,得到原始非负矩阵V

      (2) 利用(7)式计算两幅源图像的突变度,得到didv,将较大的一方作为目标突变度。

      (3) 按照参考文献[8]中所述,非负基矩阵的列数被称为特征基,该参量直接决定特征子空间为数。当且仅当特征基为1时,特征基有唯一解,且具备源数据的完整特征,如果将其还原,则可得到源图像的绝大部分信息,此时加权系数矩阵为n×2,系数为0.5,因此这里将特征基设定为1,加权系数矩阵为n×2,元素取值为0.5。

      (4) 一次迭代完成之后,将本次迭代像素突变度与目标突变度相比,若大于目标突变度,则保留其像素加权系数;若小于目标突变度,利用(6)式改变其加权系数,使其等于或大于目标突变度。

      (5) 再次迭代,并重复执行第(4)步。

    • 图像的细节分量大多分布在高频部分,因此其边缘细节信息十分丰富。本文中在高频部分的融合上采取的是混合融合的规则。在迭代过程中,低层提供了较粗糙的信息,为了使边缘的线条更加自然,更好地维护像素邻域之间的相关性,使用基于区域能量匹配的区域方差选大融合方式[9-10];高层所提供的信息较为细腻,各个信息点之间具备的独立性较高,因此使用像素点绝对值取大的融合方式[11]

      其中,区域能量的定义为:

      $ \begin{array}{*{20}{c}} {{E_{j,l}}\left( {x,y} \right) = \frac{1}{{MN}} \times }\\ {\sum\limits_{m = - \frac{{M - 1}}{2}}^{\frac{{M - 1}}{2}} {\sum\limits_{n = - \frac{{N - 1}}{2}}^{\frac{{N - 1}}{2}} {\omega \left( {m,n} \right){{\left[ {{C_{j,l}}\left( {x + m,y + n} \right)} \right]}^2}} } } \end{array} $

      (8)

      因为基于区域特征的融合方法为了对比融合图像的特征,会选择某个像素周围的一个领域特征,即窗口大小,在选取时因为3×3尺寸窗口中心为整数值,可以简化索引,并更为直观。所以, 在本文中,M×N取为3×3,窗口掩模ω(m, n)取为$\frac{{{\rm{[1, 2, 1;2, 4, 2;1, 2, 1]}}}}{{{\rm{16}}}} $[12]

      区域能量匹配度的定义为:

      $ \begin{array}{*{20}{c}} {P\left( {x,y} \right) = \left| {\sum\limits_{m = - \frac{{M - 1}}{2}}^{\frac{{M - 1}}{2}} {\sum\limits_{n = - \frac{{N - 1}}{2}}^{\frac{{N - 1}}{2}} {\omega \left( {m,n} \right)} } \times } \right.}\\ {\left. {{C_{{\rm{i}},j,l}}\left( {x + m,y + n} \right){C_{{\rm{v}},j,l}}\left( {x + m,y + n} \right)} \right| \times }\\ {{{\left[ {{E_{{\rm{i}},j,l}}\left( {x,y} \right) + {E_{{\rm{v}},j,l}}\left( {x,y} \right)} \right]}^{ - 1}}} \end{array} $

      (9)

      匹配度阈值α的普遍取值为0.5~1,本文中设定为0.7[13]

      区域方差的定义为:

      $ \begin{array}{*{20}{c}} {{F_{j,l}}\left( {x,y} \right) = \frac{1}{{\left( {M - 1} \right)\left( {N - 1} \right)}} \times }\\ {\sum\limits_{m = \frac{{M - 1}}{2}}^{\frac{{M - 1}}{2}} {\sum\limits_{n = \frac{{N - 1}}{2}}^{\frac{{N - 1}}{2}} {{{\left| {{C_{j,l}}\left( {x + m,y + n} \right) - \bar A} \right|}^2}} } } \end{array} $

      (10)

      式中,$\overline A $表示该区域拥有的平均方差,为常量。

      以下为高频部分的融合步骤:

      (1) 融合图像在迭代后的最高层分解尺度J(本文中取J=4)上的各个高频系数取值方法为:

      $ \begin{array}{*{20}{c}} {{C_{{\rm{i}},{\rm{v}},J,l}}\left( {x,y} \right) = }\\ {\left\{ \begin{array}{l} {C_{{\rm{i}},J,l}}\left( {x,y} \right),\left( {\left| {{C_{{\rm{i}},J,l}}\left( {x,y} \right)} \right| \ge \left| {{C_{{\rm{v}},J,l}}\left( {x,y} \right)} \right|} \right)\\ {C_{{\rm{v}},J,l}}\left( {x,y} \right),\left( {\left| {{C_{{\rm{i}},J,l}}\left( {x,y} \right)} \right| < \left| {{C_{{\rm{v}},J,l}}\left( {x,y} \right)} \right|} \right) \end{array} \right.} \end{array} $

      (11)

      (2) 融合图像在除J层以外的其它各层中的高频系数,具体融合方式如下:

      Pi, v(x, y) < α时,采用基于能量匹配度的区域方差选大法进行融合:

      $ \begin{array}{*{20}{c}} {{C_{{\rm{i}},{\rm{v}},j,l}}\left( {x,y} \right) = }\\ {\left\{ \begin{array}{l} {C_{{\rm{i}},j,l}}\left( {x,y} \right),\left( {{F_{{\rm{i}},j,l}}\left( {x,y} \right) \ge {F_{{\rm{v}},j,l}}\left( {x,y} \right)} \right)\\ {C_{{\rm{v}},j,l}}\left( {x,y} \right),\left( {{F_{{\rm{i}},j,l}}\left( {x,y} \right) < {F_{{\rm{v}},j,l}}\left( {x,y} \right)} \right) \end{array} \right.} \end{array} $

      (12)

      Pi, v(x, y)≥α时,则采用加权平均的方式进行融合:

      $ {C_{{\rm{i}},{\rm{v}},j,l}}\left( {x,y} \right) = {q_1}{C_{{\rm{i}},j,l}}\left( {x,y} \right) + {q_2}{C_{{\rm{v}},j,l}}\left( {x,y} \right) $

      (13)

      式中, q1q2为自适应调整因子:

      $ \left\{ \begin{array}{l} {q_1} = \frac{{{E_{{\rm{i}},j,l}}\left( {x,y} \right)}}{{{E_{{\rm{i}},j,l}}\left( {x,y} \right) + {E_{{\rm{v}},j,l}}\left( {x,y} \right)}}\\ {q_2} = \frac{{{E_{{\rm{v}},j,l}}\left( {x,y} \right)}}{{{E_{{\rm{i}},j,l}}\left( {x,y} \right) + {E_{{\rm{v}},j,l}}\left( {x,y} \right)}} \end{array} \right. $

      (14)
    • 为了验证本文中所述算法的可行性,试验选取了2组256×256的红外与可见光图像,在core i7处理器的联想电脑上,通过MATLAB2014b对两幅源图像进行融合处理。图 2a图 3a为源红外图像;图 2b图 3b为源可见光图像;图 2c图 3c中使用的方法是contourlet分解,其中低频融合规则为平均,高频为绝对值取大[14]图 2d图 3d的方法为NSCT分解算法,融合规则分别为低频加权平均;高频则分成最高层方差取大,其它层能量取大;图 2e图 3e为WNMF融合算法;图 2f图 3f为本文中所介绍算法;图 2g图 3g为本文中算法所得融合图像f与图像a的差分图像;图 2h图 3h是图像f与图像b的差分图像。

      Figure 2.  Experimental image 1

      Figure 3.  Experimental image 2

      通过比较不同种融合方法下得到融合图像后可以发现,每种算法所得出的融合图像具备不同的特点[15]。同时,在使用客观融合评价指标中的信息熵、平均梯度、标准差以及运行时间可以发现,本文中所用到的算法比起所列举的算法都有不同程度的优化,总的来说,利用本次算法可以得到较为清晰、视觉感较好的融合图像。图像1和图像2各算法融合质量评价指标如表 1所示。

      Table 1.  Fusion quality evaluation indexes of several algorithms of experimental image 1 and image 2

      infornation entropy standard decuation average gredient correlation coefficient distortion cperation time/s
      Fig. 2c 7.0532 7.6095 4.3013 -0.0612 97.0941 30.427
      Fig. 2d 7.0742 7.6417 6.1340 -0.2323 38.1157 24.782
      Fig. 2e 7.0527 7.6049 5.7882 0.8699 6.6102 29.548
      Fig. 2f 7.1634 7.8574 6.7115 -0.4199 33.7592 21.563
      Fig. 3c 6.1885 30.1053 5.0723 0.4842 19.8994 32.650
      Fig. 3d 7.3526 31.5697 6.5345 0.6903 18.9129 28.764
      Fig. 3e 6.7074 35.6624 8.1043 0.6898 20.0759 26.532
      Fig. 3f 7.3674 36.7720 7.1884 0.7042 6.7784 20.875
    • 本文中所提出的基于NSCT与动态WHMF变换相结合的融合方式,有利于红外与可见光图像的信息互补,在实验的基础上,该融合方式不仅可以有效缩短算法运行的时间,而且可以将源图像中大部分的纹理与边缘等细节信息进行提取,符合人眼的观测度,展现出了良好的融合性能。

参考文献 (16)

目录

    /

    返回文章
    返回