en
×

分享给微信好友或者朋友圈

使用微信“扫一扫”功能。
参考文献 1
RovidA, HashimotoT, ValakiP. Improved high dynamic range image reproduction method[C]//Proceedings of the 4th Symposium on Applied Computational Intelligence and Informatics. Washington: IEEE Computer Society, 2007: 203‑206.
参考文献 2
WuX J, SongZ, YuG. A novel multiple exposure merging method for high dynamic range image generation [C]// International Conference on Signal Processing Systems. [S.l.]: IEEE, 2010: 74‑77.
参考文献 3
GoshtasbyA A. Fusion of multi‑exposure images[J]. Image and Vision Computing, 2005, 23(6): 611‑618.
参考文献 4
RamanS, ChaudhuriS. Bilateral filter based compositing for variable exposure photography[C]//Proceedings of Euro graphics. Munich,Germany: [s.n.],2009: 369‑378.
参考文献 5
ZhaoY, ShenJ, HeY. Sub‑band architecture based exposure fusion[C]//2010 Fourth Pacific‑Rim Symposium on Image and Video Technology (PSIVT). [S.l.]:IEEE, 2010: 501‑506.
参考文献 6
ZhangW, ChamW K. Gradient‑directed multiexposure composition[J]. IEEE Trans Image Process, 2012, 21(4): 2318‑2323.
参考文献 7
MertensT, KautzJ, Van ReethF. Exposure fusion[C]//Proceedings of the Pacific conference on Computer Graphics and Applications. Maui,Hawaii,USA: IEEE, 2007: 382‑390.
参考文献 8
MertensT, KautzJ, Van ReethF. Exposure fusion: A simple and practical alternative to high dynamic range photography[J]. Computer Graphics Forum, 2009, 28(1): 161‑171.
参考文献 9
LeddaP, ChalmersA, TrosciankoT, et al. Evaluation of tone mapping operators using a high dynamic range display [J]. ACM Transactions on Graphics, 2005, 24(3): 640‑648.
参考文献 10
EilertsenG, WanatR, MantiukR K, et al. Evaluation of tone mapping operators for HDR‑video[J].Computer Graphics Forum, 2013, 32(7): 275‑284.
参考文献 11
AydinT O, MantiukR, MyszkowskiK, et al. Dynamic range independent image quality assessment[J].ACM Transactions on Graphics (TOG), 2008, 27(3): 69.
参考文献 12
付争方,朱虹,薛杉,等.基于sigmoid函数拟合的多曝光直接融合算法[J].仪器仪表学报,2015, 36 (10): 2321‑2329.
FuZhengfang, ZhuHong,XueShan, et al. Direct fusion algorithm for multi‑exposed images based on sigmoid function fitting[J]. Chinese Journal of Scientific Instrument,2015,36(10): 2321‑2329.
参考文献 13
SidibeD, PuechW, StraussO. Ghost detection and removal in high dynamic range images[C]//Proceedings of the 17th European Signal Processing Conference. [S.l.]: IEEE,2009: 2240‑2244.
参考文献 14
MitsunagaT, NayarS K. Radiometric self‑calibration[C]//1999 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Miami, USA: IEEE, 1999(1): 374‑380.
参考文献 15
WangC M . An exposure fusion approach without ghost for dynamic scenes[C]//Proceedings of the 6th International Congress on Image and Signal Processing (CISP 2013). [S.l.]: IEEE, 2013: 904‑909.
参考文献 16
张军,戴霞,孙德全,等.不同曝光值图像的直接融合方法[J].软件学报,2011,22(4): 813‑825.
ZhangJun, DaiXia, SunDequan,et al. Directly fusion method for combining variable exposure value images[J].Journal of Software,2011,22(4): 813‑825.
参考文献 17
SrikanthaA, SidibéD. Ghost detection and removal for high dynamic range images: Recent advances [J]. Signal Processing: Image Communication, 2012, 27(6): 650‑662.
参考文献 18
ReinhardE, WardG, PattanaikS, et al. High dynamic range imaging: Acquisition, display and image‑based lighting [M]. 2nd ed. San Francisco, US: Morgan Kaufmann, 2010.
参考文献 19
JacobsK, LoscosC, WardG. Automatic high dynamic range image generation for dynamic scenes [J]. IEEE Computer Graphics and Applications, 2008, 28: 84‑93.
参考文献 20
PeceF, KautzJ. Bitmap movement detection: HDR for dynamic scenes[C]//Proceedings of Conference on Visual Media Production (CVMP). [S.l.]: IEEE, 2010: 1‑8.
参考文献 21
MinT H, ParkR H, ChangS K. Histogram based ghost removal in high dynamic range images[C]//Proceedings of the International Conference on Multimedia and Expo‑ICME. New York, USA: [s.n.],2009: 530‑533.
参考文献 22
GalloO, GelfandN, ChenW C, et al. Artifact‑free high dynamic range image[C]//Proceedings of the IEEE International Conference on Computational Photography (ICCP). San Francisco: IEEE,2009: 1‑7.
参考文献 23
SenP, KalantariN K, YaesoubiM, et al. Robust patch‑based hdr reconstruction of dynamic scenes[J]. ACM Trans Graph, 2012, 31(6): 203:1‑203:11.
参考文献 24
HuJ, GalloO, PulliK, et al. HDR deghosting: How to deal with saturation[C]//Proceedings of 2013 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Portland, OR, USA: IEEE, 2013.
参考文献 25
DebevecP E, MalikJ. Recovering high dynamic range radiance maps from photographs[C]//Proceedings of the Conference on Computer Graphics. New York, USA: ACM, 1998: 369‑378.
参考文献 26
HeoY S, LeeK M, LeeS U, et al. Ghost‑free high dynamic range imaging[C]//Proceedings of the 10th Asian conference on Computer Vision (ACCV2010). Seoul, Korea: [s.n.], 2010: 486‑500.
参考文献 27
OhT H, LeeJ Y, KweonI S. High dynamic range imaging by a rank‑1 constraint[C]//IEEE International Conference on Image Processing. Melbourne, Australia: IEEE, 2013: 790‑794.
参考文献 28
ZhengJ, LiZ, ZhuZ, et al. Hybrid patching for a sequence of differently exposed images with moving objects[J]. IEEE Trans Image Process, 2013, 22(12): 5190‑5201.
参考文献 29
ChulL, LiY L, MongaV. Ghost‑free high dynamic range imaging via rank minimization[J]. IEEE Signal Processing Letters, 2014, 21(9): 1045‑1049.
参考文献 30
ZengK, MaK D, HassenR, et al. Perceptual evaluation of multi‑exposure image fusion algorithms [C]//Proceedings of Six International Workshop on Quality of Multimedia Experience. [S.l.]: IEEE, 2014: 7‑12.
目录 contents

    摘要

    为解决传统多曝光图像融合的实时性和动态场景鬼影消除问题,提出了基于灰度级映射函数建模的多曝光高动态图像重建算法。对任意大小的低动态范围(Low dynamic range,LDR)图像序列,仅需拟合与灰阶数目相同个数而不是与相机分辨率个数相同的视觉适应的S形曲线,利用最佳成像值判别方法直接融合,提高了算法的融合效率,能够达到实时性图像融合要求。对动态场景的融合,设计灰度级映射关系恢复理想状态的多曝光图像,利用差分法检测运动目标区域,作鬼影消除处理,融合得到一幅能够反映真实场景信息且不受鬼影影响的高动态范围图像。

    Abstract

    To solve the real‑time problem of traditional multi‑exposure image fusion and ghost elimination in dynamic scenes, a multi‑exposure high dynamic range(HDR) image reconstruction algorithm based on gray scale mapping function modeling is proposed. For low dynamic range(LDR) image sequence of arbitrary size, only visual adaptation S‑shaped curves with the same the number of gray‑scale need to be fitted, rather than the camera resolution pixels. The HDR can be achieved by fusing the best imaging values directly, which can greatly improve the efficiency of the algorithm fusion and achieve real‑time requirements for dynamic scene. The ideal state of multi‑exposure image can be achieved by the design of the gray level mapping function. The ghost can be eliminated through moving target detection with difference method. Finally a HDR image reflecting the real scene information and unaffected by ghosts can be achieved.

  • 引 言

    普通数码设备或显示器的亮暗比值通常只有102∶1,而真实场景的亮暗比值为109∶1。正是由于真实场景和普通数码设备动态范围极其不匹配,使得实际拍摄的图像明亮处出现过曝,曝光处信息严重丢失,或者昏暗处曝光不足,细节信息无法辨认,从而无法获得一幅能够完整反映真实场景细节信息的图像,甚至成为在某些极端情况下无法辨析事发现场目标细节的重要因素。高动态范围(High dynamic range,HDR)图像较普通的数字图像能够更加准确记录真实场景绝大部分的色彩和光照信息,同时由于其较大的动态范围,能够表现出丰富的色彩细节和明暗层次。

    HDR图像虽然能够表现较大的动态范围,反映场景更多的细节信息,但其获取必须使用专用设备,价格昂贵。使用普通设备对同一场景采用不同的曝光时间多次拍摄,得到一系列能够反映真实场景各部分细节信息的图像。当曝光时间较长时,图像能够清楚地反映昏暗处的细节信息;曝光时间较短时,明亮处的细节信息能够得到很好的表现。通过获取序列中每幅图像最佳细节信息,将其融合在一起,得到一幅能够在普通设备上直接显示,并且能够完整反映真实场景细节信息的高动态范围图像。

    近年来,国内外学者针对多曝光图像融合展开了研究。Rovid[1]提出基于梯度评价函数的多曝光图像融合,根据评价函数设置融合权值。Wu[2]提出分块梯度评价融合方法,评价分割后图像子块的梯度信息,对曝光较好的子块进行融合。Goshtasby[3]提出分块信息熵融合方法,将图像均匀分割成多个子块,计算其信息熵,选择信息熵最大的子块进行加权融合。该方法由于同一图像块可能跨越亮度差异较大的不同物体而导致边界光晕现象。Raman[4]利用双边滤波技术保持图像边缘平滑,该方法计算速度快,但不能很好地保持图像的颜色信息。Zhao[5]通过子带结构能够保留图像更多的细节信息,但该方法通过增益图提高图像对比度,过分增强了细节信息,融合图像不太自然。Zhang[6]利用像素的梯度反映曝光质量,梯度大曝光效果好,则设置较大的融合权值,梯度小则像素处于曝光过度或不足区域,则设置较小权值。该方法能够保持较好的细节,但没有考虑原场景中的亮暗层次,可能会导致融合结果出现亮暗翻转现象。Mertens[7]提出多分辨率加权融合方法,对图像进行拉普拉斯金字[8]分解,消除融合图像的缝隙问[9‑11]。该方法多数情况下能够得到很好的融合结果,但对于动态范围非常大的真实场景,融合结果的高亮和低暗区域仍存在细节丢失现象。

    文献[12]有效地解决了静态场景和动态场景的图像融合,特别是静态场景中细节信息较弱的超暗区域的信号恢复,同时对相机的微小移动和含有运动目标的动态场景给出了较好的解决方案,但算法仍然存在以下两个有待优化的方面:

    (1) 处理效率。文献[12]针对多曝光图像序列每个像素位置拟合sigmoid曲线,通过曲线的拐点求该像素的最佳成像点,能够恢复出实际场景中亮暗区域的细节信息,最后通过金字塔算法对融合后的图像进行平滑处理,得到一幅清晰、逼真的且能反映真实场景的HDR图像。但对于具有千万级像素的图像序列,则需要拟合千万条曲线来获得最佳曝光点,虽然可通过并行计算的方法解决,仍存在计算效率低,空间复杂度高等缺点,很难达到实时应用的目的。

    (2) 判断运动目标点的局限性。文献[12]在检测运动目标时,给出了一个曝光量递增关系的假设,即图像像素亮度值随着曝光时间的增加而增大。然而在真实场景中,运动目标同样符合随曝光时间增加其亮度值也随之增加,于是,如图1所示,融合后仍存在鬼影现象。

    图1
                            含有运动区域的多曝光图像融合算法

    图1 含有运动区域的多曝光图像融合算法

    Fig.1 Multi‑exposure fusion algorithm for images containing motion region

    本文在文献[12]的基础上,对同一灰度值在不同曝光时间下其像素值的变化情况进行分析,提出了基于灰度级映射函数建模的多曝光HDR图像重建算法。该算法对同一曝光下相同灰度值的像素直接从低动态范围(Low dynamic range,LDR)图像中提取该像素位置的亮度序列,对于相同灰度的亮度序列采用最小二乘法仅拟合一条鲁棒性曲线,获得这些像素位置最佳成像信息,最后采用多分辨率融合方法得到一幅能够反映真实场景且适合在常规设备上显示的HDR图像。该算法在融合效果上接近于逐个像素融合算法,但对任意大小的LDR图像序列,最多需要拟合256条曲线(灰度范围),极大地提高了算法的融合效率,能够达到实时性图像融合要求。

    对于场景中存在运动目标,本文算法通过灰度比例关系推导出任意两幅曝光图像亮度值的变化与它们整幅图像平均亮度变化之间的比值恒定的原理,利用这一原理可以恢复出任意曝光时间的理想场景图像,然后作差分运算检测运动目标区域,该区域赋予场景中较好运动目标像素,其余区域通过直接融合方法合成,获得了对比度强且不含鬼影的融合图像。

  • 1 光度值关系模型

  • 1.1 光度值比例关系

    根据Mitsunaga[14]提出的光度值关系理论,图像中的每个像素点的亮度值与实际场景的辐射照度和曝光时间具有一定的相关性。在拍摄时,成像系统具有线性响应,并且不存在任何移动目标的静态场景,则图像的亮度值I与实际场景的辐射照度L满足

    I=Lcos4ϕh2E
    (1)

    式中:h为相机焦距;ϕ为光轴偏离主射线角度;E为曝光度。E可定义为

    E=πd24t
    (2)

    式中:d为相机镜头光圈的大小;t为图像曝光时间。

    根据式(1,2)推导可得

    I=Lcos4ϕh2πd24t
    (3)

    由于是对同一场景进行拍摄,其环境和光照等因素未发生变化。根据式(3)可得图像像素亮度值和曝光时间具有线性关系,即同一位置的场景辐射照度值L不随成像系统的曝光时间变化而变化,其大小与物体的材质和颜色等属性有关。

    因此,在没有噪声影响的情况下,成像系统所拍摄的图像在任意像素(x,y)处其亮度值I和曝光时间t具有线性关系,即

    Ikx,y=Cx,ytk
    (4)

    式中:tk为多曝光图像序列第k(k=1,2,,N)幅图像的曝光时间;Ik(x,y)为第k幅图像在像素(x,y)处的亮度值;C(x,y)为像素(x,y)处亮度值与曝光时间的比例系数。

    对于一幅图像两个不同像素(x,y),(x',y')和任意两幅不同曝光图像EkEk',令ΔIk',k(x,y)=Ik'(x,y)-Ik(x,y)Δtk,k'=tk'-tk,可得

    ΔIk',k(x,y)ΔIk',k(x',y')=Ik'(x,y)-Ik(x,y)Ik'(x',y')-Ik(x',y')=C(x,y)tk'-tkC(x',y')tk'-tk=C(x,y)C(x',y')
    (5)

    令曝光图像的高度为H,宽度为W,可得

    ΔIk',k(x,y)C(x,y)=x=1Hy=1WΔIk',k(x,y)x=1Hy=1WC(x,y)=ΔuIk',kuC
    (6)

    式中:ΔuIk',k=uIk'-uIkuIk为第k幅图像的平均亮度,uC为两幅图像所有像素比例系数的平均值,有

    ΔIk',k(x,y)ΔuIk',k=C(x,y)uC
    (7)

    这意味着,在(x,y)位置处,任意两幅曝光图像各像素亮度值的变化与它们整幅图像平均亮度的变化之间呈线性关[15],而且具有不变性,与kk'无关。

  • 1.2 图像平均亮度与曝光时间关系

    由式(4)可知,在任意位置(x,y)处曝光时间分别为tktk'的亮度值I可表示为

    Ik(x,y)=C(x,y)tkIk'(x,y)=C(x,y)tk'
    (8)

    (x,y)像素不同曝光时间的亮度差可表示为

    ΔIk',k(x,y)=Ik'(x,y)-Ik(x,y)=C(x,y)tk'-tk
    (9)

    Δtk,k'=tk'-tk,则

    Δtk,k'=ΔIk',k(x,y)C(x,y)=Ik'(x,y)-Ik(x,y)C(x,y)
    (10)

    由式(7)变换可得

    ΔIk',k(x,y)Cx,y=ΔuIk',kuC=uIk'-uIkuC
    (11)

    结合式(10, 11)可得

    ΔuIk',kΔtk,k'=uIk'-uIktk'-tk=uC
    (12)

    式中:ΔuIk',k为任意两幅图像的平均灰度变化量,uC为两幅图像所有像素比例系数的平均值,在相机除曝光时间变化,其他参数不变的情况下,uC为常量。这意味着,任意两幅曝光图像的平均亮度与它们曝光时间变化之间的比值是恒定的,与kk'无关,即图像亮度均值变化与其曝光时间的变化之间呈线性关系。

  • 2 灰度级映射关系

  • 2.1 同一灰度不同曝光像素值变化关系

    对于曝光图像Ek任意两个不同位置的像素(x,y)(x',y'),其亮度值分别为Ik(x,y)Ik(x',y'),由式(4)可知

    Ik(x,y)=Cx,ytkIk(x',y')=Cx',y'tk
    (13)

    根据式(10),对于任意两个不同位置的像素x,y, x',y'和任意两幅曝光图像EkEk',令ΔIk',k(x,y)=Ik'(x,y)-Ik(x,y)Δtk,k'=tk'-tk,可推导得到

    ΔIk',k(x,y)C(x,y)=Ik'(x,y)-Ik(x,y)C(x,y)=Δtk,k'ΔIk',k(x',y')C(x',y')=Ik'(x',y')-Ik(x',y')C(x',y')=Δtk,k'
    (14)

    由式(14)可得

    Ik'(x,y)-Ik(x,y)C(x,y)=Ik'(x',y')-Ik(x',y')C(x',y')
    (15)

    对同一曝光图像不同像素位置(x,y)(x',y')C(x,y)=C(x',y'),若Ik(x,y)=Ik(x',y'),在无噪声影响的情况下,可得到Ik'(x,y)=Ik'(x',y'),即经过相同曝光时间后,同一灰度的像素点的灰度值仍保持一致。

  • 2.2 基于最大熵的基准图像选择

    依据同一灰度的像素点在经过相同曝光时间后其灰度值仍保持一致的原理,从多曝光图像序列中选择一幅图像作为基准图像,以其每个灰度级0~255分别定位相应灰度级在基准图像中的像素位置,利用该位置信息获得其他多曝光图像对应位置的像素亮度值(由于在拍摄过程中可能受到光照或噪声影响,在其他曝光图像对应位置灰度值可能有所偏差,本文算法对其取均值),组成一个亮度序列,然后利用文献[12] sigmoid曲线拟合方法求该灰度级最佳曝光值,该值作为融合图像对应像素位置的最佳成像值。重复上述过程,求得每个灰度级在融合图像的最佳成像值获得融合图像。该算法对任意大小的图像,最多需拟合256条曲线即可获得融合图像,在算法效率上得到了很大提升,可达到实时应用的目的。因此,基准图像的选择成为该算法的关键。

    图像信息熵作为图像特征的一种统计形式,其大小反映了图像中信息量的多少,熵越大,表明图像包含的信息量越多。因此,本文算法以信息熵作为选择基准图像的标准。为了更准确地选择基准图像,在原多曝光图像序列中加入了它们的平均灰度图,作为基准图像选择之一,分别计算多曝光图像和其平均灰度图中的信息熵,以其信息熵最大的图像作为基准图像,克服了文献[16]人为参与选择基准图像的缺点。以图2多曝光图像序列为例,分别计算每幅图像及其平均灰度图的信息熵,计算结果如表1所示。

    图2
                            多曝光图像序列

    图2 多曝光图像序列

    Fig.2 Multiple exposure image sequence

    表1 图2对应多曝光图像的信息熵

    Tab.1 Entropy of the corresponding images of Fig.2

    图像第1幅图第2幅图第3幅图平均灰度图
    信息熵7.136 07.696 76.447 57.836 2

    以最大信息熵作为选择基准图像的标准,从表1可以看到,平均灰度图信息熵最大,则在融合时以平均灰度图为基准图像。图3分别给出了基准图像在像素灰度值为60,120,180和240的对应位置多曝光图像序列亮度值变化情况,可以清楚看到同一幅图像中灰度相同的像素点在不同曝光情况下其灰度值基本保持一致。在实际拍摄中,由于场景光线变化或噪声影响,导致同一灰度的像素点在经过不同曝光时间后其灰度值未能保持一致,本文算法通过对其变化后的像素值求平均值,较大程度上消除了光线变化和噪声的影响。

    图3
                            同一灰度不同曝光的像素值变化情况

    图3 同一灰度不同曝光的像素值变化情况

    Fig.3 Variety in pixel value of the same gray level under different exposure

    4给出了基准图像亮度值为180的像素位置,图4(b—d)分别用红色像素点标出了图2多曝光图像序列在基准图像图4(a)亮度值为180的像素位置。利用同一灰度的像素点在经过相同曝光时间后其灰度值仍保持一致的原理,获得对应位置的亮度序列(求均值),拟合S_sigmoid曲线,获得融合图像的最佳成像值。

    图4
                            基准图像亮度值为180的多曝光图像对应像素位置

    图4 基准图像亮度值为180的多曝光图像对应像素位置

    Fig.4 Corresponding pixel positions of multi‑exposure images when brightness value of benchmark image is 180

  • 2.3 灰度级融合算法流程图

    在理想状态下,基准图像应该能够完全反应实际场景的灰度级变化,相同灰度的像素在同一曝光情况下其灰度值保持一致性。然而,在实际处理中,多曝光序列中任何一幅图像都很难反应实际场景的灰度级变化范围,并且需要人为参与。本文算法将LDR图像序列及灰度均值图像中最大熵的图像作为基准图像。基准图像中等于某灰度级的像素集在经过同一曝光后其像素值并没有保持一致,这是由于场景光线或相机抖动等造成了图像灰度有微小变化。如图3所示,本文算法对基准图像中等于某灰度级的像素集经过曝光后的灰度值计算其均值。在此基础上,对求得的LDR亮度序列采用最小二乘法拟合鲁棒性曲线,以获得这些像素位置的最佳成像信息,最后采用多分辨率融合方法得到一幅能够反映真实场景且适合在常规设备上显示的HDR图像。该算法在融合效果上接近于逐个像素融合算法,但对任意大小的LDR图像序列,最多需要拟合256条曲线,极大地提高了算法的融合效率,能够达到实时性图像融合要求。流程图如图5所示。

    图5
                            灰度级融合算法流程图

    图5 灰度级融合算法流程图

    Fig.5 Flowchart of gray‑scale fusion algorithm

    步骤1 LDR图像序列配准和去噪(本文不作研究)。

    步骤2 计算LDR图像序列和其对应的灰度均值图像的信息熵,熵值最大的作为基准图像。

    多曝光图像序列的灰度均值图像计算公式为

    uI=1Nk=1NIk
    (16)

    式中:N代表LDR图像序列的数量;Ik为第k幅图像对应的灰度图像;uI表示LDR图像序列的灰度均值图像。

    步骤3 对于每个灰度级(0~255),在基准图像中查找其像素位置,计算不同曝光图像对应位置的灰度均值,以其灰度均值作为亮度序列,即

    [nx,ny]=find(gray==uI)gray=0,1,,255
    (17)
    pgrayk=1nx×nyx=1nxy=1nyIk(x,y)k=1,2,,N
    (18)

    式中:[x,y]为基准图像uI中灰度值等于灰度级gray的像素点集合;Ik(x,y)为第k幅多曝光图像在基准图像对应位置的像素点灰度值;pgrayk为第k幅图像对应位置像素均值。

    步骤4 根据亮度序列pgrayk采用最小二乘法拟合鲁棒性曲线。

    步骤5 重复步骤3,4,获得256条曲线,计算每条曲线最佳曝光成像点。

    步骤6 根据最佳曝光点获得Dirichlet权值矩阵。

    步骤7 进行多分辨率融合,最终获得HDR图像。

  • 3 运动区域检测和鬼影消除

    动态场景由于拍摄时存在运动目标,而这些运动目标出现在多曝光图像序列的不同区域,融合时其亮度值在对应位置分别具有一定的权值,从而导致融合结果中出现鬼影现象。去除鬼影需要检测运动目标区域和鬼影消除两步操作。

  • 3.1 灰度级映射的鬼影检测

    Srikantha[17]对现有融合图像检测和消除鬼影的方法进行了综述和分类,并指出每种方法都不可能完全适应所有动态场景,不存在最佳方法,需要根据用户的目的进行方法选择。本文算法利用式(7)结论,即任意两幅曝光图像亮度值的变化与它们整幅图像平均亮度变化之间的比值是恒定的,在多曝光图像序列中选择两幅场景近似一致的图像作为指导图像,计算出其他相应的多曝光图像理想值,利用差分法检测出运动目标。

    从多曝光图像序列中选择场景一致的EqEp两幅图像作为指导图像,根据式(7)可知

    Iq(x,y)-Ip(x,y)uIq-uIp=Ik'(x,y)-Iq(x,y)uIk-uIq
    (19)

    变形可得

    Ik'(x,y)=Iq(x,y)+Iq(x,y)-Ip(x,y)uIq-uIp(uIk-uIq)
    (20)

    式中:Iq(x,y)Ip(x,y)分别代表指导图像IqIp在像素(x,y)处的灰度值;uIquIpuIk分别代表IqIpIk的灰度均值;Ik'(x,y)为恢复出的第k幅的理想图像。

    运动目标区域检测,利用实际拍摄的多曝光图像和恢复出的理想图像作差分,得到运动区域,即

    G(x,y)=0Ik'(x,y)-Ik(x,y)TH1
    (21)

    式中:(x,y)表示像素位置;Ik(x,y)为实际拍摄的第k幅多曝光图像;Ik'(x,y)为恢复出的理想图像;G为检测出的鬼影区域;1代表鬼影像素;0代表非鬼影像素,文中TH=0.05

    得到的运动区域二值图像有很多的噪声、孤立点和孔洞,可以使用形态学图像处理方法的腐蚀操作来消除噪声和孤立点,然后使用膨胀运算将孔洞填充,即

    G'=GΘBmBn
    (22)

    式中:B为腐蚀和膨胀操作ones3×3结构元素;mn分别为腐蚀和膨胀操作次数;G表示检测的鬼影区域二值图像,G'表示经过形态学处理后的鬼影区域二值图像。

    综上,运动区域检测过程可描述为图6所示。

    图6
                            运动区域检测流程图

    图6 运动区域检测流程图

    Fig.6 Flowchart of motion area detection

    7为文献[17]中描述的各种鬼影区域检测结果,图8是本文采用灰度级映射方法检测的鬼影区域。从结果来看,图7中的方法或多或少的会对鬼影区域出现漏检现象,本文方法能够准确地检测出鬼影区域,为后续鬼影消除提供了很好的预操作。

    图7
                            对图1不同鬼影检测算法的检测结果

    图7 对图1不同鬼影检测算法的检测结果

    Fig.7 Ghost detection results for Fig. 1 with different detection algorithms

    图8
                            本文算法检测的鬼影区域

    图8 本文算法检测的鬼影区域

    Fig.8 Ghost regions detected by the proposed algorithm

  • 3.2 鬼影消除

    所有运动目标检测方法的目的,从根本上说是为了去除鬼影痕迹,目前去除重影方法分为两大类:一类是在重影去除中保留出现的单一运动目标,即仅保留某一固定位置的运动对象;另一类是将所有的运动目标完全去除。本文算法通过差分法检测出运动目标区域,分别采用保留单一运动目标和去除所有运动目标的方法实现了鬼影去除。保留单一运动目标是用户从多曝光图像序列中选择具有较好运动目标的区域进行保留,即对应图像鬼影区域像素的权重值(Dirichlet权值矩阵)1。

  • 4 实验结果及分析

    本文算法对静态场景、相机微小移动和含有运动目标的动态场景分别采用灰度级融合方法进行了测试,所有试验在Intel内核CPU 3.4 GB,内存8 GB,MATLAB2010的PC机上进行,测试图像来源于互联网上常见的LDR图像序列。静态场景和包含相机微小移动与目前流行的Mertens EF算法、S_sigmoid算法及本文算法进行比较,结果如图9和10所示;动态场景与2014年Chul Lee算法、2013年T‑H Oh算法和Hu算法、2012年Zhang算法以及其他经典算法进行了比较,结果如图11和12所示。

    图9
                            静态场景的多曝光图像融合效果

    图9 静态场景的多曝光图像融合效果

    Fig.9 Multiple exposure image fusion for static scene

  • 4.1 静态场景LDR图像序列融合

    目前针对静态场景融合效果良好的是Mertans EF算法。本文算法对如图9(a)所示的5幅不同曝光的LDR图像序列进行了融合,结果如图9(b)所示。从融合结果来看,本文算法融合细节更清楚,具有较强的对比度融合效果。Mertans EF算法具有较好的曝光量,形成的图像明亮度较好(如图9(b)Ⅰ所示),其缺点是会在高亮区域(教堂场景中顶部区域和左边壁画)部分细节丢失,且颜色和对比度较差;文献[12]基于sigmoid函数的单像素融合算法(S_sigmoid)相对于Mertans EF算法,由于直接提取了原LDR图像序列中像素亮度值信息,与原图像的成像风格保持一致,在高亮区保留更多的细节信息,获得更加自然的融合图像(如图9(b)Ⅱ所示),但该算法由于是单点像素序列进行曲线拟合,容易受到噪声点影响;本文方法克服了S_sigmoid算法的缺点,融合效果中细节更丰富,图像对比度强,视觉效果更加自然。为了更好地对比,图9(c)给出了细节比较结果。

  • 4.2 相机微小移动的LDR图像序列融合

    在相机进行实际拍摄时,即使使用三角架也会由于手颤抖或按快门引起相机的微小移动,使得最终的融合效果出现虚边、重影等现象。本文算法通过检测未配准区域,取其给定曝光较好的像素值,其余像素按照静态场景处理,获得清晰的图像。图10(a)为一组LDR图像序列,其在拍摄过程中相机出现了微小移动,致使图像没有完全配准。分别采用Mertans EF算法、S_sigmoid算法和本文算法进行融合,融合效果如图10(b)所示,细节放大如图10(c)所示。可见,图10(b)Ⅰ整幅图像模糊不清,出现了鬼影现象;而图10(b)Ⅱ和图10(b)Ⅲ具有相同的效果,图像清晰、逼真。图10 (c)对其局部融合效果进行放大,可清楚看到Mertans EF算法由于受到相机微小移动的影响出现虚边重影现象,本文算法和S_sigmoid算法并未受相机微小移动影响,融合效果依然清晰、逼真。

    图10
                            相机微小移动的灰度级多曝光图像融合

    图10 相机微小移动的灰度级多曝光图像融合

    Fig.10 Gray‑scale multi‑exposure fusion for images with tiny camera motion

  • 4.3 含有运动目标的LDR图像序列融合

    由于拍摄场景大多处于公共场所,必然会存在运动目标。本文算法对于含有运动目标的LDR图像序列,首先利用式(20),恢复其不同曝光场景,并采用差分方法计算其运动区域。对于运动区域,赋予LDR序列中曝光较好的像素值,其余区域采用静态场景的灰度级融合算法进行融合,融合效果如图11所示。图11(a)给出了5幅不同曝光的LDR图像序列,图11(b)利用式(20)恢复不同曝光场景,其中以图11(a)(Ⅰ,Ⅴ)为指导图像,利用差分法获得运动区域如图11(c),图11(d)为形态学处理后的运动区域,图11(e)为保留单一运动目标的融合效果,图11(f)为消除所有运动目标的融合效果。

    html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F011.jpg
    html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F012.jpg

    图11 动态场景的多曝光图像融合(运动目标)

    Fig.11 Multiple exposure image fusion for dynamic scenes (moving target)

    注:图11(e)为保留单一运动目标(图11(a)中第4幅图的运动目标)的融合效果,本文方法与Zhang等方法、Sen等方法和Hu等方法进行了比较。从图可明显看出,Zhang等方法保留的运动目标效果最差,运动目标部分区域没有完全保留;Sen等方法和Hu等方法较好地保留了运动目标,但其地面出现了块效应和颜色迁移问题;本文方法不但完整地保留了运动目标,而且其他部分也恢复了很好的细节信息。

    11(f)为消除所有运动目标的融合效果,将本文方法与Chul Lee算法、 Oh算法和Hu算法,Zhang算法,以及其他等9种融合算法进行了比较。可以清楚地看到,图11(f)(Ⅰ,Ⅶ,Ⅷ)没有完全消除运动目标,仍然存在鬼影现象;图11(f)(Ⅱ,Ⅳ,Ⅴ)消除了鬼影,但其地面颜色出现了偏色现象(泛绿)。从视觉效果来看图11(f)Ⅲ和图11(f)Ⅵ融合效果最好,完全消除了鬼影,并对场景细节恢复良好,但其融合结果并没有保留场景原有的亮度和颜色信息;图11(f)Ⅸ算法没有完全去除运动目标,图11(f)Ⅺ给出了细节放大图,并且其顶部亮度是多曝光图像中未出现的光线强度,不符合光照原理,引入了虚假信息,对后续的决策判断带来影响,本文方法不但完全消除了场景中运动目标,而且保留了场景原有的亮度和颜色信息,融合效果良好。

    12给出了LDR图像序列中每幅图像均含有运动目标的多曝光图像,从融合效果来看,图12(b)Ⅸ之前的算法不程度均含有少量鬼影现象,2014年Chul等提出的鬼影去除算法融合效果良好,视觉效果好,并很好地去除了鬼影,但融合图像中存在块效应,如图12(b)Ⅸ红色框中所示,图12(c)给出了其块效应细节放大图,草地信息恢复较差。本文算法同样去除了融合结果中的鬼影现象,不仅保留了单一场景的运动目标,而且保留了场景原有的亮度和颜色信息,场景细节恢复清晰。

    图12
                            含有运动目标的灰度级多曝光图像融合

    图12 含有运动目标的灰度级多曝光图像融合

    Fig.12 Grayscale multi‑exposure fusion for images with moving targets

  • 4.4 不符合像素值顺序的多曝光融合

    13(a)运动区域检测可以清楚地看到,红色框中的运动目标出现漏检或部分检测等现象,其原因是随着曝光时间的增大,这部分运动目标像素的亮度值也随之增大,因此基于像素值顺序的检测方法不适应此类图。本文算法根据任意两幅曝光图像亮度值的变化与它们整幅图像平均亮度变化之间的比值恒定的原理,对于图1多曝光序列,选择图1(a)(Ⅰ,Ⅶ)作为参考图像,保留图1(a)(Ⅴ)中的运动目标,然后恢复出其他曝光时间理想状态下的图像,利用差分法求出每幅图的运动像素,然后将这些运动像素组合成一幅二值图像,对其作形态运算,如图13(b)所示。融合时将运动区域像素利用图1(a)(Ⅴ)中对应像素替换,最后通过金字塔融合平滑得到融合图像,并将融合结果与Zhang等算法及S‑sigmoid算法结果作比较,如图14所示。

    图13
                            多曝光序列图1的运动目标检测

    图13 多曝光序列图1的运动目标检测

    Fig.13 Moving object detection for multiple exposure sequence in Fig. 1

    15以图15(a)(Ⅰ,Ⅴ)作为参考图像,保留图15(a)(Ⅲ)的运动目标,融合效果如图15(d)所示。从图14和15的融合效果来看,Zhang等和S_sigmoid方法均没有完全去除鬼影区域,而本文算法有效地去除了鬼影,并得到一幅能够完全反应真实场景细节的高动态范围图像。图16给出了两组实验效果,其中图16(a)(Ⅷ)为以图16(a)(Ⅰ,Ⅶ)为参考图像,保留图16(a)(Ⅲ)运动目标的融合效果,图16(b)(Ⅶ)为以图16(b)(Ⅴ,Ⅵ)为参考图像,保留16(b)(Ⅳ)运动目标的融合效果。

    html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F017.jpg
    html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F016.jpg

    图15 含有运动目标的多曝光图像融合效果对比

    Fig.15 Comparisons of fusion effect for multi‑exposure images containing moving targets

    图14
                            多曝光序列图1的融合效果

    图14 多曝光序列图1的融合效果

    Fig.14 Fusion result for multiple exposure sequence in Fig. 1

    图16
                            两组含有运动目标的多曝光图像融合效果

    图16 两组含有运动目标的多曝光图像融合效果

    Fig.16 Fusion results for two groups of multi‑exposure image contain moving target

  • 5 融合质量评价和计算效率分析

  • 5.1 融合质量评价

    图像对比度是影响视觉效果的关键因素之一,高对比度的图像往往呈现出清晰的细节和鲜明的颜色,反之,则图像画面模糊不[30]。本文算法主要针对静态场景和相机微小移动场景的融合后图像(图9(b),图10(b))对比度进行比较,同时给出了信息熵、平均梯度、标准差、交互信息量和相关系数等客观评价因子的评价结果,如表2所示。

    表2 图像质量客观评价分析

    Tab.2 Objective assessment analysis of image quality

    评价指标信息熵平均梯度对比度标准差交互信息量相关系数
    Mertans EF算法7.653 115.781266.1952.363133.710941.69
    7.711 111.002142.0457.81686.189878.55
    S_sigmoid算法7.385 416.427334.8045.265134.300886.13
    7.785 010.539142.1962.79088.332998.68
    本文算法7.422 216.042300.6746.470133.080917.18
    7.789 110.786146.8962.66888.3251 000.90

    从表2可以看出本文算法具有一定的优越性,无论是静态场景还是相机微小运动的动态场景,融合效果接近于S_sigmoid算法,对比度均大于Mertans EF算法,符合人类视觉特性。

  • 5.2 计算效率对比分析

    在图像配准和噪声去除的前提下,表3给出了传统HDR算法(包括HDR图像重建和色调映射)、Mertans EF算法和本文算法的计算时间。由于本文算法直接从LDR图像序列中按灰度级提取有效信息参与融合,对任意大小的图像序列仅拟合256条曲线,计算结果表明本文算法具有一定的优势,并适合并行计算。

    表3 算法计算时间对比分析

    Tab.3 Comparison of computational time for algorithmss

    对比算法HDR重建色调映射Mertans EF文献[12]算法本文算法
    1 024×683×531.07526.0042.0181.9050.676
    1 024×683×11101.6863.7553.9283.1720.653
    1 024×683×2396.5324.4607.6866.7090.887
    3 504×2 336×6322.017324.52111.9609.2961.289
  • 6 结束语

    考虑到基于sigmoid函数的多曝光图像融合算法要对每个像素序列拟合曲线,很难达到实时融合效果,本文根据同一灰度的像素点在经过不同曝光时间后其灰度值仍保持一致的原理,提出了基于灰度级映射函数建模的多曝光高动态图像重建算法。该算法对同一灰度级的像素点仅拟合一条曲线,对于千万级像素的图像序列仅需拟合与灰阶数目相同个数而不是与相机分辨率像素个数相同的视觉适应的S形曲线,达到实时融合的要求;对动态场景的融合,利用灰度值比例关系恢复理想状态的多曝光图像,利用差分法检测运动目标区域,作鬼影消除处理,融合得到一幅能够反映真实场景信息且不受鬼影影响的高动态范围图像。

  • 参考文献

    • 1

      Rovid A, Hashimoto T, Valaki P. Improved high dynamic range image reproduction method[C]//Proceedings of the 4th Symposium on Applied Computational Intelligence and Informatics. Washington: IEEE Computer Society, 2007: 203‑206.

    • 2

      Wu X J, Song Z, Yu G. A novel multiple exposure merging method for high dynamic range image generation [C]// International Conference on Signal Processing Systems. [S.l.]: IEEE, 2010: 74‑77.

    • 3

      Goshtasby A A. Fusion of multi‑exposure images[J]. Image and Vision Computing, 2005, 23(6): 611‑618.

    • 4

      Raman S, Chaudhuri S. Bilateral filter based compositing for variable exposure photography[C]//Proceedings of Euro graphics. Munich,Germany:

      [s.n.],2009: 369‑378.

    • 5

      Zhao Y, Shen J, He Y. Sub‑band architecture based exposure fusion[C]//2010 Fourth Pacific‑Rim Symposium on Image and Video Technology (PSIVT). [S.l.]:IEEE, 2010: 501‑506.

    • 6

      Zhang W, Cham W K. Gradient‑directed multiexposure composition[J]. IEEE Trans Image Process, 2012, 21(4): 2318‑2323.

    • 7

      Mertens T, Kautz J, Van Reeth F. Exposure fusion[C]//Proceedings of the Pacific conference on Computer Graphics and Applications. Maui,Hawaii,USA: IEEE, 2007: 382‑390.

    • 8

      Mertens T, Kautz J, Van Reeth F. Exposure fusion: A simple and practical alternative to high dynamic range photography[J]. Computer Graphics Forum, 2009, 28(1): 161‑171.

    • 9

      Ledda P, Chalmers A, Troscianko T, et al. Evaluation of tone mapping operators using a high dynamic range display [J]. ACM Transactions on Graphics, 2005, 24(3): 640‑648.

    • 10

      Eilertsen G, Wanat R, Mantiuk R K, et al. Evaluation of tone mapping operators for HDR‑video[J].Computer Graphics Forum, 2013, 32(7): 275‑284.

    • 11

      Aydin T O, Mantiuk R, Myszkowski K, et al. Dynamic range independent image quality assessment[J].ACM Transactions on Graphics (TOG), 2008, 27(3): 69.

    • 12

      付争方,朱虹,薛杉,等.基于sigmoid函数拟合的多曝光直接融合算法[J].仪器仪表学报,2015, 36 (10): 2321‑2329.

      Fu Zhengfang, Zhu Hong,Xue Shan, et al. Direct fusion algorithm for multi‑exposed images based on sigmoid function fitting[J]. Chinese Journal of Scientific Instrument,2015,36(10): 2321‑2329.

    • 13

      Sidibe D, Puech W, Strauss O. Ghost detection and removal in high dynamic range images[C]//Proceedings of the 17th European Signal Processing Conference. [S.l.]: IEEE,2009: 2240‑2244.

    • 14

      Mitsunaga T, Nayar S K. Radiometric self‑calibration[C]//1999 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Miami, USA: IEEE, 1999(1): 374‑380.

    • 15

      Wang C M . An exposure fusion approach without ghost for dynamic scenes[C]//Proceedings of the 6th International Congress on Image and Signal Processing (CISP 2013). [S.l.]: IEEE, 2013: 904‑909.

    • 16

      张军,戴霞,孙德全,等.不同曝光值图像的直接融合方法[J].软件学报,2011,22(4): 813‑825.

      Zhang Jun, Dai Xia, Sun Dequan,et al. Directly fusion method for combining variable exposure value images[J].Journal of Software,2011,22(4): 813‑825.

    • 17

      Srikantha A, Sidibé D. Ghost detection and removal for high dynamic range images: Recent advances [J]. Signal Processing: Image Communication, 2012, 27(6): 650‑662.

    • 18

      Reinhard E, Ward G, Pattanaik S, et al. High dynamic range imaging: Acquisition, display and image‑based lighting [M]. 2nd ed. San Francisco, US: Morgan Kaufmann, 2010.

    • 19

      Jacobs K, Loscos C, Ward G. Automatic high dynamic range image generation for dynamic scenes [J]. IEEE Computer Graphics and Applications, 2008, 28: 84‑93.

    • 20

      Pece F, Kautz J. Bitmap movement detection: HDR for dynamic scenes[C]//Proceedings of Conference on Visual Media Production (CVMP). [S.l.]: IEEE, 2010: 1‑8.

    • 21

      Min T H, Park R H, Chang S K. Histogram based ghost removal in high dynamic range images[C]//Proceedings of the International Conference on Multimedia and Expo‑ICME. New York, USA:

      [s.n.],2009: 530‑533.

    • 22

      Gallo O, Gelfand N, Chen W C, et al. Artifact‑free high dynamic range image[C]//Proceedings of the IEEE International Conference on Computational Photography (ICCP). San Francisco: IEEE,2009: 1‑7.

    • 23

      Sen P, Kalantari N K, Yaesoubi M, et al. Robust patch‑based hdr reconstruction of dynamic scenes[J]. ACM Trans Graph, 2012, 31(6): 203:1‑203:11.

    • 24

      Hu J, Gallo O, Pulli K, et al. HDR deghosting: How to deal with saturation[C]//Proceedings of 2013 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Portland, OR, USA: IEEE, 2013.

    • 25

      Debevec P E, Malik J. Recovering high dynamic range radiance maps from photographs[C]//Proceedings of the Conference on Computer Graphics. New York, USA: ACM, 1998: 369‑378.

    • 26

      Heo Y S, Lee K M, Lee S U, et al. Ghost‑free high dynamic range imaging[C]//Proceedings of the 10th Asian conference on Computer Vision (ACCV2010). Seoul, Korea:

      [s.n.], 2010: 486‑500.

    • 27

      Oh T H, Lee J Y, Kweon I S. High dynamic range imaging by a rank‑1 constraint[C]//IEEE International Conference on Image Processing. Melbourne, Australia: IEEE, 2013: 790‑794.

    • 28

      Zheng J, Li Z, Zhu Z, et al. Hybrid patching for a sequence of differently exposed images with moving objects[J]. IEEE Trans Image Process, 2013, 22(12): 5190‑5201.

    • 29

      Chul L, Li Y L, Monga V. Ghost‑free high dynamic range imaging via rank minimization[J]. IEEE Signal Processing Letters, 2014, 21(9): 1045‑1049.

    • 30

      Zeng K, Ma K D, Hassen R, et al. Perceptual evaluation of multi‑exposure image fusion algorithms [C]//Proceedings of Six International Workshop on Quality of Multimedia Experience. [S.l.]: IEEE, 2014: 7‑12.

付争方

机 构:安康学院电子与信息工程学院,安康,725000

Affiliation:College of Electronics and Information Engineering, Ankang University, Ankang, 725000, China

作者简介:付争方(1978‑),男,教授,博士,研究方向:模式识别与人工智能、图像处理与信息融合等,E‑mail:fzf9797@163.com。
朱虹

机 构:西安理工大学自动化与信息工程学院,西安,710048

Affiliation:School of Automation and Information Engineering, Xi’an University of Technology, Xi’an, 710048, China

作者简介:朱虹(1963‑),女,教授,博士生导师,研究方向:数字图像处理、智能视频监控、模式识别等,E‑mail:zhuhong@xaut.edu.cn。
余顺园

机 构:安康学院电子与信息工程学院,安康,725000

Affiliation:College of Electronics and Information Engineering, Ankang University, Ankang, 725000, China

作者简介:余顺园(1983‑),女,博士,研究方向:模式识别与图像处理等,E‑mail:ysywzhm@163.com。
薛杉

机 构:西安理工大学自动化与信息工程学院,西安,710048

Affiliation:School of Automation and Information Engineering, Xi’an University of Technology, Xi’an, 710048, China

作者简介:薛杉(1988‑),男,博士研究生,研究方向:模式识别与图像处理,E‑mail:xueshanmath@163.com。
王静

角 色:中文编辑

Role:Editor

html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F001.jpg
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F002.jpg

表1 图2对应多曝光图像的信息熵

Tab.1 Entropy of the corresponding images of Fig.2

图像第1幅图第2幅图第3幅图平均灰度图
信息熵7.136 07.696 76.447 57.836 2
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F003.jpg
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F004.jpg
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F005.jpg
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F006.jpg
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F007.jpg
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F008.jpg
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F009.jpg
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F011.jpg
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F012.jpg
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F010.jpg
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F013.jpg
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F014.jpg
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F017.jpg
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F016.jpg
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F015.jpg
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F018.jpg
评价指标信息熵平均梯度对比度标准差交互信息量相关系数
Mertans EF算法7.653 115.781266.1952.363133.710941.69
7.711 111.002142.0457.81686.189878.55
S_sigmoid算法7.385 416.427334.8045.265134.300886.13
7.785 010.539142.1962.79088.332998.68
本文算法7.422 216.042300.6746.470133.080917.18
7.789 110.786146.8962.66888.3251 000.90
对比算法HDR重建色调映射Mertans EF文献[12]算法本文算法
1 024×683×531.07526.0042.0181.9050.676
1 024×683×11101.6863.7553.9283.1720.653
1 024×683×2396.5324.4607.6866.7090.887
3 504×2 336×6322.017324.52111.9609.2961.289
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F021.jpg
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F020.jpg
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F019.jpg
html/sjcjycl/201903011/alternativeImage/a1990b1a-33dc-4575-9e47-b1f5e1e8b0dd-F022.jpg

图1 含有运动区域的多曝光图像融合算法

Fig.1 Multi‑exposure fusion algorithm for images containing motion region

图2 多曝光图像序列

Fig.2 Multiple exposure image sequence

图3 同一灰度不同曝光的像素值变化情况

Fig.3 Variety in pixel value of the same gray level under different exposure

图4 基准图像亮度值为180的多曝光图像对应像素位置

Fig.4 Corresponding pixel positions of multi‑exposure images when brightness value of benchmark image is 180

图5 灰度级融合算法流程图

Fig.5 Flowchart of gray‑scale fusion algorithm

图6 运动区域检测流程图

Fig.6 Flowchart of motion area detection

图7 对图1不同鬼影检测算法的检测结果

Fig.7 Ghost detection results for Fig. 1 with different detection algorithms

图8 本文算法检测的鬼影区域

Fig.8 Ghost regions detected by the proposed algorithm

图9 静态场景的多曝光图像融合效果

Fig.9 Multiple exposure image fusion for static scene

图11 动态场景的多曝光图像融合(运动目标)

Fig.11 Multiple exposure image fusion for dynamic scenes (moving target)

图11 动态场景的多曝光图像融合(运动目标)

Fig.11 Multiple exposure image fusion for dynamic scenes (moving target)

图10 相机微小移动的灰度级多曝光图像融合

Fig.10 Gray‑scale multi‑exposure fusion for images with tiny camera motion

图12 含有运动目标的灰度级多曝光图像融合

Fig.12 Grayscale multi‑exposure fusion for images with moving targets

图13 多曝光序列图1的运动目标检测

Fig.13 Moving object detection for multiple exposure sequence in Fig. 1

图15 含有运动目标的多曝光图像融合效果对比

Fig.15 Comparisons of fusion effect for multi‑exposure images containing moving targets

图15 含有运动目标的多曝光图像融合效果对比

Fig.15 Comparisons of fusion effect for multi‑exposure images containing moving targets

图14 多曝光序列图1的融合效果

Fig.14 Fusion result for multiple exposure sequence in Fig. 1

图16 两组含有运动目标的多曝光图像融合效果

Fig.16 Fusion results for two groups of multi‑exposure image contain moving target

表2 图像质量客观评价分析

Tab.2 Objective assessment analysis of image quality

表3 算法计算时间对比分析

Tab.3 Comparison of computational time for algorithmss

image /

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

  • 参考文献

    • 1

      Rovid A, Hashimoto T, Valaki P. Improved high dynamic range image reproduction method[C]//Proceedings of the 4th Symposium on Applied Computational Intelligence and Informatics. Washington: IEEE Computer Society, 2007: 203‑206.

    • 2

      Wu X J, Song Z, Yu G. A novel multiple exposure merging method for high dynamic range image generation [C]// International Conference on Signal Processing Systems. [S.l.]: IEEE, 2010: 74‑77.

    • 3

      Goshtasby A A. Fusion of multi‑exposure images[J]. Image and Vision Computing, 2005, 23(6): 611‑618.

    • 4

      Raman S, Chaudhuri S. Bilateral filter based compositing for variable exposure photography[C]//Proceedings of Euro graphics. Munich,Germany:

      [s.n.],2009: 369‑378.

    • 5

      Zhao Y, Shen J, He Y. Sub‑band architecture based exposure fusion[C]//2010 Fourth Pacific‑Rim Symposium on Image and Video Technology (PSIVT). [S.l.]:IEEE, 2010: 501‑506.

    • 6

      Zhang W, Cham W K. Gradient‑directed multiexposure composition[J]. IEEE Trans Image Process, 2012, 21(4): 2318‑2323.

    • 7

      Mertens T, Kautz J, Van Reeth F. Exposure fusion[C]//Proceedings of the Pacific conference on Computer Graphics and Applications. Maui,Hawaii,USA: IEEE, 2007: 382‑390.

    • 8

      Mertens T, Kautz J, Van Reeth F. Exposure fusion: A simple and practical alternative to high dynamic range photography[J]. Computer Graphics Forum, 2009, 28(1): 161‑171.

    • 9

      Ledda P, Chalmers A, Troscianko T, et al. Evaluation of tone mapping operators using a high dynamic range display [J]. ACM Transactions on Graphics, 2005, 24(3): 640‑648.

    • 10

      Eilertsen G, Wanat R, Mantiuk R K, et al. Evaluation of tone mapping operators for HDR‑video[J].Computer Graphics Forum, 2013, 32(7): 275‑284.

    • 11

      Aydin T O, Mantiuk R, Myszkowski K, et al. Dynamic range independent image quality assessment[J].ACM Transactions on Graphics (TOG), 2008, 27(3): 69.

    • 12

      付争方,朱虹,薛杉,等.基于sigmoid函数拟合的多曝光直接融合算法[J].仪器仪表学报,2015, 36 (10): 2321‑2329.

      Fu Zhengfang, Zhu Hong,Xue Shan, et al. Direct fusion algorithm for multi‑exposed images based on sigmoid function fitting[J]. Chinese Journal of Scientific Instrument,2015,36(10): 2321‑2329.

    • 13

      Sidibe D, Puech W, Strauss O. Ghost detection and removal in high dynamic range images[C]//Proceedings of the 17th European Signal Processing Conference. [S.l.]: IEEE,2009: 2240‑2244.

    • 14

      Mitsunaga T, Nayar S K. Radiometric self‑calibration[C]//1999 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Miami, USA: IEEE, 1999(1): 374‑380.

    • 15

      Wang C M . An exposure fusion approach without ghost for dynamic scenes[C]//Proceedings of the 6th International Congress on Image and Signal Processing (CISP 2013). [S.l.]: IEEE, 2013: 904‑909.

    • 16

      张军,戴霞,孙德全,等.不同曝光值图像的直接融合方法[J].软件学报,2011,22(4): 813‑825.

      Zhang Jun, Dai Xia, Sun Dequan,et al. Directly fusion method for combining variable exposure value images[J].Journal of Software,2011,22(4): 813‑825.

    • 17

      Srikantha A, Sidibé D. Ghost detection and removal for high dynamic range images: Recent advances [J]. Signal Processing: Image Communication, 2012, 27(6): 650‑662.

    • 18

      Reinhard E, Ward G, Pattanaik S, et al. High dynamic range imaging: Acquisition, display and image‑based lighting [M]. 2nd ed. San Francisco, US: Morgan Kaufmann, 2010.

    • 19

      Jacobs K, Loscos C, Ward G. Automatic high dynamic range image generation for dynamic scenes [J]. IEEE Computer Graphics and Applications, 2008, 28: 84‑93.

    • 20

      Pece F, Kautz J. Bitmap movement detection: HDR for dynamic scenes[C]//Proceedings of Conference on Visual Media Production (CVMP). [S.l.]: IEEE, 2010: 1‑8.

    • 21

      Min T H, Park R H, Chang S K. Histogram based ghost removal in high dynamic range images[C]//Proceedings of the International Conference on Multimedia and Expo‑ICME. New York, USA:

      [s.n.],2009: 530‑533.

    • 22

      Gallo O, Gelfand N, Chen W C, et al. Artifact‑free high dynamic range image[C]//Proceedings of the IEEE International Conference on Computational Photography (ICCP). San Francisco: IEEE,2009: 1‑7.

    • 23

      Sen P, Kalantari N K, Yaesoubi M, et al. Robust patch‑based hdr reconstruction of dynamic scenes[J]. ACM Trans Graph, 2012, 31(6): 203:1‑203:11.

    • 24

      Hu J, Gallo O, Pulli K, et al. HDR deghosting: How to deal with saturation[C]//Proceedings of 2013 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Portland, OR, USA: IEEE, 2013.

    • 25

      Debevec P E, Malik J. Recovering high dynamic range radiance maps from photographs[C]//Proceedings of the Conference on Computer Graphics. New York, USA: ACM, 1998: 369‑378.

    • 26

      Heo Y S, Lee K M, Lee S U, et al. Ghost‑free high dynamic range imaging[C]//Proceedings of the 10th Asian conference on Computer Vision (ACCV2010). Seoul, Korea:

      [s.n.], 2010: 486‑500.

    • 27

      Oh T H, Lee J Y, Kweon I S. High dynamic range imaging by a rank‑1 constraint[C]//IEEE International Conference on Image Processing. Melbourne, Australia: IEEE, 2013: 790‑794.

    • 28

      Zheng J, Li Z, Zhu Z, et al. Hybrid patching for a sequence of differently exposed images with moving objects[J]. IEEE Trans Image Process, 2013, 22(12): 5190‑5201.

    • 29

      Chul L, Li Y L, Monga V. Ghost‑free high dynamic range imaging via rank minimization[J]. IEEE Signal Processing Letters, 2014, 21(9): 1045‑1049.

    • 30

      Zeng K, Ma K D, Hassen R, et al. Perceptual evaluation of multi‑exposure image fusion algorithms [C]//Proceedings of Six International Workshop on Quality of Multimedia Experience. [S.l.]: IEEE, 2014: 7‑12.