热门行业分类
当前位置: 首页 > 专利商城 > 一种基于特征图的立体图像质量客观评价方法
专利ID: 1868 收藏

一种基于特征图的立体图像质量客观评价方法 出售状态:未出售

提示:购买之前,请仔细核对自己的需求或询问客服!
专利号 2013100222375 专利类型 发明专利
专利分类 软件开发 专利状态 已下证
出售价格 ¥ 咨询客服 浏览 0

服务承诺: 极速办理   安全有保障   办理不成功全额退款

手机查看购买

同类专利推荐

专利详细内容

专利名: 一种基于特征图的立体图像质量客观评价方法 出售状态: 未出售
专利号: 2013100222375 专利类型: 发明专利 专利分类: 软件开发
专利权人: 联系人 出售价格: 面议
详细介绍:


技术领域

本发明涉及一种图像质量评价方法,尤其是涉及一种基于特征图的立体图像质量客观评价方法。


背景技术

随着图像编码技术和立体显示技术的迅速发展,立体图像技术受到了越来越广泛的关注与应用,已成为当前的一个研究热点。立体图像技术利用人眼的双目视差原理,双目各自独立地接收来自同一场景的左右视点图像,通过大脑融合形成双目视差,从而欣赏到具有深度感和逼真感的立体图像。由于受到采集系统、存储压缩及传输设备的影响,立体图像会不可避免地引入一系列的失真,而与单通道图像相比,立体图像需要同时保证两个通道的图像质量,因此对其进行质量评价具有非常重要的意义。然而,目前对立体图像质量缺乏有效的客观评价方法进行评价。因此,建立有效的立体图像质量客观评价模型具有十分重要的意义。

目前的立体图像质量客观评价方法是将平面图像质量评价方法直接应用于评价立体图像质量,或通过评价视差图的质量来评价立体图像的深度感知,然而,对立体图像进行融合产生立体感的过程并不是简单的平面图像质量评价方法的扩展,并且人眼并不直接观看视差图,以视差图的质量来评价立体图像的深度感知并不十分准确。因此,如何在立体图像质量评价过程中有效地对双目立体感知过程进行模拟,如何将立体图像特征信息融合到立体图像质量评价过程中,使得评价结果能够更加客观地反映人类视觉系统,都是在对立体图像进行客观质量评价过程中需要研究解决的问题。


发明内容

本发明所要解决的技术问题是提供一种能够有效地提高客观评价结果与主观感知的相关性的基于特征图的立体图像质量客观评价方法。

本发明解决上述技术问题所采用的技术方案为:一种基于特征图的立体图像质量客观评价方法,其特征在于它的处理过程为:首先,根据原始的无失真的立体图像的左视点图像中的每个像素点和右视点图像中对应坐标位置的像素点在多个视差值下的视差空间值,获取原始的无失真的立体图像的视差空间图,并根据待评价的失真的立体图像的左视点图像中的每个像素点和右视点图像中对应坐标位置的像素点在多个视差值下的视差空间值,获取待评价的失真的立体图像的视差空间图;其次,根据待评价的失真的立体图像的左视点图像的双目最小可察觉变化图像,及原始的无失真的立体图像的左视点图像与右视点图像之间的视差图像的视差梯度图像,分别计算原始的无失真的立体图像的视差空间图与待评价的失真的立体图像的视差空间图之间的第一结构相似度和第二结构相似度,获得待评价的失真的立体图像的图像质量客观评价预测值;最后,按照上述处理过程获取多幅不同失真类型不同失真程度的失真的立体图像的图像质量客观评价预测值。

上述的一种基于特征图的立体图像质量客观评价方法,其具体包括以下步骤:

①令Sorg为原始的无失真的立体图像,令Sdis为待评价的失真的立体图像,将Sorg的左视点图像记为{Lorg(x,y)},将Sorg的右视点图像记为{Rorg(x,y)},将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)},其中,(x,y)表示左视点图像和右视点图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示左视点图像和右视点图像的宽度,H表示左视点图像和右视点图像的高度,Lorg(x,y)表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg(x,y)表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值;

②根据{Lorg(x,y)}中的每个像素点和{Rorg(x,y)}中对应坐标位置的像素点在多个视差值下的视差空间值,获取Sorg的视差空间图,记为{DSIorg(x,y,d)},并根据{Ldis(x,y)}中的每个像素点和{Rdis(x,y)}中对应坐标位置的像素点在多个视差值下的视差空间值,获取Sdis的视差空间图,记为{DSIdis(x,y,d)},其中,DSIorg(x,y,d)表示{DSIorg(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,DSIdis(x,y,d)表示{DSIdis(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,0≤d≤dmax,dmax表示最大视差值;

③利用人类立体视觉感知对背景光照和对比度的视觉掩蔽效应,提取出{Ldis(x,y)}的双目最小可察觉变化图像,记为其中,表示中坐标位置为(x,y)的像素点的双目最小可察觉变化值;

④采用块匹配法计算{Lorg(x,y)}与{Rorg(x,y)}之间的视差图像,记为然后计算的视差梯度图像,记为中坐标位置为(x,y)的像素点的梯度值记为GorgL(x,y)=|GoxL(x,y)|+|GoyL(x,y)|,其中,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的水平梯度值,表示中坐标位置为(x,y)的像素点的垂直梯度值,“||”为求绝对值符号;

⑤根据{Ldis(x,y)}的双目最小可察觉变化图像的视差梯度图像计算Sorg的视差空间图{DSIorg(x,y,d)}和Sdis的视差空间图{DSIdis(x,y,d)}之间的结构相似度,得到Sdis的图像质量客观评价预测值,记为Q;

⑥采用n幅原始的无失真的立体图像,建立其在不同失真类型不同失真程度下的失真立体图像集合,该失真立体图像集合包括多幅失真的立体图像,利用主观质量评价方法分别获取失真立体图像集合中每幅失真的立体图像的平均主观评分差值,记为DMOS,DMOS=100-MOS,其中,MOS表示主观评分均值,DMOS∈[0,100],n≥1;

⑦按照步骤①至步骤⑤计算Sdis的图像质量客观评价预测值Q的操作,以相同的方式分别计算失真立体图像集合中每幅失真的立体图像的图像质量客观评价预测值。

所述的步骤②中Sorg的视差空间图{DSIorg(x,y,d)}的获取过程为:

②-a1、将{Lorg(x,y)}中当前正在处理的像素点定义为当前第一像素点,将{Rorg(x,y)}中当前正在处理的像素点定义为当前第二像素点;

②-a2、假设当前第一像素点为{Lorg(x,y)}中坐标位置为(x1,y1)的像素点,并假设当前第二像素点为{Rorg(x,y)}中坐标位置为(x1,y1)的像素点,取视差值d0=0,然后计算当前第一像素点和当前第二像素点在该视差值d0下的视差空间值,记为DSIorg(x1,y1,d0),DSIorg(x1,y1,d0)=|Lorg(x1,y1)-Rorg(x1-d0,y1)|,其中,1≤x1≤W,1≤y1≤H,0≤d0≤dmax,dmax表示最大视差值,Lorg(x1,y1)表示{Lorg(x,y)}中坐标位置为(x1,y1)的像素点的像素值,Rorg(x1-d0,y1)表示{Rorg(x,y)}中坐标位置为(x1-d0,y1)的像素点的像素值,“||”为取绝对值符号;

②-a3、选取dmax个与d0各不相同的视差值,分别记为然后分别计算当前第一像素点和当前第二像素点在该dmax个各不相同的视差值下的视差空间值,对应的分别记为DSIorg(x1,y1,d1),DSIorg(x1,y1,d2),...,DSIorg(x1,y1,di),...,DSIorg(x1,y1,ddmax),DSIorg(x1,y1,d1)=|Lorg(x1,y1)-Rorg(x1-d1,y1)|,DSIorg(x1,y1,d2)=|Lorg(x1,y1)-Rorg(x1-d2,y1)|,DSIorg(x1,y1,di)=|Lorg(x1,y1)-Rorg(x1-di,y1)|,DSIorg(x1,y1,ddmax)=|Lorg(x1,y1)-Rorg(x1-ddmax,y1)|,其中,1≤i≤dmax,di=d0+i,DSIorg(x1,y1,d1)表示当前第一像素点和当前第二像素点在视差值d1下的视差空间值,DSIorg(x1,y1,d2)表示当前第一像素点和当前第二像素点在视差值d2下的视差空间值,DSIorg(x1,y1,di)表示当前第一像素点和当前第二像素点在视差值di下的视差空间值,表示当前第一像素点和当前第二像素点在视差值下的视差空间值,Rorg(x1-d1,y1)表示{Rorg(x,y)}中坐标位置为(x1-d1,y1)的像素点的像素值,Rorg(x1-d2,y1)表示{Rorg(x,y)}中坐标位置为(x1-d2,y1)的像素点的像素值,Rorg(x1-di,y1)表示{Rorg(x,y)}中坐标位置为(x1-di,y1)的像素点的像素值,表示{Rorg(x,y)}中坐标位置为的像素点的像素值;

②-a4、将{Lorg(x,y)}中下一个待处理的像素点作为当前第一像素点,将{Rorg(x,y)}中下一个待处理的像素点作为当前第二像素点,然后返回步骤②-a2继续执行,直至{Lorg(x,y)}和{Rorg(x,y)}中的所有像素点处理完毕,获得Sorg的视差空间图,记为{DSIorg(x,y,d)},其中,DSIorg(x,y,d)表示{DSIorg(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,d0≤d≤ddmax.

所述的步骤②中Sdis的视差空间图{DSIdis(x,y,d)}的获取过程为:

②-b1、将{Ldis(x,y)}中当前正在处理的像素点定义为当前第一像素点,将{Rdis(x,y)}中当前正在处理的像素点定义为当前第二像素点;

②-b2、假设当前第一像素点为{Ldis(x,y)}中坐标位置为(x1,y1)的像素点,并假设当前第二像素点为{Rdis(x,y)}中坐标位置为(x1,y1)的像素点,取视差值d0=0,然后计算当前第一像素点和当前第二像素点在该视差值d0下的视差空间值,记为DSIdis(x1,y1,d0),DSIdis(x1,y1,d0)=|Ldis(x1,y1)-Rdis(x1-d0,y1)|,其中,1≤x1≤W,1≤y1≤H,0≤d0≤dmax,dmax表示最大视差值,Ldis(x1,y1)表示{Ldis(x,y)}中坐标位置为(x1,y1)的像素点的像素值,Rdis(x1-d0,y1)表示{Rdis(x,y)}中坐标位置为(x1-d0,y1)的像素点的像素值,“||”为取绝对值符号;

②-b3、选取dmax个与d0各不相同的视差值,分别记为然后分别计算当前第一像素点和当前第二像素点在该dmax个各不相同的视差值下的视差空间值,对应的分别记为DSIdis(x1,y1,d1),DSIdis(x1,y1,d2),...,DSIdis(x1,y1,di),...,DSIdis(x1,y1,ddmax),DSIdis(x1,y1,d1)=|Ldis(x1,y1)-Rdis(x1-d1,y1)|,DSIdis(x1,y1,d2)=|Ldis(x1,y1)-Rdis(x1-d2,y1)|,DSIdis(x1,y1,di)=|Ldis(x1,y1)-Rdis(x1-di,y1)|,DSIdis(x1,y1,ddmax)=|Ldis(x1,y1)-Rdis(x1-ddmax,y1)|,其中,1≤i≤dmax,di=d0+i,DSIdis(x1,y1,d1)表示当前第一像素点和当前第二像素点在视差值d1下的视差空间值,DSIdis(x1,y1,d2)表示当前第一像素点和当前第二像素点在视差值d2下的视差空间值,DSIdis(x1,y1,di)表示当前第一像素点和当前第二像素点在视差值di下的视差空间值,表示当前第一像素点和当前第二像素点在视差值下的视差空间值,Rdis(x1-d1,y1)表示{Rdis(x,y)}中坐标位置为(x1-d1,y1)的像素点的像素值,Rdis(x1-d2,y1)表示{Rdis(x,y)}中坐标位置为(x1-d2,y1)的像素点的像素值,Rdis(x1-di,y1)表示{Rdis(x,y)}中坐标位置为(x1-di,y1)的像素点的像素值,表示{Rdis(x,y)}中坐标位置为的像素点的像素值;

②-b4、将{Ldis(x,y)}中下一个待处理的像素点作为当前第一像素点,将{Rdis(x,y)}中下一个待处理的像素点作为当前第二像素点,然后返回步骤②-b2继续执行,直至{Ldis(x,y)}和{Rdis(x,y)}中的所有像素点处理完毕,获得Sdis的视差空间图,记为{DSIdis(x,y,d)},其中,DSIdis(x,y,d)表示{DSIdis(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,d0≤d≤ddmax.

所述的步骤③的具体过程为:

③-1、计算{Ldis(x,y)}的亮度掩蔽效应的可视化阈值集合,记为{Tl(x,y)},其中,Tl(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的亮度掩蔽效应的可视化阈值,bgl(x,y)表示{Ldis(x,y)}中以坐标位置为(x,y)的像素点为中心的5×5窗口内的所有像素点的亮度平均值;

③-2、计算{Ldis(x,y)}的对比度掩蔽效应的可视化阈值集合,记为{Tc(x,y)},Tc(x,y)=K(bgl(x,y))+ehl(x,y),其中,Tc(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的对比度掩蔽效应的可视化阈值,ehl(x,y)表示对{Ldis(x,y)}中坐标位置为(x,y)的像素点分别进行水平方向和垂直方向边缘滤波后得到的平均梯度值,K(bgl(x,y))=-10-6×(0.7×bgl(x,y)2+32×bgl(x,y))+0.07;

③-3、对{Ldis(x,y)}的亮度掩蔽效应的可视化阈值集合{Tl(x,y)}和对比度掩蔽效应的可视化阈值集合{Tc(x,y)}进行融合,得到{Ldis(x,y)}的双目最小可察觉变化图像,记为中坐标位置为(x,y)的像素点的双目最小可察觉变化值记为JdisL(x,y),JdisL(x,y)=Tl(x,y)+Tc(x,y).

所述的步骤⑤的具体过程为:

⑤-1、将{DSIorg(x,y,d)}和{DSIdis(x,y,d)}分别划分成个互不重叠的尺寸大小为α×β×γ的单元,其中,dmax表示最大视差值,α、β和γ分别表示每个单元的长度、宽度和高度;

⑤-2、将{DSIorg(x,y,d)}中当前正在处理的第l个单元定义为当前第一单元,记为将{DSIdis(x,y,d)}中当前正在处理的第l个单元定义为当前第二单元,记为其中,(u1,v1,w1)表示当前第一单元和当前第二单元中的像素点的坐标位置,1≤u1≤α,1≤v1≤β,1≤w1≤γ,表示当前第一单元中坐标位置为(u1,v1,w1)的像素点的像素值,表示当前第二单元中坐标位置为(u1,v1,w1)的像素点的像素值;

⑤-3、根据{Ldis(x,y)}的双目最小可察觉变化图像计算当前第一单元的第一均值和第一标准差,分别记为计算当前第二单元的第一均值和第一标准差,分别记为其中,ω1(u1,v1,w1)=1(JdisL(u1,v1)+T1)×(DSIdis(u1,v1,w1)+T1),表示中坐标位置为(u1,v1)的像素点的双目最小可察觉变化值,DSIdis(u1,v1,w1)表示{DSIdis(x,y,d)}中坐标位置为(u1,v1,w1)的像素点的视差空间值,Tl为控制参数;

⑤-4、计算当前第一单元与当前第二单元之间的第一结构相似度,记为Q1,l其中,C1和C2均为控制参数;

⑤-5、根据的视差梯度图像计算当前第一单元的第二均值和第二标准差,分别记为计算当前第二单元的第二均值和第二标准差,分别记为其中,ω2(u1,v1)=1GorgL(u1,v1)+T1,表示中坐标位置为(u1,v1)的像素点的梯度值;

⑤-6、计算当前第一单元与当前第二单元之间的第二结构相似度,记为Q2,l

⑤-7、对第一结构相似度和第二结构相似度进行融合,得到当前第一单元与当前第二单元之间的结构相似度,记为Ql,Ql=(Q1,l)τ×(Q2,l)υ,其中,τ和υ为权重参数;

⑤-8、令l″=l+1,l=l″,将{DSIorg(x,y,d)}中下一个待处理的单元作为当前第一单元,将{DSIdis(x,y,d)}中下一个待处理的单元作为当前第二单元,然后返回步骤⑤-3继续执行,直至{DSIorg(x,y,d)}和{DSIdis(x,y,d)}中的所有单元均处理完毕,得到{DSIorg(x,y,d)}中的每个单元与{DSIdis(x,y,d)}中对应的单元之间的结构相似度,将{DSIorg(x,y,d)}中的所有单元与{DSIdis(x,y,d)}中对应的单元之间的结构相似度的集合记为其中,l″的初始值为0,l″=l+1和l=l'中的“=”为赋值符号;

⑤-9、将中的所有结构相似度按照从小到大的顺序进行排序,将排序后的集合记为{Q~l|1≤l≤W×H×dmaxα×β×γ},然后取{Q~l|1≤l≤W×H×dmaxα×β×γ}中的前ρ%个结构相似度来计算Sdis的图像质量客观评价预测值,记为Q,其中,表示{Q~l|1≤l≤W×H×dmaxα×β×γ}中的第l个结构相似度,M=W×H×dmaxα×β×γ×ρ%.

所述的步骤⑤-1中取α=5、β=5、γ=5。

所述的控制参数Tl的值为1;所述的控制参数C1的值为6.5025,所述的控制参数C2的值为58.5225。

所述的步骤⑤-7中取τ=0.6、υ=-0.1。

所述的步骤⑤-9中取ρ=2。

与现有技术相比,本发明的优点在于:

1)本发明方法考虑到视差对立体感知的影响,分别构造原始的无失真的立体图像和待评价的失真的立体图像的视差空间图,这样避免了复杂的视差估计操作,并且所构造的视差空间图能够很好地反映不同视差对立体图像质量的影响,并且只对结构相似度较低的单元进行评价,从而有效地提高了客观评价结果与主观感知的相关性。

2)本发明方法根据特征图(双目最小可察觉变化图像和视差梯度图像),分别计算两个视差空间图之间的第一结构相似度和第二结构相似度,这样能够较好地反映立体图像的质量变化情况,使得评价结果更加感觉符合人类视觉系统,从而有效地提高了客观评价结果与主观感知的相关性。


附图说明

图1为本发明方法的总体实现框图;

图2a为Akko(尺寸为640×480)立体图像的左视点图像;

图2b为Akko(尺寸为640×480)立体图像的右视点图像;

图3a为Altmoabit(尺寸为1024×768)立体图像的左视点图像;

图3b为Altmoabit(尺寸为1024×768)立体图像的右视点图像;

图4a为Balloons(尺寸为1024×768)立体图像的左视点图像;

图4b为Balloons(尺寸为1024×768)立体图像的右视点图像;

图5a为Doorflower(尺寸为1024×768)立体图像的左视点图像;

图5b为Doorflower(尺寸为1024×768)立体图像的右视点图像;

图6a为Kendo(尺寸为1024×768)立体图像的左视点图像;

图6b为Kendo(尺寸为1024×768)立体图像的右视点图像;

图7a为LeaveLaptop(尺寸为1024×768)立体图像的左视点图像;

图7b为LeaveLaptop(尺寸为1024×768)立体图像的右视点图像;

图8a为Lovebierd1(尺寸为1024×768)立体图像的左视点图像;

图8b为Lovebierd1(尺寸为1024×768)立体图像的右视点图像;

图9a为Newspaper(尺寸为1024×768)立体图像的左视点图像;

图9b为Newspaper(尺寸为1024×768)立体图像的右视点图像;

图10a为Puppy(尺寸为720×480)立体图像的左视点图像;

图10b为Puppy(尺寸为720×480)立体图像的右视点图像;

图11a为Soccer2(尺寸为720×480)立体图像的左视点图像;

图11b为Soccer2(尺寸为720×480)立体图像的右视点图像;

图12a为Horse(尺寸为720×480)立体图像的左视点图像;

图12b为Horse(尺寸为720×480)立体图像的右视点图像;

图13a为Xmas(尺寸为640×480)立体图像的左视点图像;

图13b为Xmas(尺寸为640×480)立体图像的右视点图像;

图14为失真立体图像集合中的各幅失真的立体图像的图像质量客观评价预测值与平均主观评分差值的散点图。


具体实施方式

以下结合附图实施例对本发明作进一步详细描述。

本发明提出的一种基于特征图的立体图像质量客观评价方法,其总体实现框图如图1所示,其处理过程为:首先,根据原始的无失真的立体图像的左视点图像中的每个像素点和右视点图像中对应坐标位置的像素点在多个视差值下的视差空间值,获取原始的无失真的立体图像的视差空间图,并根据待评价的失真的立体图像的左视点图像中的每个像素点和右视点图像中对应坐标位置的像素点在多个视差值下的视差空间值,获取待评价的失真的立体图像的视差空间图;其次,根据特征图即待评价的失真的立体图像的左视点图像的双目最小可察觉变化图像,及原始的无失真的立体图像的左视点图像与右视点图像之间的视差图像的视差梯度图像,分别计算原始的无失真的立体图像的视差空间图与待评价的失真的立体图像的视差空间图之间的第一结构相似度和第二结构相似度,获得待评价的失真的立体图像的图像质量客观评价预测值;最后,按照上述处理过程获取多幅不同失真类型不同失真程度的失真的立体图像的图像质量客观评价预测值。

本发明的立体图像质量客观评价方法,其具体包括以下步骤:

①令Sorg为原始的无失真的立体图像,令Sdis为待评价的失真的立体图像,将Sorg的左视点图像记为{Lorg(x,y)},将Sorg的右视点图像记为{Rorg(x,y)},将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)},其中,(x,y)表示左视点图像和右视点图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示左视点图像和右视点图像的宽度,H表示左视点图像和右视点图像的高度,Lorg(x,y)表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg(x,y)表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值。

②根据{Lorg(x,y)}中的每个像素点和{Rorg(x,y)}中对应坐标位置的像素点在多个视差值下的视差空间值,获取Sorg的视差空间图,记为{DSIorg(x,y,d)},并根据{Ldis(x,y)}中的每个像素点和{Rdis(x,y)}中对应坐标位置的像素点在多个视差值下的视差空间值,获取Sdis的视差空间图,记为{DSIdis(x,y,d)},其中,DSIorg(x,y,d)表示{DSIorg(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,DSIdis(x,y,d)表示{DSIdis(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,0≤d≤dmax,dmax表示最大视差值,在本实施例中,取dmax=31。

在此具体实施例中,Sorg的视差空间图{DSIorg(x,y,d)}的获取过程为:

②-a1、将{Lorg (x,y)}中当前正在处理的像素点定义为当前第一像素点,将{Rorg(x,y)}中当前正在处理的像素点定义为当前第二像素点。

②-a2、假设当前第一像素点为{Lorg(x,y)}中坐标位置为(x1,y1)的像素点,并假设当前第二像素点为{Rorg(x,y)}中坐标位置为(x1,y1)的像素点,取视差值d0=0,然后计算当前第一像素点和当前第二像素点在该视差值d0下的视差空间值,记为DSIorg(x1,y1,d0),DSIorg(x1,y1,d0)=|Lorg(x1,y1)-Rorg(x1-d0,y1)|,其中,1≤x1≤W,1≤y1≤H,0≤d0≤dmax,dmax表示最大视差值,Lorg(x1,y1)表示{Lorg(x,y)}中坐标位置为(x1,y1)的像素点的像素值,Rorg(x1-d0,y1)表示{Rorg(x,y)}中坐标位置为(x1-d0,y1)的像素点的像素值,“||”为取绝对值符号。

②-a3、选取dmax个与d0各不相同的视差值,分别记为然后分别计算当前第一像素点和当前第二像素点在该dmax个各不相同的视差值下的视差空间值,对应的分别记为DSIorg(x1,y1,d1),DSIorg(x1,y1,d2),...,DSIorg(x1,y1,di),...,DSIorg(x1,y1,ddmax),DSIorg(x1,y1,d1)=|Lorg(x1,y1)-Rorg(x1-d1,y1)|,DSIorg(x1,y1,d2)=|Lorg(x1,y1)-Rorg(x1-d2,y1)|,DSIorg(x1,y1,di)=|Lorg(x1,y1)-Rorg(x1-di,y1)|,DSIorg(x1,y1,ddmax)=|Lorg(x1,y1)-Rorg(x1-ddmax,y1)|,其中,1≤i≤dmax,di=d0+i,DSIorg(x1,y1,d1)表示当前第一像素点和当前第二像素点在视差值d1下的视差空间值,DSIorg(x1,y1,d2)表示当前第一像素点和当前第二像素点在视差值d2下的视差空间值,DSIorg(x1,y1,di)表示当前第一像素点和当前第二像素点在视差值di下的视差空间值,表示当前第一像素点和当前第二像素点在视差值下的视差空间值,Rorg(x1-d1,y1)表示{Rorg(x,y)}中坐标位置为(x1-d1,y1)的像素点的像素值,Rorg(x1-d2,y1)表示{Rorg(x,y)}中坐标位置为(x1-d2,y1)的像素点的像素值,Rorg(x1-di,y1)表示{Rorg(x,y)}中坐标位置为(x1-di,y1)的像素点的像素值,表示{Rorg(x,y)}中坐标位置为的像素点的像素值。

②-a4、将{Lorg(x,y)}中下一个待处理的像素点作为当前第一像素点,将{Rorg(x,y)}中下一个待处理的像素点作为当前第二像素点,然后返回步骤②-a2继续执行,直至{Lorg(x,y)}和{Rorg(x,y)}中的所有像素点处理完毕,获得Sorg的视差空间图,记为{DSIorg(x,y,d)},其中,DSIorg(x,y,d)表示{DSIorg(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,d0≤d≤ddmax.

在此具体实施例中,Sdis的视差空间图{DSIdis(x,y,d)}的获取过程为:

②-b1、将{Ldis(x,y)}中当前正在处理的像素点定义为当前第一像素点,将{Rdis(x,y)}中当前正在处理的像素点定义为当前第二像素点。

②-b2、假设当前第一像素点为{Ldis(x,y)}中坐标位置为(x1,y1)的像素点,并假设当前第二像素点为{Rdis(x,y)}中坐标位置为(x1,y1)的像素点,取视差值d0=0,然后计算当前第一像素点和当前第二像素点在该视差值d0下的视差空间值,记为DSIdis(x1,y1,d0),DSIdis(x1,y1,d0)=|Ldis(x1,y1)-Rdis(x1-d0,y1)|,其中,1≤x1≤W,1≤y1≤H,0≤d0≤dmax,dmax表示最大视差值,Ldis(x1,y1)表示{Ldis(x,y)}中坐标位置为(x1,y1)的像素点的像素值,Rdis(x1-d0,y1)表示{Rdis(x,y)}中坐标位置为(x1-d0,y1)的像素点的像素值,“||”为取绝对值符号。

②-b3、选取dmax个与d0各不相同的视差值,分别记为然后分别计算当前第一像素点和当前第二像素点在该dmax个各不相同的视差值下的视差空间值,对应的分别记为DSIdis(x1,y1,d1),DSIdis(x1,y1,d2),...,DSIdis(x1,y1,di),...,DSIdis(x1,y1,ddmax),DSIdis(x1,y1,d1)=|Ldis(x1,y1)-Rdis(x1-d1,y1)|,DSIdis(x1,y1,d2)=|Ldis(x1,y1)-Rdis(x1-d2,y1)|,DSIdis(x1,y1,di)=|Ldis(x1,y1)-Rdis(x1-di,y1)|,DSIdis(x1,y1,ddmax)=|Ldis(x1,y1)-Rdis(x1-ddmax,y1)|,其中,1≤i≤dmax,di=d0+i,DSIdis(x1,y1,d1)表示当前第一像素点和当前第二像素点在视差值d1下的视差空间值,DSIdis(x1,y1,d2)表示当前第一像素点和当前第二像素点在视差值d2下的视差空间值,DSIdis(x1,y1,di)表示当前第一像素点和当前第二像素点在视差值di下的视差空间值,表示当前第一像素点和当前第二像素点在视差值下的视差空间值,Rdis(x1-d1,y1)表示{Rdis(x,y)}中坐标位置为(x1-d1,y1)的像素点的像素值,Rdis(x1-d2,y1)表示{Rdis(x,y)}中坐标位置为(x1-d2,y1)的像素点的像素值,Rdis(x1-di,y1)表示{Rdis(x,y)}中坐标位置为(x1-di,y1)的像素点的像素值,表示{Rdis(x,y)}中坐标位置为的像素点的像素值。

②-b4、将{Ldis(x,y)}中下一个待处理的像素点作为当前第一像素点,将{Rdis(x,y)}中下一个待处理的像素点作为当前第二像素点,然后返回步骤②-b2继续执行,直至{Ldis(x,y)}和{Rdis(x,y)}中的所有像素点处理完毕,获得Sdis的视差空间图,记为{DSIdis(x,y,d)},其中,DSIdis(x,y,d)表示{DSIdis(x,y,d)}中坐标位置为(x,y,d)的像素点的视差空间值,d0≤d≤ddmax.

③人类视觉特性表明,人眼对图像中变化较小的属性或噪声是不可感知的,除非该属性或噪声的变化强度超过某一阈值,该阈值就是最小可察觉失真(Just noticeabledifference,JND)。然而人眼的视觉掩蔽效应是一种局部效应,其受背景照度、纹理复杂度等因素的影响,背景越亮,纹理越复杂,界限值就越高。因此本发明利用人类立体视觉感知对背景光照和对比度的视觉掩蔽效应,提取出{Ldis(x,y)}的双目最小可察觉变化图像,记为其中,表示中坐标位置为(x,y)的像素点的双目最小可察觉变化值。

在此具体实施例中,步骤③的具体过程为:

③-1、计算{Ldis(x,y)}的亮度掩蔽效应的可视化阈值集合,记为{Tl(x,y)},其中,Tl(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的亮度掩蔽效应的可视化阈值,bgl(x,y)表示{Ldis(x,y)}中以坐标位置为(x,y)的像素点为中心的5×5窗口内的所有像素点的亮度平均值。

③-2、计算{Ldis(x,y)}的对比度掩蔽效应的可视化阈值集合,记为{Tc(x,y)},Tc(x,y)=K(bgl(x,y))+ehl(x,y),其中,Tc(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的对比度掩蔽效应的可视化阈值,ehl(x,y)表示对{Ldis(x,y)}中坐标位置为(x,y)的像素点分别进行水平方向和垂直方向边缘滤波后得到的平均梯度值,K(bgl(x,y))=-10-6×(0.7×bgl(x,y)2+32×bgl(x,y))+0.07。

③-3、对{Ldis(x,y)}的亮度掩蔽效应的可视化阈值集合{Tl(x,y)}和对比度掩蔽效应的可视化阈值集合{Tc(x,y)}进行融合,得到{Ldis(x,y)}的双目最小可察觉变化图像,记为中坐标位置为(x,y)的像素点的双目最小可察觉变化值记为JdisL(x,y),JdisL(x,y)=Tl(x,y)+Tc(x,y).

④采用块匹配法计算{Lorg(x,y)}与{Rorg(x,y)}之间的视差图像,记为然后计算的视差梯度图像,记为中坐标位置为(x,y)的像素点的梯度值记为GorgL(x,y)=|GoxL(x,y)|+|GoyL(x,y)|,其中,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的水平梯度值,表示中坐标位置为(x,y)的像素点的垂直梯度值,“||”为求绝对值符号。

⑤根据{Ldis(x,y)}的双目最小可察觉变化图像的视差梯度图像计算Sorg的视差空间图{DSIorg(x,y,d)}和Sdis的视差空间图{DSIdis(x,y,d)}之间的结构相似度,得到Sdis的图像质量客观评价预测值,记为Q。

在此具体实施例中,步骤⑤的具体过程为:

⑤-1、将{DSIorg(x,y,d)}和{DSIdis(x,y,d)}分别划分成个互不重叠的尺寸大小为α×β×γ的单元,其中,dmax表示最大视差值,α、β和γ分别表示每个单元的长度、宽度和高度,不同尺寸大小的单元对后续计算两个单元的结构相似度存在影响,通过大量实验验证,当α、β和γ的值均取5时,效果最优,因此在本实施例中,取α=5、β=5、γ=5。

⑤-2、将{DSIorg(x,y,d)}中当前正在处理的第l个单元定义为当前第一单元,记为将{DSIdis(x,y,d)}中当前正在处理的第l个单元定义为当前第二单元,记为其中,(u1,v1,w1)表示当前第一单元和当前第二单元中的像素点的坐标位置,1≤u1≤α,1≤v1≤β,1≤w1≤γ,表示当前第一单元中坐标位置为(u1,v1,w1)的像素点的像素值,表示当前第二单元中坐标位置为(u1,v1,w1)的像素点的像素值。

⑤-3、根据{Ldis(x,y)}的双目最小可察觉变化图像计算当前第一单元的第一均值和第一标准差,分别记为计算当前第二单元的第一均值和第一标准差,分别记为其中,ω1(u1,v1,w1)=1(JdisL(u1,v1)+T1)×(DSIdis(u1,v1,w1)+T1),表示中坐标位置为(u1,v1)的像素点的双目最小可察觉变化值,DSIdis(u1,v1,w1)表示{DSIdis(x,y,d)}中坐标位置为(u1,v1,w1)的像素点的视差空间值,Tl为控制参数,在本实施例中,取Tl=1。

⑤-4、计算当前第一单元与当前第二单元之间的第一结构相似度,记为Q1,l其中,C1和C2均为控制参数,在本实施例中,取C1=6.5025,C2=58.5225。

⑤-5、根据的视差梯度图像计算当前第一单元的第二均值和第二标准差,分别记为计算当前第二单元的第二均值和第二标准差,分别记为其中,ω2(u1,v1)=1GorgL(u1,v1)+T1,表示中坐标位置为(u1,v1)的像素点的梯度值。

⑤-6、计算当前第一单元与当前第二单元之间的第二结构相似度,记为Q2,l

⑤-7、对第一结构相似度和第二结构相似度进行融合,得到当前第一单元与当前第二单元之间的结构相似度,记为Ql,Ql=(Q1,l)τ×(Q2,l)υ,其中,τ和υ为权重参数,在本实施例中,取τ=0.6、υ=-0.1。

⑤-8、令l″=l+1,l=l″,将{DSIorg(x,y,d)}中下一个待处理的单元作为当前第一单元,将{DSIdis(x,y,d)}中下一个待处理的单元作为当前第二单元,然后返回步骤⑤-3继续执行,直至{DSIorg(x,y,d)}和{DSIdis(x,y,d)}中的所有单元均处理完毕,得到{DSIorg(x,y,d)}中的每个单元与{DSIdis(x,y,d)}中对应的单元之间的结构相似度,将{DSIorg(x,y,d)}中的所有单元与{DSIdis(x,y,d)}中对应的单元之间的结构相似度的集合记为其中,l″的初始值为0,l″=l+1和l=l'中的“=”为赋值符号。

⑤-9、将中的所有结构相似度按照从小到大的顺序进行排序,将排序后的集合记为{Q~l|1≤l≤W×H×dmaxα×β×γ},然后取{Q~l|1≤l≤W×H×dmaxα×β×γ}中的前ρ%个结构相似度来计算Sdis的图像质量客观评价预测值,记为Q,其中,表示{Q~l|1≤l≤W×H×dmaxα×β×γ}中的第l个结构相似度,M=W×H×dmaxα×β×γ×ρ%.在本实施例中,取ρ=2。

⑥采用n幅原始的无失真的立体图像,建立其在不同失真类型不同失真程度下的失真立体图像集合,该失真立体图像集合包括多幅失真的立体图像,利用主观质量评价方法分别获取失真立体图像集合中每幅失真的立体图像的平均主观评分差值,记为DMOS,DMOS=100-MOS,其中,MOS表示主观评分均值,DMOS∈[0,100],n≥1。

在本实施例中,利用如图2a和图2b构成的立体图像、图3a和图3b构成的立体图像、图4a和图4b构成的立体图像、图5a和图5b构成的立体图像、图6a和图6b构成的立体图像、图7a和图7b构成的立体图像、图8a和图8b构成的立体图像、图9a和图9b构成的立体图像、图10a和图10b构成的立体图像、图11a和图11b构成的立体图像、图12a和图12b构成的立体图像、图13a和图13b构成的立体图像共12幅(n=12)无失真的立体图像建立了其在不同失真类型不同失真程度下的失真立体图像集合,该失真立体图像集合共包括4种失真类型的252幅失真的立体图像,其中JPEG压缩的失真的立体图像共60幅,JPEG2000压缩的失真的立体图像共60幅,高斯模糊(Gaussian Blur)的失真的立体图像共60幅,H.264编码的失真的立体图像共72幅。

⑦按照步骤①至步骤⑤计算Sdis的图像质量客观评价预测值Q的操作,以相同的方式分别计算失真立体图像集合中每幅失真的立体图像的图像质量客观评价预测值。

采用图2a至图13b所示的12幅无失真的立体图像在不同程度的JPEG压缩、JPEG2000压缩、高斯模糊和H.264编码失真情况下的252幅失真的立体图像来分析本实施例得到的失真的立体图像的图像质量客观评价预测值与平均主观评分差值之间的相关性。在本实施例中,利用评估图像质量评价方法的4个常用客观参量作为评价指标,即非线性回归条件下的Pearson相关系数(Pearson linear correlation coefficient,PLCC)、Spearman相关系数(Spearman rank order correlation coefficient,SROCC)、Kendall相关系数(Kendall rank-order correlation coefficient,KROCC)、均方误差(root mean squarederror,RMSE),PLCC和RMSE反映失真的立体图像评价客观模型的准确性,SROCC和KROCC反映其单调性。将分别采用本发明方法与不采用本发明方法得到失真的立体图像的图像质量客观评价预测值与主观评分之间的Pearson相关系数、Spearman相关系数、Kendall相关系数和均方误差进行比较,比较结果分别如表1、表2、表3和表4所示,从表1、表2、表3和表4中可以看出,采用本发明方法得到的失真的立体图像的最终的图像质量客观评价预测值与平均主观评分差值之间的相关性是很高的,充分表明客观评价结果与人眼主观感知的结果较为一致,足以说明本发明方法的有效性。

图14给出了失真立体图像集合中的各幅失真的立体图像的图像质量客观评价预测值与平均主观评分差值的散点图,散点越集中,说明客观评介结果与主观感知的一致性越好。从图14中可以看出,采用本发明方法得到的散点图比较集中,与主观评价数据之间的吻合度较高。

表1利用本发明方法与不利用本发明方法得到的失真的立体图像的图像质量客观评价预测值与主观评分之间的Pearson相关系数比较

表2利用本发明方法与不利用本发明方法得到的失真的立体图像的图像质量客观评价预测值与主观评分之间的Spearman相关系数比较

失真类型JPEG压JPEG2000高斯模白噪声H.264编所有失

压缩不利用本发明方法0.90870.83400.96100.73450.86790.9081利用本发明方法0.92660.92030.95940.91880.93290.9458

表3利用本发明方法与不利用本发明方法得到的失真的立体图像的图像质量客观评价预测值与主观评分之间的Kendall相关系数比较

表4利用本发明方法与不利用本发明方法得到的失真的立体图像的图像质量客观评价预测值与主观评分之间的均方误差比较

购买本专利

专利交易流程

购买专利流程

专利交易常见问题

1、在赋翼网没有找到自己需要的专利怎么办?

答:如果在网站没有找到须要的专利,可联系客服提交自己的需求,工作人员会在十分钟内检索全网专利库,给满意的答复。

2、在赋翼网购买专利安全吗?

答:赋翼网所出售专利均经专利权人本人核实,专利真实有效,请放心购买。

3、购买专利是一次性收费吗? 还有其他的费用吗?

答:在赋翼网购买专利,均为一次性收费(办理期间客户另提其他要求除外)。

4、购买后多久能收到专利证书?

答:跟赋翼网签订合作合同后,工作人员会立刻办理进行手续办理,买专利最快7天下证(根据办理速度不同,具体下证时间以国家知识产权局实际为准)。

5、购买后变更失败怎么办?

答:如遇到付款后未能按照合同约定变更专利权人(含合同约定任何一项没有做到),经核实后赋翼网将在2个工作日内全额退款。

购 买 专 利
专利能干什么?

信息保密,请放心填写!
返回顶部
在线咨询
在线留言
联系电话
TEL:15321932656
扫一扫

手机访问 扫一扫

全国服务热线
15321932656