技术领域
本发明涉及一种图像质量评价方法,尤其是涉及一种立体图像深度感知客观评价方法。
背景技术
随着图像编码技术和立体显示技术的迅速发展,立体图像技术受到了越来越广泛的关注与应用,已成为当前的一个研究热点。立体图像技术利用人眼的双目视差原理,双目各自独立地接收来自同一场景的左右视点图像,通过大脑融合形成双目视差,从而欣赏到具有深度感和逼真感的立体图像。由于受采集系统、存储压缩及传输设备的影响,立体图像会不可避免地引入一系列的失真,而与单通道图像相比,立体图像需要同时保证两个通道的图像质量,因此对立体图像进行评价具有非常重要的意义。然而,目前缺乏有效的客观评价方法对立体图像进行评价。因此,建立有效的立体图像客观评价模型具有十分重要的意义。
对立体图像的评价主要分为图像质量、深度感知和视觉舒适度三个方面,而目前已有的工作主要集中在质量评价部分,而对深度感知较少考虑。深度感知可以通过视差信息或深度信息来反映,然而由于目前视差估计及深度估计技术的局限,如何有效地对深度图像或视差图像质量进行评价以真实地表征立体感知特性,仍然是立体图像质量客观评价中的难点问题之一。因此,如何对深度感知线索信息进行合理评价,使得评价结果更加感觉符合人类视觉系统,都是在对立体图像进行评价过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种能够有效地提高客观评价结果与主观感知的相关性的立体图像深度感知客观评价方法。
本发明解决上述技术问题所采用的技术方案为:一种立体图像深度感知客观评价方法,其特征在于包括以下步骤:
①令Sorg表示原始的无失真的立体图像,令Sdis表示待评价的失真的立体图像,将Sorg的左视点图像记为{Lorg(x,y)},将Sorg的右视点图像记为{Rorg(x,y)},将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)},其中,(x,y)表示左视点图像和右视点图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示左视点图像和右视点图像的宽度,H表示左视点图像和右视点图像的高度,Lorg(x,y)表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg(x,y)表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
②采用Gabor滤波器分别对{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}、{Rdis(x,y)}进行滤波处理,得到{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}、{Rdis(x,y)}中的每个像素点在不同中心频率和不同方向因子下的频率响应,将{Lorg(x,y)}中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为将{Rorg(x,y)}中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为
为
的实部,
为
的虚部,
为
的实部,
为
的虚部,
为
的实部,
为
的虚部,
为
的实部,
为
的虚部,符号“j”为虚数表示符号;
③分别计算{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}、{Rdis(x,y)}中的每个像素点在选定的中心频率和不同方向因子下的局部相位,将{Lorg(x,y)}中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的局部相位记为将{Rorg(x,y)}中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的局部相位记为
将{Ldis(x,y)}中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的局部相位记为
将{Rdis(x,y)}中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的局部相位记为
其中,arctan()为取反正切函数,ωm表示选定的中心频率,ωm∈{1.74,2.47,3.49,4.93,6.98,9.87};
④根据{Lorg(x,y)}和{Rorg(x,y)}中的每个像素点在选定的中心频率和不同方向因子下的局部相位,计算Sorg中的每个像素点在选定的中心频率下的视差偏移矢量,将Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的视差偏移矢量记为dorg(x,y;ωm),表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的水平方向视差偏移量,
表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的垂直方向视差偏移量,符号“[]”为矢量表示符号;
同样,根据{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点在选定的中心频率和不同方向因子下的局部相位,计算Sdis中的每个像素点在选定的中心频率下的视差偏移矢量,将Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的视差偏移矢量记为ddis(x,y;ωm),表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的水平方向视差偏移量,
表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的垂直方向视差偏移量,符号“[]”为矢量表示符号;
⑤根据Sorg和Sdis中的每个像素点在选定的中心频率下的视差偏移矢量,计算Sdis中的每个像素点的客观评价度量值,将Sdis中坐标位置为(x,y)的像素点的客观评价度量值记为QDP(x,y),
⑥根据Sdis中的每个像素点的客观评价度量值,计算Sdis的深度感知客观评价预测值,记为Q,
所述的步骤④中Sorg中的每个像素点在选定的中心频率下的视差偏移矢量的获取过程为:
④-a1、计算Sorg中的每个像素点在选定的中心频率和不同方向因子下的相位差,将Sorg中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的相位差记为
④-a2、计算Sorg中的每个像素点在选定的中心频率和不同方向因子下的平均相位,将Sorg中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位记为
④-a3、计算Sorg中的每个像素点在选定的中心频率下的视差偏移矢量,将Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的视差偏移矢量记为dorg(x,y;ωm),
其中,在此符号“×”表示矩阵相乘符号,表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的水平方向视差偏移量,
表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的垂直方向视差偏移量,
表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位
的水平梯度值,
表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位
的垂直梯度值,矩阵
所述的步骤④中Sdis中的每个像素点在选定的中心频率下的视差偏移矢量的获取过程为:
④-b1、计算Sdis中的每个像素点在选定的中心频率和不同方向因子下的相位差,将Sdis中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的相位差记为
④-b2、计算Sdis中的每个像素点在选定的中心频率和不同方向因子下的平均相位,将Sdis中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位记为
④-b3、计算Sdis中的每个像素点在选定的中心频率下的视差偏移矢量,将Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的视差偏移矢量记为ddis(x,y;ωm),
其中,在此符号“×”表示矩阵相乘符号,表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的水平方向视差偏移量,
表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的垂直方向视差偏移量,
表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位
的水平梯度值,
表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位
的垂直梯度值,矩阵
所述的步骤⑤中取T1=0.85。
与现有技术相比,本发明的优点在于:
1)本发明方法考虑到失真对深度感知的影响,分别计算原始的无失真的立体图像和待评价的失真的立体图像中的每个像素点的视差偏移矢量,这样避免了复杂的视差估计操作,并且所构造的视差偏移矢量能够很好地反映不同失真对深度感知的影响,能够有效地提高客观评价结果与主观感知的相关性。
2)本发明方法通过计算每个像素点在选定的中心频率和不同方向因子下的相位差和平均相位的梯度值,获得每个像素点在选定的中心频率下的视差偏移矢量,获得的视差偏移矢量具有较强的稳定性且能够较好地反映立体图像的深度感知变化情况。
附图说明
图1为本发明方法的总体实现框图;
图2为利用本发明方法获得的宁波大学立体图像库中的每幅失真的立体图像的深度感知客观评价预测值与平均主观评分差值的散点图;
图3为利用本发明方法获得的LIVE立体图像库中的每幅失真的立体图像的深度感知客观评价预测值与平均主观评分差值的散点图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种立体图像深度感知客观评价方法,其总体实现框图如图1所示,其具体包括以下步骤:
①令Sorg表示原始的无失真的立体图像,令Sdis表示待评价的失真的立体图像,将Sorg的左视点图像记为{Lorg(x,y)},将Sorg的右视点图像记为{Rorg(x,y)},将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)},其中,(x,y)表示左视点图像和右视点图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示左视点图像和右视点图像的宽度,H表示左视点图像和右视点图像的高度,Lorg(x,y)表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg(x,y)表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值。
②采用现有的Gabor滤波器分别对{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}、{Rdis(x,y)}进行滤波处理,得到{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}、{Rdis(x,y)}中的每个像素点在不同中心频率和不同方向因子下的频率响应,将{Lorg(x,y)}中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为为
的实部,
为
的虚部,
为
的实部,
为
的虚部,
为
的实部,
为
的虚部,
为
的实部,
为
的虚部,符号“j”为虚数表示符号。
③分别计算{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}、{Rdis(x,y)}中的每个像素点在选定的中心频率和不同方向因子下的局部相位,将{Lorg(x,y)}中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的局部相位记为将{Rorg(x,y)}中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的局部相位记为
将{Ldis(x,y)}中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的局部相位记为
将{Rdis(x,y)}中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的局部相位记为
其中,arctan()为取反正切函数,ωm表示选定的中心频率,ωm∈{1.74,2.47,3.49,4.93,6.98,9.87},
为
的实部,
为
的虚部,
为
的实部,
为
的虚部,
为
的实部,
为
的虚部,
为
的实部,
为
的虚部。
④根据{Lorg(x,y)}和{Rorg(x,y)}中的每个像素点在选定的中心频率和不同方向因子下的局部相位,计算Sorg中的每个像素点在选定的中心频率下的视差偏移矢量,将Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的视差偏移矢量记为dorg(x,y;ωm),表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的水平方向视差偏移量,
表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的垂直方向视差偏移量,符号“[]”为矢量表示符号。
在此具体实施例中,步骤④中Sorg中的每个像素点在选定的中心频率下的视差偏移矢量的获取过程为:
④-a1、计算Sorg中的每个像素点在选定的中心频率和不同方向因子下的相位差,将Sorg中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的相位差记为
④-a2、计算Sorg中的每个像素点在选定的中心频率和不同方向因子下的平均相位,将Sorg中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位记为
④-a3、计算Sorg中的每个像素点在选定的中心频率下的视差偏移矢量,将Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的视差偏移矢量记为dorg(x,y;ωm),
其中,在此符号“×”表示矩阵相乘符号,表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的水平方向视差偏移量,
表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的垂直方向视差偏移量,
表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位
的水平梯度值,
表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位
的垂直梯度值,矩阵
同样,根据{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点在选定的中心频率和不同方向因子下的局部相位,计算Sdis中的每个像素点在选定的中心频率下的视差偏移矢量,将Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的视差偏移矢量记为ddis(x,y;ωm),表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的水平方向视差偏移量,
表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的垂直方向视差偏移量,符号“[]”为矢量表示符号。
在此具体实施例中,步骤④中Sdis中的每个像素点在选定的中心频率下的视差偏移矢量的获取过程为:
④-b1、计算Sdis中的每个像素点在选定的中心频率和不同方向因子下的相位差,将Sdis中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的相位差记为
④-b2、计算Sdis中的每个像素点在选定的中心频率和不同方向因子下的平均相位,将Sdis中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位记为
④-b3、计算Sdis中的每个像素点在选定的中心频率下的视差偏移矢量,将Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的视差偏移矢量记为ddis(x,y;ωm),
其中,在此符号“×”表示矩阵相乘符号,表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的水平方向视差偏移量,
表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的垂直方向视差偏移量,
表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位
的水平梯度值,
表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位
的垂直梯度值,矩阵
⑤根据Sorg和Sdis中的每个像素点在选定的中心频率下的视差偏移矢量,计算Sdis中的每个像素点的客观评价度量值,将Sdis中坐标位置为(x,y)的像素点的客观评价度量值记为QDP(x,y),
,其中,arccos()为取反余弦函数,T1为控制参数,在本实施例中取T1=0.85。
⑥根据Sdis中的每个像素点的客观评价度量值,计算Sdis的深度感知客观评价预测值,记为Q,
在本实施例中,由于根据人眼对不同失真类型的频率响应不一致的特性,因此针对不同失真类型的立体图像,对Gabor滤波器设置不同的中心频率,即上述步骤③、步骤④和步骤⑤中ωm的具体取值由Sdis的失真类型决定,如果Sdis的失真类型为JPEG压缩失真,则取ωm=3.49;如果Sdis的失真类型为JPEG2000压缩失真,则取ωm=4.93;如果Sdis的失真类型为高斯模糊失真,则取ωm=4.93;如果Sdis的失真类型为白噪声失真,则取ωm=3.49;如果Sdis的失真类型为H.264压缩失真,则取ωm=4.93。在此,针对不同失真类型的失真图像,计算分别取六个不同中心频率情况下的评价结果,选取评价结果最好的中心频率作为选定的中心频率,通过大量实验确定上述ωm的具体取值。
为进一步说明本发明方法的可行性和有效性,对本发明方法的性能进行客观评价。
在此,采用宁波大学立体图像库和LIVE立体图像库来分析本实施例得到的失真的立体图像的深度感知客观评价预测值与平均主观评分差值之间的相关性。宁波大学立体图像库由12幅无失真的立体图像在不同程度的JPEG压缩情况下的60幅失真的立体图像、JPEG2000压缩情况下的60幅失真的立体图像、高斯模糊情况下的60幅失真的立体图像、高斯白噪声情况下的60幅失真的立体图像和H.264编码失真情况下的72幅失真的立体图像构成。LIVE立体图像库由20幅无失真的立体图像在不同程度的JPEG压缩情况下的80幅失真的立体图像、JPEG2000压缩情况下的80幅失真的立体图像、高斯模糊情况下的45幅失真的立体图像、高斯白噪声情况下的80幅失真的立体图像和Fast Fading失真情况下的80幅失真的立体图像构成。
这里,利用评估图像质量评价方法的4个常用客观参量作为深度感知评价指标,即非线性回归条件下的Pearson相关系数(Pearson linear correlation coefficient,PLCC)、Spearman相关系数(Spearman rank order correlation coefficient,SROCC),Kendall相关系数(Kendall rank-order correlation coefficient,KROCC),均方误差(root mean squarederror,RMSE),PLCC和RMSE反映失真的立体图像的客观评价结果的准确性,SROCC和KROCC反映其单调性。
利用本发明方法获取宁波大学立体图像库中的每幅失真的立体图像的深度感知客观评价预测值和LIVE立体图像库中的每幅失真的立体图像的深度感知客观评价预测值,并利用现有的主观评分方法获取宁波大学立体图像库中的每幅失真的立体图像的平均主观评分差值和LIVE立体图像库中的每幅失真的立体图像的平均主观评分差值。将按本发明方法计算得到的失真的立体图像的深度感知客观评价预测值做五参数Logistic函数非线性拟合,PLCC、SROCC和KROCC值越高,RMSE值越低说明客观评价方法与平均主观评分差值相关性越好。表1、表2、表3和表4给出了采用本发明方法得到的失真的立体图像的深度感知客观评价预测值与平均主观评分差值之间的Pearson相关系数、Spearman相关系数、Kendall相关系数和均方误差。从表1、表2、表3和表4中可以看出,对于高斯模糊和高斯白噪声失真类型,采用本发明方法得到的失真的立体图像的深度感知客观评价预测值与平均主观评分差值之间的相关性是很高的,而对于编码失真类型(JPEG压缩、JPEG2000压缩和H.264编码失真),采用本发明方法得到的失真的立体图像的深度感知客观评价预测值与平均主观评分差值之间的相关性并不是很高,这是因为在编码强度较大的情况下,较低的图像质量会抑制深度感知,导致其深度感知客观评价预测值与图像质量并不完全一致。
图2给出了利用本发明方法获得的宁波大学立体图像库中的每幅失真的立体图像的深度感知客观评价预测值与平均主观评分差值的散点图,图3给出了利用本发明方法获得的LIVE立体图像库中的每幅失真的立体图像的深度感知客观评价预测值与平均主观评分差值的散点图,散点越集中,说明客观评价结果与主观感知的一致性越好。从图2和图3中可以看出,即使对于那些质量较低的立体图像(平均主观评分差值DMOS大于40),采用本发明方法预测得到的深度感知客观评价预测值也被抑制在40范围内,说明对于这些质量较低的立体图像,深度感知并不是主要的感知因素,符合人眼的主观感知特性。
表1 利用本发明方法得到的失真的立体图像的深度感知客观评价预测值与平均主观评分差值之间的Pearson相关系数比较
表2 利用本发明方法得到的失真的立体图像的深度感知客观评价预测值与平均主观评分差值之间的Spearman相关系数比较
表3 利用本发明方法得到的失真的立体图像的深度感知客观评价预测值与平均主观评分差值之间的Kendall相关系数比较
表4 利用本发明方法得到的失真的立体图像的深度感知客观评价预测值与平均主观评分差值之间的均方误差比较