网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

利用互子带滤波器和稀疏特性的多通道线性预测语音去混响方法  PDF

  • 康瑶 1
  • 康坊 2
  • 杨飞然 3
1. 国家开放大学数字化部,北京 100039; 2. 奥卢大学机器视觉与信号分析中心, 奥卢 90570; 3. 中国科学院噪声与振动重点实验室(声学研究所),北京 100190

中图分类号: TN912.3

最近更新:2024-10-14

DOI:10.16337/j.1004⁃9037.2024.05.007

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
EN
目录contents

摘要

多通道线性预测是最为流行的语音去混响方法之一,现有相关研究大多利用子带谱减模型在每一个频带独立地获取期望信号,但这忽略了不同子带之间的相互影响。本文提出一种利用互子带谱减模型的多通道线性预测语音去混响方法。相比于大多数方法采用的子带谱减模型,本文方法采用的互子带谱减模型能够利用互子带滤波器来对不同子带之间的相互影响进行建模。本文方法利用复广义高斯分布建模期望信号,相比于常用的高斯分布,复广义高斯分布能够通过调整形状参数来描述语音信号的稀疏特性。在最大似然估计框架下,将语音去混响转化为关于互子带滤波器和子带滤波器的优化问题;并且基于替代最小化方法推导了保证收敛的优化算法。在不同混响时间、不同通道、不同声源和传声器距离情况下的一系列语音去混响实验验证了本文方法的性能显著优于传统去混响算法。

引 言

在密闭空间中,传声器采集到的语音信号不仅包括直达声,还包括早期反射声和后期混响

1‑3。语音去混响技术能够通过去除语音信号中的混响成分来提高语音质量和语音识别率、唤醒率等指4‑5,因而通常被集成到如电话会议和智能语音助手等语音通信及人机语音交互系统中。

近年来,国内外研究学者在语音去混响领域取得了丰富的研究成果,提出了大量的语音去混响方

16。这些方法可分为两类:基于深度神经网络的方法和基于统计信号处理的方法。基于深度神经网络的语音去混响方法利用网络模型学习到的混响信号和期望语音信号之间的非线性映射关系直接恢复出期望信7‑10,或者利用网络模型学习到的干净语音信号内在的分布特点间接地生成期望信10。尽管这类方法能取得较好的去混响效果,但是网络模型需要较多的带标签数据进行监督训练,并且网络模型的训练过程需要占用较多的计算和存储资11。基于统计信号处理的方法由于其无需监督学习及推理过程复杂度较低的特点也有其应用价值。这些研究大致可分为两类,其中一类先辨识声学多通道传递函数,然后再用反卷积滤波器对辨识的声学通道进行解卷积得到干净的语音信12‑14。因为多通道传递函数辨识本身是一个非常困难的任务,这类方法的难度较15‑16。为了克服通道辨识的难题,另一类方法无需对声学通道进行辨识,而是直接估计干净的语音信号。多通道线性预测(Multi‑channel linear prediction, MCLP)便属于这类方法的范畴,并且已经被证明是一种非常有效的去混响方17‑25。在短时傅里叶变换域,MCLP方法通过谱减模型来获得期望信号,然后通过对期望信号进行先验分布建模来求解谱减模型的参数。在这类方法中,研究者非常关注期望信号的先验分布,通过先验分布建模语音信号的时变、低秩和稀疏等特性。加权预测误差(Weighted prediction error, WPE20‑21将期望信号建模为时变高斯分布,利用高斯分布的时变方差建模语音信号的时变特点。Jukic26进一步将时变高斯分布的方差进行非负矩阵分解,利用非负矩阵分解模型来建模语音信号的低秩特性,有效提升了MCLP滤波器的去混响效25。但是,非负矩阵分解模型的参数需要较多次的迭代才能够收敛。为了利用语音信号的稀疏特性,也有文献采用复广义高斯(Complex generalized Gaussian, CGG)分布建模MCLP的期望信22,其中CGG分布中的形状参数能够反映期望信号分布的稀疏程度。上述所有研究均是采用子带谱减模型在不同的频带上独立地建模期望信号。短时傅里叶变换的理27表明,不同子带之间并非完全独立,当短时傅里叶分析窗的长度远小于混响时间28,用子带谱减模型获得的期望信号存在建模误差。为了解决这个问题,Cohen30提出利用互子带滤波器建立谱减模型。但是,Cohen等所采用的互子带滤波器仅考虑了相邻的两个子带,并且建模期望信号所采用的时变高斯分布仅能利用语音信号的时变特点,这可能会限制该方法的性能。

本文基于互子带谱减模型提出一种考虑语音信号稀疏特点的多通道线性预测语音去混响方法。本文方法采用互子带谱减模型获取期望信号,然后利用CGG声源模型来建模期望信号的分布。本文方法采用的互子带谱减模型考虑了不同子带之间的相互影响,因而比子带模型具有更小的建模误差。与Cohen等提出的方法相比,本文方法采用广义高斯分布来建模语音频谱的稀疏性,从而获得了更好的去混响性能。在最大似然估计的框架下,语音去混响问题被建模为子带和互子带多通道线性预测滤波器的优化问题。基于替代最小化方法推导了保证收敛的迭代优化算法。性能验证实验以及在不同混响时间、不同声源‑传声器距离和不同通道数量的声学场景下的对比实验验证了本文方法性能的优越性。

1 基于子带谱减模型的多通道线性预测

1.1 子带谱减模型

考虑在一个房间中利用传声器阵列拾取语音信号的场景。第1个传声器拾取的信号x1(j)在时域可以被表示为

x1(j)=s(j)*h(j) (1)

式中:s(j)表示声源信号;“*”表示卷积操作;h(j)表示房间脉冲响应。利用短时傅里叶变换,式(1)在频域通常被表示为子带卷积模型

x1,f,tp=0P-1hf,p*sf,t-p (2)

式中:hf,p为声源到参考传声器的P阶滤波器的第p个系数;上标*表示共轭;sf,t表示声源信号s(j)的短时傅里叶变换,并且f1,2,,F表示频率索引,F表示频带数,t1,2,,T表示时间帧索引,T表示总时间帧数。子带卷积模型(2)可被近似

20

x1,f,t=df,t+m=1Ml=0L-1wm,f,l*xm,f,t-D-l (3)

式中:df,t为期望信号;M为传声器数量;wm,f,l为参考通道的MCLP滤波器系数;L为延迟预测滤波器的阶数;D为时间延迟。时间延迟的作用是降低预测信号和直达信号之间的相关

29式(3)中的第1项期望信号的频谱df,t=p=0D-1hf,psf,t-p,包含了声源到参考传声器的直达声部分和早期反射声部分,其中声源的早期反射声有助于提升语音质量。式(3)中的第2项是利用子带滤波器预测的晚期混响信号的频谱。

利用式(3),期望信号可以表示为

df,t=x1,f,t-wfHx¯f,t-D (4)

式中:wf=w1,fH,w2,fH,,wM,fHHCML×1为子带MCLP滤波器,wm,f=[wm,f,0*wm,f,1*,wm,f,L-1*]HCL×1,上标H表示共轭转置;x¯f,t-D=x¯1,f,t-DT,x¯2,f,t-DT,,x¯M,f,t-DTTCML×1x¯m,f,t-D=[xm,f,t-Dxm,f,t-D-1,…,xm,f,t-D-L+1]TCL×1为第m个通道延迟的观测信号,上标T表示转置。因而只需求解出子带MCLP滤波器系数,便可以通过子带谱减模型(4)得到期望信号。

1.2 声源模型、代价函数及优化方法

通过对期望信号的先验分布进行建模,然后最大化期望信号的似然函数能够求解谱减模型中的滤波器参数。加权预测误差方法假设期望信号df,t服从均值为0、方差为λf,t的时变高斯分布,有

p(df,t)=12πλf,texp-12df,t2λf,t (5)

式(4)代入式(5),WPE在每一个子带最小化期望信号的负对数似然函

18,有

(wf)=t=1Tx1,f,t-wfHx¯f,t2λf,t+t=1Tlogλf,t (6)

得到MCLP滤波器的闭式解为

wf=Rf-1pf (7)

式中

Rf=t=1Tx¯f,tx¯f,tHλf,t (8)
pf=t=1Tx¯f,tx1,f,t*λf,t (9)

声源方差λf,t的解通过令λf,t=0得到

λf,t=df,t2 (10)

一般需要对声源方差进行预处理λf,t=maxλf,t,εmin,以避免计算式(8)式(9)时产生数值奇异,其中εmin是一个很小的正数。求解出子带滤波器wf之后,加权预测误差方法通过子带谱减模型(4)得到期望信号,也就是去混响信号。

2 基于互子带谱减模型和复广义高斯分布的多通道线性预测语音去混响

短时傅里叶变换的理

27表明,不同子带之间的信号并非完全独立,这意味着利用子带谱减模型(4)获得的期望信号存在逼近误差。为了解决这个问题,本文利用互子带谱减模型来获得期望信号。相比于文献[30]中仅考虑相邻两个子带的互子带谱减模型,本文所采用的互子带谱减模型通过把互子带数量参数化来考虑更多子带之间的相互影响。进一步地,采用复广义高斯分布而不是WPE所采用的高斯分布来建模期望信号的统计特性,能够有效地利用语音信号的稀疏特性。

2.1 互子带谱减模型

时域模型(1)在频域可以被表示为一系列互子带滤波器的

28,即

x1,f,t=p=0P-1f'=0F-1hf,f',psf',t-p (11)

式中hf,f',l表示互子带滤波器。式(11)式(1)的精确表达,但是式(11)中互子带滤波器和子带滤波器的参数总量为F×F×P,远大于式(2)中的子带滤波器数量F×P。本文采用子带滤波器和2Q个子带之间的互子带滤波器来近似式(1),即

x1,f,tp=0P-1hf,f,psf,t-p+q=0Pcb-1f'=f-Q,f'ff+Qhf,f'sf',t-q (12)

相比于式(2)的子带卷积模型,式(12)由于采用了前Pcb个时刻的2Q个子带之间的互子带滤波器而能更加准确地近似时域模型(1)。本文所采用的互子带卷积模型(12)采用了2Q个互子带的滤波器可以被进一步表示

20

x1,f,t=df,t+m=1Mlbb=0L-1wm,f,l*xm,f,t-D-lbb+m=1Mlcb=0Lcb-1f'=f-Q,f'ff+Qgm,f,f'*xm,f',t-lcb (13)

式中:Lcb表示每两个子带之间互子带MCLP滤波器的阶数;gm,f,f'表示子带f和子带f'之间的互子带多通道线性预测滤波器。式(13)可以被表示为利用互子带滤波器的谱减模型

df,t=x1,f,t-wfHx¯f,t-D-gfHx˜f,t-D (14)

式中:wf=w1,fH,w2,fH,,wM,fHHCML×1为子带MCLP滤波器;wm,f=wm,f,0*wm,f,1*,…,wm,f,Lb-1*]HCL×1x¯f,t-D=x¯1,f,t-DT,x¯2,f,t-DT,,x¯M,f,t-DTTCML×1x¯m,f,t-D=[xm,f,t-Dxm,f,t-D-1,…,xm,f,t-D-Lb+1TCL×1为第m个通道延迟的观测信号;gf=g¯1,fH,g¯2,fH,,g¯M,fHHC2QMLcb×1为互子带MCLP滤波器;g¯m,f=[gm,f,f-QHgm,f,f-Q+1H,,gm,f,f+QHHC2QLcb×1gm,f,f'=[gm,f,f',0*gm,f,f',1*,…,gm,f,f',Lcb-1*HCLcb×1x˜f,t-D=x˜1,f,t-DT,x˜2,f,t-DT,,x˜M,f,t-DTTC2QMLcb×1x˜m,f,t-D=[x˜˜m,f-Q,t-DTx˜˜m,f-Q+1,t-DT,…,x˜˜m,f,t-DTTC2QLcb×1x˜˜m,f,t-D=[x˜m,f,t-D-1x˜m,f,t-D-2,…,x˜m,f,t-D-Lcb+1TCLcb×1。相比于文献[

30]所采用的仅考虑相邻两个子带之间互子带的谱减模型不同,本文互子带谱减模型(14)由于采用了2Q个子带之间的互子带滤波器能更好地建模期望信号。

2.2 声源模型和代价函数

为了更加准确地估计子带和互子带MCLP滤波器,本文方法采用复广义高斯分布来建模期望信号

p(df,t)=β2πγ2Γ2/βexp-df,tβγβ (15)

式中:γ>0为幅度参数;β为形状参数;Γ为gamma函数。当β=2时,CGG分布退化为高斯分布。当形状参数β=1时,CGG分布退化为拉普拉斯分布。形状参数反映了期望信号分布的稀疏程度,更小的形状参数导致了df,t=0处出现更高的尖峰,这带来了更稀疏的先验分

22。广义高斯分布在语音去混响、基于波束形成的语音增强以及音频盲源分离任务中已经被证明能够有效地建模声源的概率分布,并且取得了优于高斯分布的效果。

式(14)代入式(15),根据最大似然准则得到期望信号在每一个子带的负对数似然函数为

wf,gf=t=1Tx1,f,t-wfHx¯f,t-D-gfHx˜f,t-1βγβ+2logγ (16)

式(15)和WPE的代价函数具有相似的形式,优化式(15)等价于最小化被稀疏约束加权的预测误差。相比于WPE的似然函数(6)是关于期望信号的二次方,代价函数(16)是关于期望信号β次方,当0<β<2时,能够有效地利用语音信号的稀疏特性来约束期望信号。

2.3 优化方法

代价函数(16)引入了稀疏参数,所以不能直接采用MCLP滤波器的求解方式解得未知参数。本文采用MM算

31对代价函数(16)进行优化。在MM算法的框架中,首先根据目标函数设计一个具有闭式解的majorization函数(即替代函数),然后优化majorization函数而非目标函数。由于majorization函数被保证从不在目标函数的下边,所以MM算法的收敛性是被保证31

首先利用MM算法优化式(16)。考虑β0,2的情况,根据加权算术平均和几何平均不等

32,得到

df,tββ2ξf,t2-βdf,t2+1-β2ξf,tβ (17)

式中ξf,t>0为辅助变量。当且仅当ξf,t=df,t时,式(17)中的等号成立。利用式(17),本文构造一个式(16)的辅助函数+(wf,gf),并且该函数满足

(wf,gf)+(wf,gf)=f=1Ft=1T1γββ2ξf,t2-βx1,f,t-wfHx¯f,t-D-gfHx˜f,t-12-1-β2ξf,tβ (18)

式中当且仅当ξf,t=x1,f,t-wfHx¯f,t-D-gfHx˜f,t-1时等号成立。辅助函数+(wf,gf)是关于wfH,gfHH的二次函数,因而wfH,gfHH具有闭式解。联合求解子带MCLP滤波器wf和互子带MCLP滤波器gf,令+(w,gf)[wfH,gfH]=0

wfH,gfHH=Rf-1pf (19)

式中

Rf=t=1Tx¯Hf,t-D,x˜Hf,t-1Hx¯f,t-D,x˜f,t-1σf,t (20)
pf=t=1Tx¯Hf,t-D,x˜Hf,t-1Hxm,f,t*σf,t (21)
σf,t=maxdf,t2-β,εmin (22)

相比于WPE和CB‑WPE(Cross‑band WPE)方法中的归一化因子df,t2,所提方法采用的归一化因子df,t2-β通过形状参数能够有效地考虑语音信号的稀疏特性。

另外,观察到本文方法采用的归一化因子df,t2-β是WEP方法中归一化因子df,t2的广义形式。当β=0,并且Q=0时,本文方法退化为传统的WPE方法,所以传统的WPE方法没有利用语音信号的稀疏特性;当β=0,并且Q=1时,本文方法退化为CB‑WEP方法,因而本文方法相比于CB‑WPE方法能够考虑更多子带之间的互子带滤波器。总的来说,本文方法通过迭代地估计子带和互子带MCLP滤波器,能够最终通过互子带谱减模型(14)得到期望信号,本文方法被称为CB‑CGG‑WPE算法,算法1给出了所提方法的伪代码。

算法1   CB‑CGG‑WPE算法

参数设置: LDβKQLcbIJεmin

输入: xm,f,t

初始化: wf0ML×1gf02Q×1i1

iI 执行:

对于每一个频带和每一个时间帧,按照式 (14) 计算 df,t

对于每一个频带和每一个时间帧,按照式 (22) 计算 σf,t

对于每一个频带,按照式 (20) 计算 Rf

对于每一个频带,按照式 (21) 计算 pf

对于每一个频带,按照式 (19) 计算 wfgf

ii+1

结束

输出: df,t

3 实验和结果评价

本文通过一系列实验来验证所提方法的性能。实验中从TIMIT数据集中随机选取了30段12 s长的源信号组成测试集。观测信号通过将测试集中的源信号和房间脉冲响应做卷积运算得到。本文利用镜像

33生成房间脉冲响应,其中1个声源和由4个传声器组成的间距为8 cm标准线阵被放置在7 m × 5 m × 2.5 m(长×宽×高)的房间中。采用声源‑传声器间距0.5 m和2 m,分别表示近场和远场情景。因而一共有4种场景,如表1所示,分别为近场双通道、近场四通道、远场双通道和远场四通道。在每一个场景中,设置混响时间从0.5 s以0.1 s的步长变化到1 s。

表1  不同场景的传声器数量和声源‑传声器间距
Table 1  Microphone numbers and source‑to‑ microphone distances in different scenarios
场景传声器数量声源‑传声器间距/m
场景1 2 0.5
场景2 4 0.5
场景3 2 2.0
场景4 4 2.0

本文将所提方法与WPE

20和CB‑WPE30进行比较。在所有的实验中,采样率为16 kHz,短时傅里叶变换的分析窗为32 ms的Hamming窗,帧移为窗长的一半。时间延迟D=1,滤波器的长度与混响时间及通道数有23。随着混响时间从0.5 s增加到1 s,四通道场景的子带滤波器长度为L{15, 17, 19, 21, 23, 25}。相比于四通道场景,双通道场景中的MCLP滤波器长度增加一倍。MCLP滤波器被初始化为零向量。根据文献[22],本文设置所有算法的迭代次数为6,最小值εmin=10-8。本文采用PESQ(Perceptual evaluation of speech quality),归一化SRMR(Speech‑to‑reverberation modulation energy ratio),CD(Cepstral distance),FWSNR(Frequency‑weighted segmental signal‑to‑noise ratio)和ESTOI(Extended Short‑time objective intelligibility)来评价算法的性6,越高的PESQ、SRMR、FWSNR和ESTOI值以及越低的CD值表明越好的去混响性能。

3.1 性能验证实验

为了证明本文方法的有效性,首先研究了所采用的互子带滤波器和复广义高斯分布的有效性。图1展示了所提方法处理场景4中混响时间为0.5 s的数据时取得的平均PESQ随着互子带数量(2Q)和互子带MCLP滤波器长度(Lcb)变化的情况,其中形状参数β=0.5。FWSNR、SRMR、ESTOI和CD值的变化情况与PESQ相似,因而考虑到空间限制并未在文中展示。从图1可以看出,互子带数量及每一个互子带滤波器的长度对于所提方法的效果均有显著的影响。随着互子带数量的增加以及每一个互子带滤波器数量的增加,本文方法取得的指标均是先变好再变坏,并在Q=2Lcb=3附近取得最好的效果,这证明了所提互子带谱减模型以及引入更多互子带的有效性。

图1  本文方法随着互子带MCLP滤波器参数QLcb变化时取得的平均PESQ得分

Fig.1  Average PESQ scores obtained by the proposed method as a function of Q and Lcb

图2展示了所提方法处理场景4中混响时间为0.5 s的数据时取得的平均PESQ随着形状参数β变化的情况,其中Q=2Lcb=3。FWSNR、SRMR、ESTOI和CD值的变换情况和PESQ相似,因而未被展示。可以看出,当形状参数从2逐步减小为0时,本文方法取得的5个指标的平均值均是先变好再变坏,在β=0.50.6附近取得最优值。这是因为适当的形状参数能够更好地描述干净语音信号的分布,进而带来更好的去混响效果。当β=0时,本文方法退化为传统的CB‑WPE方法,性能也显著下降。这证明了本文方法引入复广义高斯分布的有效性。

图2  本文方法随着形状参数β变化时取得的平均PESQ得分

Fig.2  Average PESQ scores obtained by the proposed method as a function of β

3.2 性能对比实验

3~5分别展示了3种方法在4种场景下取得的PESQ、FWSNR和CD提升的平均值,其中横轴为混响时间,误差线表示标准差。3种方法在SRMR、ESTOI指标上的对比结果与在PESQ、FWSNR和CD指标上的对比结果类似,因而不再展示。提升值表示输出值和输入值之间的差值,其中输入值利用第1个通道的观测信号进行计算,并在图中顶部(底部)直接给出。可以看出在大部分的场景下CB‑WPE方法能取得优于WPE方法的效果,这是因为利用互子带滤波器的互子带谱减模型比仅利用子带滤波器的子带谱减模型更加精确。在4个场景下的对比实验中,本文方法CB‑CGG‑WPE均取得了最高的PESQ、FWSNR和CD下降值。这是因为本文方法不仅能够利用互子带谱减模型获得误差更小的期望信号,还通过考虑语音信号的稀疏特性能够更准确地建模期望信号的分布特点。相比于双通道的场景1和场景3,所有方法在四通道的场景2和场景4下均取得了更加明显的性能提升,这表明所提方法能从更多通道的观测信号中受益。这种现象在文献[

22‑23]中也被观察到。相比于近场的场景1和场景2,本文方法在远场的场景3和场景4下取得的性能提升则均有所下降,这说明随着声源‑传声器间距变大,去混响任务更加困难。

图3  3种方法在4种场景下处理不同混响时间的语音信号时取得的平均PESQ提升值

Fig.3  Average PESQ score improvements obtained by three algorithms for different reverberation time in four cases

图4  3种方法在4种场景下处理不同混响时间的语音信号时取得的平均FWSNR提升值

Fig.4  Average FWSNR improvements obtained by three algorithms for different reverberation time in four cases

图5  3种方法在4种场景下处理不同混响时间的语音信号时取得的平均值CD提升值

Fig.5  Average CD improvements obtained by three algorithms for different reverberation time in four cases

图6展示了一个语音样例信号加混响前后的时频谱,以及利用3种方法对该信号去混响之后得到的时频谱。该样例的混响信号通过场景4中500 ms混响时间的房间脉冲响应生成。从图6中标识的方框区域可以看出,相比于干净语音信号的时频谱,观测信号中由于存在混响成分,所以其时频谱在时间维度上存在严重的拖尾现象。3种去混响方法均能有效地去除一些混响成分。相比于其他两种方法,利用本文方法得到的去混响语音信号的时频谱最为清晰,在时间维度上的拖尾现象最弱,这也证明了本文方法的有效性。

图6  干净信号、观测的混响信号和3种方法去混响得到语音的时频谱

Fig.6  Speech spectrograms of clean, observed, and dereverberated speech signals using three different methods

本文在实录数据集上对比了几种去混响算法的性能。实录数据集包含了30条12 s长的带混响数据,这些数据是在包含两面玻璃墙的会议室由间距为8 cm的4元线阵录制,并且声源和线阵中心的距离为2 m。除了上文提到的两种基于统计信号处理的方法,本实验还增加了一种基于深度神经网络的SGMSE+方

34,该方法采用了6.5×107参数量的深度神经网络架构。本文直接采用文献[34]开源的预训练模型进行推理。考虑到SGMSE+是一种单通道语音去混响算法,表2同时展示了3种基于统计信号处理的方法在单通道场景下的性能。从表2可以看出,在单通道场景,SGMSE+方法取得的指标均显著优于基于统计信号处理的方法。但是,传统方法通过利用多通道的观测信号可以获得指标的显著提升,本文方法在四通道场景下取得的FWSRN、SRMR、CD和ESTOI值均显著优于SGMSE+在单通道下取得的相应指标。现有的大部分用于去混响的深度神经网络架构针对单通道场景进行设计,所以如何将利用多通道信息的统计信号处理方法与深度神经网络方法相结合是值得研究的方向。

表2  不同方法在实录数据集上的性能(均值±标准差)
Table 2  Performance of different methods on the real‑world dataset (mean ± standard deviation)
方法PESQFWSNRSRMRCDESTOI
观测信号 0.98±0.15 1.82±1.07 1.25±0.10 8.29±0.37 0.24±0.02
WPE (M=1) 1.08±0.12 2.20±1.23 1.50±0.13 8.10±0.40 0.28±0.02
CB‑WPE (M=1) 1.08±0.13 2.22±1.22 1.50±0.13 8.10±0.40 0.29±0.02
CB‑CGG‑WPE (M=1) 1.10±0.14 2.25±1.22 1.53±0.12 8.07±0.40 0.31±0.02
SGMSE+ (M=1) 1.56+0.11 2.84+1.23 2.31+1.18 7.83+0.47 0.35+0.04
WPE (M=4) 1.37±0.18 2.81±1.35 2.12±0.27 7.77±0.45 0.41±0.04
CB‑WPE (M=4) 1.40±0.20 2.92±1.37 2.19±0.29 7.72±0.46 0.42±0.04
CB‑CGG‑WPE (M=4) 1.53±0.24 3.08±1.36 2.40±0.33 7.62±0.47 0.47±0.03

3.3 计算复杂度对比实验

表3对比了3种算法在四通道场景下利用不同长度的预测滤波器时每迭代一次所需的平均计算时间。所有算法均在基于Intel的i7‑8550U 1.80 GHz CPU上的Matlab平台上运行。从表3中可以看出,相比于WPE方法,CB‑WPE方法的计算增加约29%,这是因为CB‑WPE比WPE多采用了2MLcb个MCLP滤波器系数。相比于CB‑WPE,所提方法的计算时间增加约23%,原因在于本文CB‑CGG‑WPE方法比CB‑WPE方法多采用了2MLcb个MCLP滤波器系数。

表3  每次迭代所需时间
Table 3  Computational time per iteration ( s )
子带滤波器长度方法
WPECB‑WPECB‑CGG‑WPE
Lb=15 1.43 1.85 2.43
Lb=17 1.58 2.12 2.63
Lb=19 1.70 2.28 2.79
Lb=21 1.85 2.44 2.95
Lb=23 2.13 2.64 3.12
Lb=25 2.29 2.80 3.33

4 结束语

本文提出了一种同时利用互子带滤波器和语音稀疏特性的多通道线性预测语音去混响方法。首先利用互子带谱减模型获得期望信号,进而采用复广义高斯分布来建模语音谱的稀疏特性。在最大似然估计框架下,语音去混响问题被转化为关于子带和互子带滤波器的最优化问题。基于辅助函数技术,本文推导了保证收敛的优化算法来迭代地估计子带和互子带滤波器参数,发现本文方法具有更加广义的形式,传统的WPE和CB‑WPE方法可以看作是所提方法的两个特例。实验验证了本文方法采用的互子带滤波器以及稀疏声源模型的有效性。在不同混响时间、不同声源‑传声器距离、不同通道数量等场景下的一系列实验验证了本文方法比现有算法具有更好的性能。

参考文献

1

NAYLOR P A, NIKOLAY D. Speech dereverberation[M]. London: Springer‑Verlag, 2010. [百度学术] 

2

齐园蕾. 语音去混响关键技术研究[M]. 北京:中国科学院声学研究所, 2020. [百度学术] 

QI Yuanlei. Key technologies for speech dereverberation research[M]. Beijing: Institute of Acoustics, Chinese Academy of Sciences, 2020. [百度学术] 

3

张雄伟, 李轶南, 郑昌艳, . 语音去混响技术的研究进展与展望[J]. 数据采集与处理, 2017, 32(6): 10691081. [百度学术] 

ZHANG Xiongwei, LI Yinan, ZHENG Changyan, et al. Speech dereverberation: Review of state-of-the-arts and prospects[J]. Journal of Data Acquisition and Processing, 2017, 32(6): 1069-1081. [百度学术] 

4

齐园蕾, 杨飞然, 杨军. 基于卡尔曼滤波的低复杂度去混响算法[J]. 应用声学, 2018, 37(4): 559566. [百度学术] 

QI Yuanlei, YANG Feiran, YANG Jun. Kalman filter based low-complexity dereverberation algorithm[J]. Applied Acoustics, 2018, 37(4): 559-566. [百度学术] 

5

YOSHIOKA T, SEHR A, DELCROIX M, et al. Making machines understand us in reverberant rooms: Robustness against reverberation for automatic speech recognition[J]. IEEE Signal Processing Magazine, 2012, 29(6): 114126. [百度学术] 

6

KINOSHITA K, DELCROIX M, GANNOT S, et al. A summary of the REVERB challenge: State‑of‑the‑art and remaining challenges in reverberant speech processing research[J]. EURASIP Journal on Advances in Signal Processing, 2016, 2016(1): 119. [百度学术] 

7

ZHANG J, PLUMBLEY M D, WANG W. Weighted magnitude‑phase loss for speech dereverberation[C]//Proceedings of IEEE International Conference on Acoustics, Speech and Signal Processing. Toronto, ON, Canada: IEEE, 2021: 57945798. [百度学术] 

8

戴礼荣, 张仕良. 深度语音信号与信息处理: 研究进展与展望[J]. 数据采集与处理, 2014, 29(2): 171179. [百度学术] 

DAI Lirong, ZHANG Shiliang. Deep speech signal and information processing:Research progress and prospect[J]. Journal of Data Acquisition and Processing, 2014, 29(2): 171-179. [百度学术] 

9

QI Y, YANG F, YANG J. A late reverberation power spectral density aware approach to speech dereverberation based on deep neural networks[C]//Proceedings of Asia‑Pacific Signal and Information Processing Association Annual Summit and Conference. Lanzhou, China: APSIPA, 2019: 17001703. [百度学术] 

10

RICHTER J, WELKER S, LEMERCIER K, et al. Speech enhancement and dereverberation with diffusion‑based generative models[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2023, 31: 23512364. [百度学术] 

11

张鹏程, 郭海燕, 王婷婷, . 基于联合图学习的多通道语音增强方法[J]. 数据采集与处理, 2023, 38(2): 283292. [百度学术] 

ZHANG Pengcheng, GUO Haiyan, WANG Tingting, et al. Multi-channel speech enhancement based on joint graph learning [J]. Journal of Data Acquisition and Processing, 2023, 38(2): 283-292. [百度学术] 

12

MALIK S, SCHMID D, ENZNER G . A state‑space cross‑relation approach to adaptive blind SIMO system identification[J]. IEEE Signal Processing Letters, 2012, 19(8): 511514. [百度学术] 

13

SCHMID D, ENZNER G, MALIK S, et al. Variational Bayesian inference for multichannel dereverberation and noise reduction[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2014, 22(8): 13201335. [百度学术] 

14

张航, 赵尚, 林志斌, . 基于多通道解卷积的车内声重放系统优化设计[J]. 南京大学学报(自然科学), 2021, 57(6): 10231031. [百度学术] 

ZHANG Hang, ZHAO Shang, LIN Zhibin, et al. Optimal design of automotive audio sound reproduction system based on multi-channel deconvolution[J]. Journal of Nanjing University(Natural Sciences), 2021, 57(6): 1023-1031. [百度学术] 

15

KHONG W H, LIN X, NAYLOR P A. Algorithms for identifying clusters of near‑common zeros in multichannel blind system identification and equalization[C]//Proceedings of IEEE International Conference on Acoustics, Speech and Signal Processing. Las Vegas, NV, USA: IEEE, 2008: 389392. [百度学术] 

16

SCHMID D, ENZNER G. Cross‑relation‑based blind SIMO identifiability in the presence of near‑common zeros and noise[J]. IEEE Transactions on Signal Processing, 2012, 60(1): 6072. [百度学术] 

17

KINOSHITA K, DELCROIX M, NAKATANI T, et al. Suppression of late reverberation effect on speech signal using long‑term multiple‑step linear prediction[J]. IEEE Transactions on Audio, Speech and Language Processing, 2009, 17(4): 534545. [百度学术] 

18

YOSHIOKA T, NAKATANI T. Generalization of multi‑channel linear prediction methods for blind MIMO impulse response shortening[J]. IEEE Transactions on Audio, Speech, and Language Processing, 2012, 20(10): 27072720. [百度学术] 

19

NAKATANI T, JUANG B H, YOSHIOKA T, et al. Speech dereverberation based on maximum‑likelihood estimation with time‑varying Gaussian source model[J]. IEEE Transactions on Audio, Speech, and Language Processing, 2008, 16(8): 15121527. [百度学术] 

20

NAKATANI T, YOSHIOKA T, KINOSHITA K, et al. Speech dereverberation based on variance‑normalized delayed linear prediction[J]. IEEE Transactions on Audio Speech, and Language Processing, 2010, 18(7): 17171731. [百度学术] 

21

NAKATANI T, JUANG B H, YOSHIOKA T, et al. Importance of energy and spectral features in Gaussian source model for speech dereverberation[C]//Proceeding of IEEE International Conference on Acoustics, Speech and Signal Processing. New Paltz, NY, USA: IEEE, 2007: 299302. [百度学术] 

22

JUKIC A, VAN WATERSCHOOT T, GERKMANN T, et al. Multi‑channel linear prediction‑based speech dereverberation with sparse priors[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2015, 23(9): 15091520. [百度学术] 

23

WITKOWSKI M, KOWALCZYK K. Split Bregman approach to linear prediction based dereverberation with enforced speech sparsity[J]. IEEE Signal Processing Letters, 2021, 28: 942946. [百度学术] 

24

CHETUPALLI S, SREENIVAS T. Late reverberation cancellation using Bayesian estimation of multi‑channel linear predictors and student’s t‑source prior[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2019, 27(6): 10071018. [百度学术] 

25

JUKIC A, MOHAMMADIHA N, WATERSCHOOT T V, et al. Multi‑channel linear prediction‑based speech dereverberation with low‑rank power spectrogram approximation[C]//Proceedings of IEEE International Conference on Acoustics, Speech and Signal Processing. South Brisbane, QLD, Australia: IEEE, 2015: 96100. [百度学术] 

26

LEE D D, SEUNG H S. Learning the parts of objects by non‑negative matrix factorization[J]. Nature, 1999, 401(6755): 788791. [百度学术] 

27

AVARGEL Y, COHEN I. System identification in the short‑time Fourier transform domain with crossband filtering[J]. IEEE Transactions on Audio, Speech, and Language Processing, 2007, 15(4): 13051319. [百度学术] 

28

刘杨, 杨飞然, 梁兆杰, . 基于卡尔曼滤波的STFT域回声抵消算法[J]. 声学技术, 2022, 41(5): 757762. [百度学术] 

LIU Yang, YANG Feiran, LIANG Zhaojie, et al. Kalman filter based acoustic echo cancellation in the STFT domain[J]. Technical Acoustics, 2022, 41(5): 757-762. [百度学术] 

29

LOHMANN T, WATERSCHOOT T, BITZER J, et al. Dereverberation in acoustic sensor networks using weighted prediction error with microphone‑dependent prediction delays[C]//Proceedings of IEEE International Conference on Acoustics, Speech and Signal Processing. Florence, Italy: IEEE, 2023: 15. [百度学术] 

30

ROSENBAUM T, COHEN I, WINEBRAND E. Crossband filtering for weighted prediction error‑based speech dereverberation[J]. Applied Sciences, 2023, 13(7): 9537. [百度学术] 

31

SUN Y, BABU P, PALOMAR D P. Majorization‑minimization algorithms in signal processing, communications, and machine learning[J]. IEEE Transactions on Signal Processing, 2016, 65(3): 794816. [百度学术] 

32

CVETKOVSKI Z. Inequalities: Theorems, techniques and selected problems[M]. Berlin Heidelberg: Springer, 2012: 7475. [百度学术] 

33

ALLEN J B, BERKLEY D A. Image method for efficiently simulating small‑room acoustics[J]. The Journal of the Acoustical Society of America, 1979, 65(4): 943950. [百度学术] 

34

JULIUS R, SIMON W, JEAN‑MARIE L, et al. Speech enhancement and dereverberation with diffusion‑based generative models[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2023, 31: 23512364. [百度学术]