第39卷第6期声学技术Vol.39, No.6
引用格式:孙杰, 王宏, 吾守尔·斯拉木. 结合注意力机制和因果卷积网络的维吾尔语方言识别[J]. 声学技术, 2020, 39(6): 697-703. [SUN Jie, W ANG Hong, Wushouer Silamu. The Uyghur dialect recognition based on attention mechanism and causal convolution networks[J]. Technical Acoustics, 39(6): 697-703.] DOI: 10.16300/jki.1000-3630.2020.06.008
结合注意力机制和因果卷积网络的
维吾尔语方言识别
孙杰1,2,王宏2,吾守尔·斯拉木1,2
(1. 新疆大学信息科学与工程学院,新疆乌鲁木齐830046;2.昌吉学院,新疆昌吉831100)
摘要:针对传统x-vector模型生成方言语音段级表示时,未考虑不同帧级特征对方言辨识作用不一致的问题,以及维吾尔语的黏着性特点,提出结合注意力机制和因果卷积网络的维吾尔语方言识别方法。首先使用多层因果卷网络实现方言语音序列建模,然后采用空洞卷积核增大感受野扩展采样范围,最后使用注意力池化获取方言语音段级特征。
维吾尔语方言识别实验结果表明,所提方法较标准x-vector模型方言识别的识别准确率提升了23.19个百分点。
关键词:注意力机制;因果卷积网络;空洞卷积;维吾尔语方言;识别
中图分类号:H107 文献标识码:A 文章编号:1000-3630(2020)-06-0697-07
The Uyghur dialect recognition based on attention mechanism
and causal convolution networks
SUN Jie1,2, W ANG Hong2, Wushouer Silamu1,2
岐(1. College of Information Science and Engineering, Xinjiang University, Urumqi 830046, Xinjiang, China;
2. Changji University, Changji 831100, Xinjiang, China)
Abstract:Considering that different frame features have different effects on dialect recognition when the traditional x-vector model is used to generate segment representation of dialect speech, and that
Uighur language is an agglutinative language, a recognition method of Uighur dialect based on attention mechanism and causal convolution network is proposed. First, the multi-layer causal volume network is used to model the speech sequence, then the dilated convolu-tion kernel is used to expand the sampling range of the receptive field, and finally the attention pooling is used to obtain the speech segment features. The experimental results of Uyghur dialect recognition show that the accuracy of the proposed method is 23.19 percentage higher than that of the standard x-vector model.
Key words: attention mechanism; causal convolution networks; dilated convolution; Uyghur dialect; recognition
0 引言
方言识别亦称方言分类,属于语种识别的范畴。方言作为特定共同语的地方变体,具有“互相通话”功能[1],在语言学上具有很大的相似性,因此方言识别要比语种识别更具挑战性[2]。
现代维吾尔语划分为3个方言区:中心方言、和田方言与罗布方言。中心方言包括伊犁、乌鲁木齐、吐鲁番、哈密、喀什和塔里木土语;和田方言由和田、墨玉、洛浦、皮山、策勒、于田和民丰七收稿日期: 2020-04-16; 修回日期: 2020-05-29
基金项目: 国家自然科学基金(U1435215、U1603262、61433012、201704041014)
作者简介:孙杰(1976-), 男, 安徽阜阳人, 博士研究生, 副教授, 研究方向为方言识别、语音识别和说话人识别。
通讯作者: 吾守尔·斯拉木,E-mail:*************** 个土语组成;罗布方言主要是现今若羌县境内的罗布人所操土语,由于地理位置闭塞,保留较多古语。目前,关于维吾尔语方言识别的研究较少,仅文献[3]提出了基于长短时记忆神经网络-统一背景空间(Long Short Term Memory-Universal Background Model, LSTM-UBM)的维吾尔语方言识别方法。很多研究者从语言学的角度对维吾尔语方言进行了辨识:依据动词后是否缀接-mix判断南部方言与北部方言[4];把是否存在元音的唇部和谐作为区别罗布方言和中心方言的标准[5-7],但是这些都属于“口耳之学”,很难用计算机进行处理。
10种冬眠的动物主流的方言识别技术是建立在高斯通用背景模型(Gaussian Mixture Model-Universal Background Model, GMM-UBM)[8]和联合因子分析技术(Joint Factor Analysis, JFA)[9]上的全变量子空间建模方法(Total Variability, TV),它用一个低维度(通常是400
698 声 学 技 术 2020年
维或600维)的i-vector 矢量表征方言[10]
,取得较好识别效果,但是i-vector 对训练和测试方言语音的时长、噪声和信道差异都很敏感,对训练数据的要求较为严苛。随着深度神经网络在说话人识别方面取得的巨大成功,研究者从特征域和模型域分别提出了深度瓶颈特征(Deep Bottleneck Feature, DBF)[11-12]和深度神经网络通用背景[13-14]的方言识别TV 模型。由于使用区分性的DNN 网络获取不同方言语种的音素差异,剔除了与音素无关的噪声干扰,因而提取的方言语种i-vector 更具鉴别性,其识别性能好于传统的GMM-UBM 生成性模型,但是模型训练需要大量的标注语料,对于方言识别而言代价较大。近期,基于词嵌入技术的深度神经网络在自然语言处理方面取得良好效果[15],受此启发Snyder 等学者提出了x-vector 模型[16-18],
其实质是一种端到端(End-to-End)的方言识别模型,相关实验表明长时语音条件下的方言识别准确率高于i-vector ,且与DNN-UBM 相当。然而,x-vector 模型用池化层将帧级别特征转换为句子级特征时,对语音段的帧特征计算了简单算数平均数,即对不同帧采用相同的权重,但是,实际语音中每帧信号对方言语种的辨识贡献度是不一致的。
本文在对维吾尔语方言进行识别时,做了两方面的创新工作:一是在x-vector 模型的池化层引入了注意力机制,对引起方言差异的语音帧在计算段级特征时给予较大的权重;二是采用因果卷积网络获取维吾尔语方言语音帧的因果关系,实验结果表明,融合了两种技术的x-vector 系统的方言识别效果进一步提升。
1 注意力机制
1.1 注意力机制涵义
注意力机制实质是模仿人类观察物体时大脑视觉系统处理信息的方式,即将有限的注意力放在众多信息中的重要区域,挑选出关键信息,抑制或忽略其他无关信息[19-20]。方言语种识别任务中应用注意力机制的目标是挑选出与当前任务最为相关和最为关键的信息,进而增强识别效果。 1.2 多头注意力模型
多头注意力(Multi-head Attention)机制[21]使用多个查询状态{}12,,,M q q q =⋅⋅⋅Q ,并行地从输入特征中遴选出多个关键信息,用不同的视角观察不同区域的信息,并将每个单头注意力进行拼接,最终构成多头注意力的输出值,其模型如图1所示。
图1 多头注意力模型
Fig.1 Multi-head attention model
计算多头注意力时,首先对查询状态Q 、候选状态K 和输入值V 进行线性变换,其变换表达式为
(,,)att(,,)i i i i H =K V Q K V Q KW VW QW (1) 其中:att()⋅表示注意力得分计算函数;i K W 、i V W 和i Q W 表示第i 个输入的线性变换矩阵,每个头的线性变换参数不共享,也即每次对Q 、K 和V 进行线性变换的参数都不一样,目的是为获取不同的注意力。然后再将每个头值输入缩放点积注意力模块,计算各自的注意力,并将所有输出进行拼接,其表达式为
12att(,,)h H H H =⊕⊕⋅⋅⋅K V Q (2) 其中:h 表示注意力的计算次数,属于超参数。简单拼接后得到的多头注意力内部结构松散,对其实施线性变换可以使最终得到的多头注意力更加紧凑。另外,每个单头注意力张成一个特征子空间,多头注意力机制的优势就是从不同注意力张成的多个子空间中学习到互为补充的有用信息。 1.3 自注意力模型
自注意力机制[22]是对多头注意力技术的进一步改进,它更加注重内部信息的学习,充分挖掘输入数据各部分的依赖性关系,适合提取语音段内部各帧之间的相互关系。自注意力机制本质就是用输入特征{}12,,,N X X X =⋅⋅⋅X 同时表示Q 、K 和V ,并且令===Q K V X ,进而达到自我关注和自我挖掘。自注意力机制经常与多头注意力机制相结合使用,其结合公式为
T T
T T multi_H(,,)multi_H(,,)=
=⊕⋅⋅⋅⊕K V Q X X X X X
(3)
第6期 孙杰等:结合注意力机制和因果卷积网络的维吾尔语方言识别 699
其中:x d 表示输入特征的维度,在式(3)中主要作用是防止过拟合;softmax()⋅为归一化指数函数,具
体计算公式为e ()e i
j x i x j
x α=∑。
五音不全怎么学唱歌2 因果卷积
2.1 因果卷积网络
卷积神经神经网络(Convolutional Neural Net-works, CNN)通常是在空间维度处理信息,例如图
像识别中对像素信息的处理,因此使用CNN 处理语音信号时,通常将语音信号转换为语谱图的形式再进行处理。为使CNN 直接处理时序特征的语音信号,可以使用一维卷积网络,并通过增加卷积层数,同时配合一定的门控激活函数,实现对时序信号的“因果卷积”处理,门控激活为
tanh()()f g y σ=∗⋅∗W x W x (4) 其中:x 、y 分别表示神经元的输入和输出;f W 、g
W 分别表示卷积权重系数;∗代表卷积操作;()σ⋅表示sigmoid 函数。这种多层的一维卷积网络称之为因果卷积网络(Causal Convolution Networks, CCN)[23]。输入层的序列数据通过因果卷积网络映射为标记序列,即11CNN :N N f X Y ++→,从而实现序列数据建模。 2.2 空洞卷积
因果卷积通过增加网络层数以及增大卷积核的尺寸实现长时序列预测,同时也带来梯度弥散、模型复杂和拟合效果不佳等问题,针对此问题通过引入空洞卷积(Dilated Convolution)[24-25]采样的方式进一步优化因果卷积网络。所谓空洞卷积采样就是在卷积核中加入空洞,从而增大感受野,扩展了观察数据的范围。空洞卷积采样可以表示为
1
()()()()k d s d i i F s f s f i −−⋅==∗=⋅∑x x
(5)
其中:s 表示输入序列的长度;f 为卷积核;d 为空洞因子;∗表示卷积操作;k 为卷积核尺寸;s d i −⋅卷积的历史跨度;d ∗表示带有d 个空洞因子的卷积操作。
3 结合注意力和因果卷积的方言识别模型
3.1 方言识别模型
首先,尽管基于x-vector 模型的语种识别系统
取得了一定的识别效果,但是对维吾尔语这种黏着语而言,构成词语的词干和词缀的作用不同,与词干、词缀对应的所有帧的权重应该也不相同。其次,不同方言、同一个音素会有不同的音位变体,这些音位变体会引起语音的较大差异,因此在计算均值时可以为其对应的帧特征分配更大的权重。另外,维吾尔语方言语音变化呈现出显著的先后关系。由于这三方面原因,本文使用自注意力机制和因果卷积网络对传统的x-vector 语种识别模型进行改进,图2描绘了该系统架构,其中diac i 为第i 类方言的缩写。该模型首先使用因果卷积网络提取方言语音的帧级特征,使用注意力模块计算帧级特征对应的权重,其次结合获取的权值在池化层对语音段计算加权统计信息,后使用一维卷积层获取方言的x-vector 辨别矢量,最后使用softmax 层输出方言种类的后验概率P 。图2中,1,1 CONVID@128表示卷积核为1×1、个数为128的一维卷积。
图2 结合注意力和因果卷积的方言识别模型
Fig.2 Dialect recognition model combining attention mechanism and causal convolution networks
维吾尔语方言语音结构中元音和谐对辨识不同方言具有重要作用,元音和谐现象在维吾尔语中很常见,并且元音和谐发生在音素与音素之间,表现为前一个音素中的音位影响后一个音素中元音的发音。通常一个音素对应一个或几个语音帧,因此可以认为语音中前后帧之间具有较强的因果关系。图
3为使用带有空洞卷积核的因果网络提取和田方言语音特征的过程示意图,音频语义为 “vRvmqigE bardiGan poyiz Kaysi wogzaldin maN-do(去乌鲁木齐的火车从哪个车站发车)?”
700 声 学 技 术 2020年
图3 因果网络提取和田方言语音特征示意图
Fig.3 Diagram of extracting speech features of Hotan dialect by causal networks
在“乌鲁木齐”(标注为vRvmqi)一词中,前元音/v/和前元音/i/发生和谐,根据黏着语的特性:(词根不断缀接其它音素),可以认为维吾尔语方言语音每一帧之间都具有因果关系。从生成模型的角度,这一段
语音信号帧的联合概率可以表示为
010
()(|,,)T
t t t p x p x x x −==Π⋅⋅⋅ (6)
其中:0T {,,}x x =⋅⋅⋅x 表示语音段的帧信号,而使用空洞卷积核的因果卷积网络,通过考虑历史语音帧的因果卷积及门控激活函数的点积运算,可近似计算式(6)的联合概率。
3.2 结合注意力机制的池化层
使用注意力机制的维吾尔语方言识别模型中,采用了一个受限玻尔兹曼机计算查询状态和候选状态的相似度,其计算公式为
T softmax[()]f =A H W
快捷支付怎么开通(7)
其中:12[,,,]T ααα=⋅⋅⋅A 表示方言语音帧注意力权重矩阵;12[,,,]T h h h =⋅⋅⋅H 表示由因果卷积网络隐
藏层的输出值组成的矩阵,它同时作为注意力网络的输入值,其维度为h d T ×,而h d 是t h 的维度;W 为受限玻尔兹曼机的权值矩阵,()f ⋅是ReLU 激活函数。通过式(7)即可得到方言帧级特征对应的权值,然后池化层就可以计算加权统计量,计算公式为
1
,1,,T
t t t t T α===⋅⋅⋅∑h µ
(8) 1,,t T σ=⋅⋅⋅
(9)
另外,为从维吾尔方言语音帧特征构成的不同
子空间中提取信息,注意力模块使用了多头注意力
机制,平行地对因果卷积网络的输出帧特征重复计算注意力值,因此得到多组方言语音段的均值和标
准差,所以需要对其进行拼接形成方言语音段的最终表示。
4 实 验
4.1 方言数据集和评测指标
本文研究的维吾尔语方言识别目前在国际和国内均未有公开的标准测试数据集。清华大学公开的维吾尔语语音数据集THUYG-20只提供了说话人信息和文本标注信息[26],并没有说明方言语种类别,因此只能用于维吾尔语说话识别和自动语音识别任务。本文实验使用的方言语种数据集是由新疆大学多语种信息技术重点实验室创建,三种方言语料均为手机录音的朗读式语句,采样频率为16 KHz ,采样位数16 bits ,语音时长为5~30 s ,保存格式为W A V 类型。其中中心方言与和田方言男女发音人各为41人,每人朗读120句,而罗布方言女性发音人比例略大于男性发音人,分别为49人和33人,每人朗读120句,三种方言的语料各有9 840句。
方言和语种识别性能评测中经常也会使用方言语种识别正确率[27]作为评测指标,即被正确分类语音段的百分比acc P :
c
acc t 100N P N =× (10) 其中:t N 表示测试方言语音段的总数;c N 表示被正确分类的语音段总数。
第6期 孙杰等:结合注意力机制和因果卷积网络的维吾尔语方言识别 701
4.2 系统设计
梦见老鼠是什么意思为验证本文所提算法的有效性,按照文献[16]中的配置搭建基于TDNN 的x-vector 方言识别基线系统,称之为TDNN-xvec 。为探索因果卷积网络提取方言语音帧级特征对方言识别效果的影响,设计一个基于因果卷积的x-vector 方言识别系统,其卷积层同样设置为5层,第一层至第五层空洞因子分别设置为d =1、d =2、d =4、d =8和d =16,为了保持输入序列和标注序列的一致性,所有卷积层的滤波器数量均相同,并称为CCN-xvec 。另外,为验证结合注意力机制和因果卷积网络维吾尔语方言的识别效果,在CCN-xvec 系统中加入注意力模块,获取权重系数的受限玻尔兹曼机的输入和输出神经元数量均与因果卷积层的输出帧数保持一致,将该系统称之为CCN-att-xvec 。最后,对基线TDNN- xvec 方言识别系统加入注意力模块,将该系统称TDNN-att-xvec 。 4.3 模型训练
结合注意力机制和因果卷积网络的x-vector 方言模型训练流程如图4所示,为充分利用有限方言语料,并增强模型的稳定性和可靠性,首先在从维吾尔语三种方言语料中挑选训练集和测试集时,采用十折交叉验证法,同时保证训练集数据不出现在验证集中。然后采用G.723.1技术规范[28]对语音进行端点检测和倒谱均值减处理,分帧后每帧提取30维MFCC 系数,同时计算其一阶和二阶差分系数,考虑到基线系统TDNN-xvec 的第一层组合了当前时刻的前后两帧{1}212t t t t t −−++,,,,作为输入,CCN-att-
xvec 同样使用5帧共计450维参数作为CCN 的输入。采用有监督方式对神经网络训练,训练目标是最小化负对数似然函数,损失函数使用交叉熵函数。采用反向传播和梯度下降算法更新网络参数,参数更新公式为保送研究生
111(1)d t t t v v ββθ−=+− (11)
2212(1)d t t t m m ββθ−=+−
(12) 1t t θθη−=−
(13)
式(11)~(13)中:t v 、t m 和t θ分别表示t 时刻的冲量、
图4 方言识别系统训练过程
Fig.4 Training process of dialect recognition system
光滑系数和网络参数;1β和2β为超参数;η为学习率;ε为保持数值稳定的参数,初始学习率设置为0.
01,共计迭代40个周期。 4.4 实验结果 4.4.1 实验一
实验一对比了不同滤波器数量时的TDNN-xvec 和CCN-xvec 模型的方言识别性能。将TDNN-xvec 和CCN-xvec 模型中卷积层中卷积核数量分别设置为64、128、256、512,实验中所有网络的卷积核尺度固定为7。图5为方言识别结果,从图中可以看出,TDNN-xvec 方言识别系统随着卷积核数量的增加,识别正确率不断降低,两者之间呈现明显的负相关性。而CCN-xvec 方言识别系统卷积核从64个增加到128个时,识别正确率最高,正确率为85.80%,继续增加卷积核数量,方言识别正确率缓慢降低。值得注意的是,具有不同卷积核数量的CCN-xvec 模型的方言识别正确率都高于对应的TDNN-xvec 模型。这说明在x-vector 框架下,因果卷积网络比TDNN 更能够提取到具有辨别性的维吾尔语方言语音帧级特征。
图5 不同尺度卷积核模型的方言识别正确率
Fig.5 Correctness rate of dialect recognition based on the
convolution kernel model with different scales
4.4.2 实验二
实验二对比了添加注意力机制后TDNN-att-xvec 和CCN-att-xvec 模型的方言识别性能。实验时将计算
帧权重的受限玻尔兹曼机的神经元与卷积核的数量设置为一致,加入注意机制后模型的维吾尔语方言识别结果如图6所示。从实验结果来看,一个明显的结论就是CCN-att-xvec 系统的识别性能始终优于TDNN-att-xvec 系统的识别性能,并且两个模型在卷积核数量为128个时性能最优。另外将实验二与实验一进行对比可以发现两点:(1) 加入注意力机制的CCN-att-xvec 比没有融合注意力机制的CCN-xvec 识别正确率总体上有一定程度提升,识
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论