未来智讯 > 人脸语音识别论文 > 语音情感常用特征识别本能分析

语音情感常用特征识别本能分析

发布时间:2018-11-28 01:06:04 文章来源:未来智讯    
    语音情感常用特征识别本能分析作者: 李文华   摘要:在语音情感识别中,情感特征的采用与组合是重要环节。在包含6种情感的普通话情感语料库中,采用了一些常用的情感特征:Mel频率倒谱系数、基频、短时平均幅度能量、短时过零率和第一共振峰等,进行提取并计算得到12个统计量,最终利用基于支持向量机(SVM)的语音情感识别系统进行分类。实验结果证明该方法得到了较高的平均情感识别率,且情感特征的采用、抽取及建模是合理、有效的。同时,得到不同有效的语言情感特征的识别贡献率并对其进行排序。在传统语音情感识别研讨中选取定性的情感特征识别分析,而该文选取定量的情感特征识别分析,为今后语音情感识别的相关研讨特供了重要参考价值与帮助。
  关键词:语音情感识别;语音情感特征的采用;定量的情感特征识别分析;支持向量机
  中图分类号:TP311 文献标识码:A 文章编号:1009-3044(2017)04-0173-02
  1 背景
  语音是人们交流的主要方式,语音信号不但传递语义信息,同时承载了说话人的情感状态。情感因素的引入能使人机交互变得更加自然和谐。因此,语音信号的情感识别成为近年来智能人机交互领域的研讨热点[1]。如何使计算机从语音信号中自动识别出说话人的情感状态及其变化,是实现自然人机交互界面的关键前提,具有很大的研讨价值和应用价值[3]。例如:能够用于对电话服务中心用户紧急程度的分拣,从而提高服务质量;用于对汽车驾驶者的精神状态进行监控,从而在驾驶员疲劳时进行提醒,避免交通事故的发生[4]。
  2 语音情感识别系统结构
  本文的语音情感识别系统结构如图1所示,每个步骤之间通过样本数据进行关联。情感特征的提取,计算12个统计量参数和SVM建模是其中的关键环节。
  3 语音情感特征的提取
  3.1 MFCC特征
  MFCC通过构造人的听觉模型,以语音通过该模型的输出为声学特征,直接通过 DFT( 离散傅里叶变换) 进行变换,将频谱最后转化为倒谱域上的系数[6],具有较好的识别本能和抗噪能力,它的值大体上对应于实际频率的对数分布关系,具体关系可用式(1)表示:
  3.2 基音频率特征
  基音是指发浊音时声带振动所引起的周期性。声带振动频率称为基频。本文选取短时自相关函数来检测基音:
  3.3 能量特征
  语音信号的能量特征与情感的表达具有较强相关性[7-8]。语音信号能量常常有短时能量和短时平均能量两类。由于短时能量计算量较大且对高电平敏感,本文选取短时平均函数。
  假如第n 帧语音信号[xnm]的短时平均函数为[En],则[En]的估计表达式为:
  3.4 短时过零率
  短时过零率表示一帧语音中语音信号波形穿过横轴(零电平)的次数。它能够用来区分清音和浊音,这是因为语音信号中的高频段有高的过零率,低频段过零率较低。加窗后第n帧语音信号[xnm]的短时过零率为:
  3.5 共振峰特征
  共振峰是指在声音的频谱中能量相对集中的一些区域,不仅是音质的决定因素,而且反映了声道(共振腔)的物理特征,代表了发音信息最直接的来源。本文选取线性预测法求取了第一共振峰。
  4 SVM分类模型的构建
  SVM是建立在结构风险最小化规则的基础上的,它根据有限的样本信息,通过对推广误差上界的最小化达到最大的泛化能力。对于线性可分的样本空间,该算法寻找最优分类超平面,可以同时最小化经验误差与最大化几何边缘区,最优分类超平面可以尽可能多地将两类样本准确地分离,同时使分离的两类样本距离超平面最远,这是一个受限的二次规划问题求解。
  对于非线性可分的问题,支持向量机的基本思维是: 利用核函数将输入特征的样本点映射到高维特征空间中,数据被超平面分割,在高维空间中变得线性可分,核函数以及超平面的构造是解决非线性可分问题的关键。核函数的形式及其参数的确定决定分类器类型和复杂程度。最优分类超平面保证不同类别可以准确分类,以使经验风险最小; 保证分类间隔达到最大,以使置信度最小。
  设有两类样本数据为( xi,yi) ,i = 1,2,…,L,x∈Rd,y∈{ + 1,- 1} 是类别标号,SVM 需要解决下列优化问题:
  其中: w 为权系向量; b 为分类阈值; ξi≥0 为非负松弛变量;C 是错误惩罚因子,它抑制着对错分样本的惩罚程度,影响对数据的拟合程度和模型的泛化能力[9]。ξi是松弛变量,抑制着离群点的进一步处理。数据空间样本点 xi和 xj,使用数据空间到特征空间的映射函数Φ,并 应 用 核 函 数 变 换 等 式: ( xi,xj) → K( xi,xj) =Φ( xi) ・Φ( xj) ,最后得分类超平面函数为:
  5 实验与结果分析
  本文 实 验 所 用 语 音 库 为中科院汉语情感语料库CASIA[10] 。汉语情感语料库由中科院自动化所模式识别国家重点实验室人机语音交互课题组录制并提供。共包括两名男性和两名女性专业发音人,共分为6 种情感:生气( angry) 、害怕( fear) 、高兴( happy) 、中性( neutral)、难过( sad) 、惊喜( surprise) ,50 句录音脚本,最后得到 1 200 句语音情感。数据集以 16k Hz采样率,16 bit量化,wav 格式存储。实验中,最初对所有的1200句语料�M行预处理、分帧和加窗,再基于各语音分析帧提取声学特征。
  本文实验的仿真实验环境为 MATLAB2012a。采用的情感特征为MFCC、基频、短时平均能量、短时过零率和第一共振峰。为了降低不同人在表达不同情感时的个人差异造成的影响,本文实验过程中将提取的情感特征进行归一化处理。归一化采取将同一个人的四种情感语音信号的情感特征放在一同归一化处理,并将归一化后的情感特征作为SVM 分类器的训练样本和测试样本。   实验选取 SVM 分类器, 使用台湾大学林智仁开发的 Libsvm 工具。Libsvm 可以快速并且有效实现 SVM 所需要的各种功能, 其中使用的核函数为RBF 核函数[11] 。为了验证生成模型的可靠性和实用性,本文选取10折交叉验证。反复实验10次,每次将90% 的 数 据用于训练,而10%留作测试数据。
  经过测试,实验得到的结果如表1。所从表1中的对角线上观察到,6 种 情 感 的 识 别 率 分 别 为 70%、75%、85%、90%、55%和95%。其中能够看到,高兴、中性、惊讶的识别率较高,样本的总识别率为77%。
  表1 测试样本识别结果
  [测试样本\&angry\&fear\&happy\&neutral\&sad\&surprise\&angry\&70%\&0\&10%\&10%\&0\&10%\&fear\&0\&75%\&0\&15%\&5%\&5%\&happy\&0\&0\&85%\&5%\&0\&10%\&neutral\&0\&5%\&0\&90%\&5%\&0\&sad\&0\&15%\&15%\&15%\&55%\&0\&surprise\&0\&0\&5%\&0\&0\&95%\&平均
  识别别率\& \&\&77%\&\&\&\&]
  本文还将5有效的情感特征对每个特征单独进行情感识别测试,从表3能够看出,这5种情感有效特征依据识别贡献比重降序排列为:MFCC>短时平均能量>基频>第一共振峰>短时过零率。
  识别贡献比重特征排列:MFCC>短时平均能量>基频>第一共振峰>短时过零率\&]
  6 结束语
  本文语音情感常用特征识别本能分析研讨中使用MFCC、基频、短时平均能量、短时过零率和第一共振峰作为基本常用特征,SVM作为分类器。该方法得到了较高的平均情感识别率,且情感特征的采用、抽取及建模是合理、有效的。 同时,得到有效情感特征的识别贡献率降序排序:MFCC>短时平均能量>基频>第一共振峰>短时过零率。在传统语音情感识别研讨中选取定性的情感特征识别分析,而本文选取定量的情感特征识别分析,为今后语音情感识别的相关研讨特供了重要参考价值与帮助。
  参考文献:
  [1] 余伶俐, 蔡自兴, 陈明义. 语音信号的情感特征分析与识别研讨综述[J]. 电路与系统学报, 2007, 12(4): 76-84.
  [2] BANZIGER T, SCHERER K R. Using actor portrayals to systemati-cally study multimodal emotion expression: the GEMEP corpus[C]// PAIVA A, PRADA R, PICARD R W. Proceedings of the 2nd International Conference on Affective Computing and Intelligent Interaction. Lisbon, Portugal, 2007: 476-487.
  [3] 韩文静, 李海峰, 阮华斌, 等. 语音情感识别研讨进展综述[J]. 软件学报, 2014, 25(1): 37-50.
  [4] 史峰, 王小川, 郁磊, 等. matlab 神经网络 30 个案例分析[M]. 北京: 航空航天大学出版社, 2010: 122-128.
  [6] 赵力. 语音信号处理[M].2版. 北京: 机械工业出版社, 2011: 51-52.
  [7] Muttik I, Barton C. Cloud security technologies[R]. Information security technical report. 2009 Elsevier Ltd All rights reserved.2009.
  [8] Christodorescu M, Sailer R, Schales D L. Cloud Security Is Not(Just) Virtualization Security[C]. IBMT. J. Watson Research, 2009.
  [9] DUDA R O, HART P E, STORK D G.模式分类[M]. 李宏东, 姚天翔, 译. 2版. 北京: 机械工业出版社, 北京: 中信出版社, 2010: 211-215.
  [10] 中科院自动化研讨所人机语音交互课题组. 汉语情感语料库[DB/OL].[2012-09-22].http://www.datatang.com/data/39277.
  [11] Chang Chih-Chung, Lin Chih-Jen. LIBSVM: a library for support vector machines[EB/OL]. (2001)[2011-05-20]. http://www.csie.ntu.edu.tw/~cjlin/papers/libsvm. pdf.
  [12] �_宪华, 杨大利, 徐明星, 等. 面向非特定人语音情感识别的PCA 特征选择方法[J]. 计算机科学, 2011, 38(8): 212-213.
  [13] 尤鸣宇. 语音情感识别的关键技能研讨[D]. 杭州: 浙江大学, 2007.
转载请注明来源。原文地址:https://www.7428.cn/page/2018/1128/48198/
 与本篇相关的热门内容: