未来智讯 > 神经网络论文 > 基于卷积神经网络的微观情绪识别
基于神经网络卷积的微观情绪识别:未知摘要:卷积神经网络(CNN)是一种人工神经网络,人工智能处理混沌处理问题出现了高效特征,而微观情绪则应对此问题 短持续时间类型具有小范围运动的模式识别提供了新的机会。 本文阐明了CNN在微观情绪模式识别中的应用,分析了异构建模子学科的特点,并对CPU下的CNN优化系统进行了特征分析。 这包括对整体网络布局的深入了解,卷积强度算法的强度,不同训练方式对网络的影响,其可扩展的特征以及操作的动态特性。 在特征分析中,我们给出了主动网络架构优化,其中包括高效并行执行和两个卷积核分发器,并且这种卷积网络的使用在微观情绪应用中显示出更好的情况。 。 关键词:卷积神经网络; 深度学习; 微观情绪识别; 中图分类号:TP391文献标识码:A 0引言
微观情绪就是当一个人接受某种由情感产生的潜意识运动时,它反映了人们最真实的感受,往往会让人们发现自己的内涵。 沉默,让无处可逃,这是一个非常有用的非言语线索。 一些理解谎言检测原理的人可能很容易使谎言探测器发脾气,但当他们处于微观情绪检测中时,他们将无法做任何事情。 传统方法对微观情绪和图像预处理的识别率较低。 深度学习可以完成数据的抽象,将底层特征组合映射到高级特征,并且在满足可分性的同时具有更强的表征能力; CNN作为更先进的深度训练布局是边界识别义务。 一种常用的方法。 随着大量训练数据的应用和战略计算能力的提高,CNN对问题的处理非常雄心勃勃。 CNN具有高精度,快速率的自支撑特征提取和识别能力,能够满足实时性要求。 CNN策略是有利可图的,这是一项挑衅性的义务。 例如,每次我们制定战略时,都会有数以亿计的浮点策略,这将为我们提供大量策略。 每次培训必须重复几次,因此可能需要几天或一周才能完成整个过程。 本文分析了不同的策略和策略,测试了不同的训练模式,并找到了最有效的网络拓扑布局。 它还接受并行CPU操作模式,Stencil-core和稀疏核分析CNN的高强度执行风格。 更有力地分析CNN的可扩展本能,输出特性和战略实力特征。 1传统传统已经提出了各种用于微观情绪识别的有用方法,例如光流法,SVM,BP,CNN等。 BP算法是一种部分搜索的优化算法,但它必须解决混沌函数的全局最优解,因此效果较差;Anik等。 基于多年的统计训练理论,提出了一种新的线性分类器设计规则,支持向量机。 支持向量机具有良好的推广能力。 但是,SVM策略太大,分类时间较长。 情绪图像的样本数量通常为数万,因此不能满足实时要求。 光流法应用于微观情绪识别,可以成功捕捉小情绪变化,检测和区分宏。 心情和微观情绪。 然而,值得注意的是,光流原理需要恒定的照明前提。 光流方法大且耗时,并且在苛刻的环境中不实用。 简而言之,传统的神经网络是基于开放式特征提取的原理。 必要的设计师有足够的先验知识。 提取的特征通常是提取对象的乐趣的一部分。 他们是单方面的,失去了很多。 信息。 2卷积神经网络
传统的神经网络是τ谑淙氲母>闶根据传记,它被传递到每一层,层由关节权重解析。 乘法和累加,然后获得响应的非线性函数以获得输出。 卷积神经网络基本上建立在传统的神经网络上。 它与传统神经网络的区别在于CNN的每一层只与一个小区域相连,并被分成一组特征图,所有特征图对应不同的输入。 因为网络的使用不需要预先处理原始图像,所以它已广泛用于字符识别,图像识别和情绪分类领域。 它解决了这三种风格,使网络训练功能更加健壮:部分感知领域,重量分配和下采样。 3尝试设计3.1 BP和SGD在提出反向传播算法之前,人们应该考虑使用SGD来学习模具,并且还要考虑一些设施来解决网络模型的偏导数,但这些算法的解决方案 效率较低,因此反向扩展算法被认为是一种更有效的策略偏导数。 反向传播链规则,地速加快。 梯度下降(GD)是最小化损失函数的常用方法。 随机梯度着陆(SGD)解析每个原始迭代以进行一次更新。 如果它是具有大样本大小的环境(例如,数十万),则与批处理梯度相比,有必要使用数十万个训练样本进行迭代。 一次迭代不是最佳的。 如果迭代是10次,则需要遍历训练样本10次。 。 3.2。 对每层特征的分析以下是对由微观情绪图像中的不同数量的卷积池获得的输出图像的特征分析和比较分析的讨论。 经过多次卷积和汇集后,我获得了高级功能。 这表明卷积池布局对于微成熟特征提取是有用的,并且成功地测试了用于微观情绪特征提取的卷积神经网络的效率。 3.3交错式培训和非交错式培训当扩展CNN卷积核权重等时,它通常基于两种方法,隔行训练和非隔行训练。 非隔行扫描意味着在反向训练中,一部分数据仅用于训练,另一部分数据仅用于测试。 隔行训练是指有一部分数据用于训练和测试。 以下决议用于强调隔行扫描的优势。 3.4卷积神经网络是对层数的最佳搜索。 为了处理一般的卷积神经网络,随着卷积层数的增加,网络更加混乱,这意味着提取的数据将加倍。 抽象和高级,你可以完成更大规模的训练,并且对原始图像的正确识别率更高。 为了使网络更加混乱,可以实现隐藏层的数量和隐藏隐藏神经元的数量,但是添加的隐藏层数量是隐藏层神经元数量的两倍以上。 层数不仅增加了具有激活功能的神经元的数量,而且还增加了激活函数嵌套的层数; 但是,通过增加层数,所需的卷积核权重也是所需的训练参数数。 这将需要更长的时间来训练,甚至使策略混乱并降低准确性。 响应于该问题,通过增加层数,识别错误率的变化环境和所需的训练时间,进行以下尝试以确定最佳分层方案。 表1旨在比较四组尝试。 分离代表四种不同级别的网络布局。 前两组有三个卷积层和三个汇集层,但这两个组都有卷积核。 帧数变化; 后两组有两个卷积层和两个汇聚层,每层的卷积核数也不同。 不难看出,很容易看出最优神经网络模型是第一组。 并且还可以发现:模型过于简单,由于参数较少,无法拟合训练数据; 过于混乱的模具,由于参数太多,容易过度拟合训练数据,泛化能力低。 让我们来看看下一个小尝试。 如图1所示,虚线表示错误的数量,我们可以看到它的外观。 我们发现,当层数达到第5层到第10层之一时,随着训练时间的增加,识别错误的机会减少得越来越慢,最终不再减少。 将图层编号添加到此图层时,它已达到更高的准确率,并且随着添加的图层数量,精度几乎不再变化。 然后,尝试通过添加图层来提高准确性,以提高准确性。 含义。 4.5加速加速解决了GEMM-IN-Parallel,它解决了多核,提高了硬件上卷积策略的可扩展性,实现了多线程单线程,实现了并行计算风格。每个焦点都是自立的。 我们分析了每个焦点数的平行特征,增加了核的数量,并观察了望远镜本能策略的变化。 它证明了随着核附加本能的变化,它证明了遵循核增加战略来加速环境。 图1显示了核添加策略没有加速本能。 <无线电通信结论本文首次比较了传统神经网络在卷积神经网络深度学习中提取微观情绪识别特征的优势,即权重分配,部分感知领域和特征的下采样过程。 萃取。 它具有更高的鲁棒性和准确性。 实施了基本的卷积神经网络布局,并在微观情绪识别类别中提出并尝试了深度学习。 第一部分基于评论辩论和认知算法的四个方面:(1)BP和SGD算法优势的简要描述; (2)解决相对交织的培训和非交错培训,突出交织培训的优越性; (3)构建不同规模,不同等级混乱的CNN模具进行培训; (4)尝试参与两种不同的策略,提高了策略的速度,保证了策略的准确性。 我尝试了局的证明,与传统算法相比,本文的要点更好地体现了微观情绪识别的义务。 在本文中,CNN模型非常适用于一帧图像的识别,但处理较长的视频识别较弱。 也就是说,CNN处理的微观情绪识别程度只有几微秒,但持续时间较长。 长时间的微观情绪或动作表明它并不优秀。 参考文献[1]刘玉玺。 微观情绪识别的理论与要领[D]。 江苏:东南大学,2016。[2]贲烨,杨明强,张鹏,等。 微观情绪的主动识别综述[J]。设计图形学报,2014,26(9):1385-1395。 [3]施旭干。 基于深度学习的面部表情识别[D]。 浙江:浙江科技大学,2015。[4]牛新亚。 基于深度学习的人脸识别[D]。 广东:华南理工大学,2016。
[5]陶勤勤。 基于卷积神经网络和改进支持向量机的人脸检测[D]。 安徽:合肥工业大学,2016。[6]唐爽。 基于深神网络的情绪识别[J]。 电子技术与软件工程,2017(3):93-95。 [7]罗祥云,周晓辉,傅克波。 基于深度学习的人脸识别[J]。 工业把握策略机,2017,30(5):92-93。
转载请注明来源。原文地址:https://www.7428.cn/page/2019/0426/81339/
 与本篇相关的热门内容: