未来智讯 > 神经网络论文 > 基于卷积神经网络的图像分类

基于卷积神经网络的图像分类

发布时间:2019-04-26 04:42:46 文章来源:未来智讯    
基于卷积的图像分类学习神经网络:未知摘要:联合现有的基于神经网络卷积的图像分类算法以CIFAR-10为数据集,探讨如何构建锐利满足神经网络卷积模具分类精度的要求 以及如何高效,高效地执行网络培训和参数调解。 试图以简单的三层卷积神经网络为基础,从数据增强,网络布局和优化训练三个方面对模型进行改进。 试图证明这种情况,通过叠加这些改进的方法,可以逐步增强模具的拟合能力和泛化能力,最终获得更高的图像分类正确率。 关键词:图像分类; 卷积神经网络; 网络布局; 数据增强DOIDOI:10.11907 / rjdk.181090中图分类号:TP301文档编号:A文章编号:1672-7800(2018)010-0027-05摘要摘要:结合现有的基于卷积神经网络的图像分类算法,探讨如何 快速建立卷积神经网络模型以满足分类精度要求,以及如何通过从实践开始并使用CIFAR-10作为数据集来有效和有目的地进行网络训练和参数调整。基于简单的三层卷积 神经网络,该模型从数据增强,网络结构,优化和训练三个方面进行了改进。实验结果表明,通过增加这些改进的方法,拟合和推广的能力。逐渐增强模型的n,并获得更高的图像分类精度。 关键词:图像分类;卷积神经网络;网络结构;数据增强0引言
图像分类是指图像经过一系列数学运算后的分类问题,得到的图像特征表示可以代表分类 图像。 图像分类是机器视觉类别中的基本问题。 传统的图像分类方法依赖于人工设计混沌特征提取的图像特征。 第一种特征提取方法是尺度不变特征变换(SIFT)。 1]和定向梯度直方图(HOG)[2]。 工资设定算法清晰易记,但始终保留盲区,成为整个模型的缺点,模型缺乏概括性。 在2012年的ImageNet大规模视觉识别挑战赛(ILSVRC)中,AlexNet的第一个(5)疃砘神经网络由Alex Krizhevsky等人提出。 [3]应用于大规模图像分类并获得。 首先,在取代基于深度卷积神经网络起点的传统图像分类算法后,成为ILSVRC图像分类竞赛的主流算法。 卷积神经网络也已广泛用于视觉机器领域。 强化学习已经放弃了特征工程程序,使模型能够更好地学习数据的原始状态,从而更容易学习数据中的有价值信息。 卷积神经网络主动启动最佳卷积核及其图像的组合模式,即处理输入的义务是图片,并找到处理义务的图片。 表达良好的特征然后进行区分。 基于三层卷积神经网络,本文从数据增强,网络布局和网络训练优化等方面对优化后的网络模型进行了改进。 本文的目的是探索如何构建满足分类精度要求的卷积神经网络模型。 以及如何高效,高效地执行网络培训和参数调解。 图1涉及卷积神经网络的常识,卷积层的基本部分和完全相干层,这两个部分也是由线有性局部和非线性局部组成,线性局部完成数据的汇流计算,非线性局部性的主要作用是突破先前的线性映射关系[4]。 完全相干层和卷积层之间的主要区别在于完全相干层的线性部分完成完成了所有数据的汇合计算,汇流层的汇流层是部分数据的汇总,这 部分摘要操作称为卷积。 与完全相干层相比,卷积运算实现了图像相关性的一部分,并且卷积层参数大大减少,这使得模型混淆并因此更容易训练[5]。 简单的卷积神经网络布局如图1所示。数据增强主要是指添加小的干扰或改变训练数据。 一方面,可以添加训练数据,从而可以推广模型的推广,另一方面,可以添加噪声数据,从而增强模型的鲁棒性。 。 对于图像数据,主要数据增强方法包括翻转折叠,随机修剪,颜色抖动,平移变换,标准变换,对比度变换,噪声扰动和扭转变换。 具体方法是捕获一批训练数据,然后将数据发送到网络进行训练。 网络架构是卷积神经网络的焦点部分。 自2012年ILSVR以来,尚未提出新的卷积神经网络架构和在网络中起特殊作用的模块层。 对卷积神经网络的增长产生巨大影响的经典模具包括AlexNet,VGGNet [6],GoogleNet [7]和ResNet [8]。 特殊功能层具有批量标准化层(BN)[9]。 ,Dropout层[10],权重衰减[11]和部分相应的归一化层(Local Response Normalization,LRN)[12]等,这些对模具的改进使模型能够适应和推广以获得更好的推广。 。 第二次检查如图5所示。左侧是数据加强后四次控制尝试的损耗变化曲线,右侧是验证设置正确率变化曲线。 尝试分析以下两种情况:正确的验证集分类精度曲线证明图像白化效率是三种数据增强技术中最好的,其次是图像剪切,再次图像翻转,如果同时使用三种数据 技能不仅使培训过程的损失更加稳定,而且使验证的正确率达到82%,提升效率也很明显。 响应测试集,正确率也提升至80.31%。 据称,可以通过将训练集数据的量与推广模型的概括和鲁棒性的效率相加来确定图像增强。 试图3如图6所示。左侧是模具改进后四次控制尝试的损失变化曲线,右侧是验证设定正确率变化曲线。 尝试分析以下三种情况:右侧的校准集分类精度曲线证明了上述四种模型的应用改进了训练集。正确的差异率和验证集得到了提升,正规化技术和辍学技术带来的提升效率相当高。 当同时使用这些模具促进技术时,验证组的分类准确率从82%增加到88%。 为了处理测试集,正确率提升到85.56%。 查看左图,在使用批次的正则化之后,损失曲线不再像先上升然后上升的环境。 据说正则化技术的正规化可以增强模具训练的不变性,并且可以大规模升级。 力。 尝试的4在图7中示出。左侧是改变训练速率的三次控制尝试的损失变化曲线,右侧是验证设置正确的速率变化曲线。 试着分析以下四种情况:在10000个批次中,培训率从0.01降至0.001,指标函数值显示降低,验证设置正确率有较高的提升; 在20 000批次中,培训率从0.001到0.000 5,指标函数值没有下降,但必须提升验证集的正确率。 为了处理测试集,正确率提升到86.35%,表明训练率的变化可以提高模具拟合能力,从而提高正确率。 当训练速率衰减且衰减很大时,有必要进行多次实验。 通常,在基本上形成模具之后,使用改变训练速率的方法,可以对模具进行一定程度的改进。 如图8所示,左侧是网络层数加深的四次控制尝试的损失变化曲线,右侧是验证设置正确率变化曲线。 尝试分析以下五种情况:右侧验证集的准确度曲线证明网络层数从8层增加到14层,正确率增加,但是从第14层添加到层 20,然后到第32层。正确的速率不会上升和下降,表明如果网络层太大,由于梯度衰减,网络本能将下降。 因此,当使用深度神经网络时,有必要解决梯度衰减问题。 尝试的6如图9所示。左侧是使用剩余网络的本地4次控制尝试的损耗变化曲线,右侧是验证集正确的速率变化曲线。 尝试分析以下六种情况:当网络从第20层添加到第56层时,训练损失稳步降低,验证设置正确率稳定提升,当网络层数为56时,验证设置正确 率可达91.62。 %,解释使用残余网络技术可以解决梯度衰减问题,并发挥深层网络的特征来提取功率,使模具具有很强的拟合和推广能力。 上面提到的模具正确分类率的推进数据如表1所示.4结论我尝试了板的证明,并决定改进数据增强,网络布局和优化训练三个方面, 使模型的拟合能力和泛化能力逐步增强,最终提高模具。 数据集CIFAR-10中的分类准确率从68%提高到92%。 以上具体味道试验设计过程和局分析,处理如何快速建立卷积网络模型,以及培训和优化可以起决定性作用。 参考文献:[1] DALAL N,TRIGGS B.用于人体检测的定向梯度直方图[J]。 IEEE计算机学会计算机视觉与模式识别会议,2005(12):886-893 [2] HINTON GE,SALAKHUTDINOV R.用神经网络降低数据的维数[J]。 Science,2006,313:504-507。 [3] KRIZHEVSKY A,SUTSKEVER I,HINTON G E. ImageNet分类与深度卷积神经网络[C]。 神经信息处理系统国际会议。 Curran Associates Inc,2012:1097-1105。 [4]周飞燕,金林鹏,董军。卷积神经网络综述[J]。 机械学报,2017,40(6):1229-1251。 [5]卢洪涛,张勤川。 深度卷积神经网络在视觉机器视觉中的应用综述[J]。 数据采集​​与处置,2016,31(1):1-17。 [6] SZEGEDY C,VANHOUCKE V,IOFFE S,et al。 重新思考计算机视觉的初始架构[J]。 计算机科学,2015:2818-2826。 [7] HE K,ZHANG X,REN S,et al。 图像识别的深度残差学习[C]。 计算机视觉和模式识别,2016:770-778。 /> [8] IOFFE S,SZEGEDY C.批量归一化:通过减少内部协变量偏移来加速深度网络训练[Z]。 康奈尔大学图书馆,2015。[9] SRIVASTAVA N,HINTON G,KRIZHEVSKY A,et al.Dropout:一种简单的方法防止神经网络过度拟合[J]。 机器学习研究,2014,15(1):1929-1958。 [10] KROGH A,HERTZ J AA简单重量衰减可以改善泛化[J]。 国际神经信息处理系统会议,1991:950-957。 [11] ROBINSON AE,HAMMON PS,DE SA V R.使用空间滤波和局部响应归一化解释亮度幻觉[J]。 Vision Research,2007,47(12):1631-1644。 [12] SIMONYAN K,ZISSERMAN A.非常深的卷积网络用于大规模图像识别[J]。 计算机科学,2014。[13]冯超。 深度学习轻量级:聚焦算法与视觉实践[M]北京:电子工业出版社,2017:204-206。 [14] SU TSKEVER I,MARTENS J,DAHL G,et al。 关于初始化和动力在深度学习中的重要性[C]。国际互联网会议机器学习国际会议,2013。[15] NESTEROV YA方法用于无约束凸最小化问题的收敛速度[C] .Soviet Mathematics Doklady,1983。[16] DUCHI J,HAZAN E,SINGER Y.Adaptive subgradient methods for 在线学习与随机优化[J]。机器学习研究,2011,12(7):257-269。 (编辑:黄健)
转载请注明来源。原文地址:https://www.7428.cn/page/2019/0426/86576/
 与本篇相关的热门内容: