未来智库 > 神经网络论文 > 基于BP神经网络的非线性函数拟合

基于BP神经网络的非线性函数拟合

发布时间:2017-12-06 16:47:00 文章来源:未来智库    
    关键词:BP神经网络;非线性函数;拟合;收敛
    中图分类号:TP18文献标识码:A文章编号:1009-3044(2012)27-6579-05
    Nonlinear Function Approximation Based on BP Neural Network
    ZHANG Bao-kun1, ZHANG Bao-yi2
    (1.China Nuclear Control System Engineering Co.,Ltd, Beijing 100076, China; 2. Shenzhen Speedy-Tech Electronics Co., Ltd, Shenzhen 518004, China)
    Abstract: This paper introduces the features and algorithm theorem of BP neural network, and deduces the update rules of the network weight based on a given BP neural network. According to several problems of BP neural network, suggestions are pro? vided for these problems. Applicability of BP neural network for nonlinear function approximation is verified by simulations, and the accuracy can be guaranteed.
    Key words: BP neural network; nonlinear function; approximation; convergence
    BP(Back Propagation)神经网络是1986年由Rumelhart和McCelland提出的,它是一种误差按反向传播的多层前馈网络,是目前应用最广泛的神经网络模型之一。BP神经网络具有非常强的非线性映射能力,能以任意精度逼近任意连续函数,因此在人工智能的许多领域都得到了广泛的应用。
    通常,BP算法是通过一些学习规则来调整神经元之间的连接权值,在学习过程中,学习规则以及网络的拓扑结构不变。然而一个神经网络的信息处理功能不仅取决于神经元之间的连接强度,而且与网络的拓扑结构(神经元的连接方式)、神经元的输入输出特性和神经元的阈值有关,因而神经网络模型要加强自身的适应和学习能力,应该知道如何合理地自组织网络的拓扑结构,知道改变神经元的激活特性以及在必要时调整网络的学习参数等。[1]图1多层神经网络结构
    图1中给出的多层神经网络输入层有n个神经元,隐含层有l个神经元,输出层有m个神经元。其中wij是输入层第i个神经元和隐含层第j个神经元之间的连接权值,wjk是隐含层第j个神经元和输出层第k个神经元之间的连接权值。对于输入层神经元,其作用函数取线性函数,即神经元的输出等于输入。隐含层和输出层神经元的输入分别是上一层神经元输出的加权和,且每个神
    在以下仿真实例中,BP网络为有监督学习,训练输入样本为input=[1 2 3 4 5 6 7 8 9 10 11 12 13 14],输出样本output=[1 2 3 6 11 16 19 24 25 29 32 33 36 42],隐含层节点数为6,网络最大训练次数为1000次,学习率为0.005,输入层到隐含层的初始权值W1以及隐含层到输出层的初始权值均为-0.1至0.1范围内的随机数,仿真结果如下两图所示:图3 BP神经网络拟合误差曲线
    图2中的虚线为BP网络对测试数据的拟合曲线。实验结果表明,BP神经网络能有效拟合非线性函数,若增加隐含层节点数则能进一步提高拟合精度,但是会加大计算量,影响训练速度。
    本文首先介绍了BP神经网络的原理以及网络权值的修正规则,然后通过编程实现BP神经网络,并将之应用到非线性函数的拟合。实验结果表明,BP神经网络能很好的拟合非线性函数,参数的选择对网络的性能影响很大。
    [1]何伟,谭骏珊,王楚正,等.BP神经网络的改进算法及应用[J].信息与电脑,2009(10):34-36.
    [2]程森林,师超超.BP神经网络模型预测控制算法的仿真研究[J].计算机系统应用,2011,20(8):100-103.
    [3]周永进,蔡惠华,尹逊震,等.改进的BP网络及其在数据预测中的应用[J].微计算机信息,2007,23(27):150-151.
    [4]夏玫.BP神经网络泛化能力改进研究[D].太原科技大学,2009.
    [5]王爽,张鹰,吕瑞霞.BP神经网络的算法改进及应用[J].电脑知识与技术,2009,15(4):933-935.
    [6]焦振.误差反向传播神经网络(BP网络)算法的启发式改进[J].安阳师范学院学报,2008(5):47-49.
    [7]蔡辉春.一种随机学习速率的BP神经网络算法[J].计算机与数字工程,2008(10):25-26.
转载请注明来源。原文地址:https://www.7428.cn/vipzj5343/
 与本篇相关的热门内容: