BP神经网络(算法整体思路及原理+手写公式推导)

社区

@TOC

本节已录制视频,点击连接观看视频详情:BP神经网络知识详解+公式推导✨✨✨

1. 简介

BP(back propagation)神经网络是1986年由Rumelhart和McClelland为首的科学家提出的概念,是一种按照误差逆向传播算法训练的多层前馈神经网络,是应用最广泛的神经网络。 BP网络是在输入层与输出层之间增加若干层(一层或多层)神经元,这些神经元称为隐单元,它们与外界没有直接的联系,但其状态的改变,则能影响输入与输出之间的关系,每一层可以有若干个节点。

2. 计算过程

首先,我们先来了解一下神经网络图示基本含义:

picture.image 上图为神经网络的一部分,x1,x2,x3为外部输入,w1,w2,w3为这些输入的权重(表示这些输入的重要程度)。后面的大⚪相当与一个神经元,其中∑ = x1w1 + x2w2 + x3w2 - β ( β为偏置) ,y = f(∑) ,f为激活函数,最常见激活函数是Sigmoid函数,其图像及表达式如下图所示(本文后面所有激活函数都为Sigmoid函数)

picture.image

了解了神经元图示的基本含义,现在来说一下BP神经网络的整体流程如下:

picture.image 我们以下图为例讲述BP神经网络实现流程: 首先神经网络一共有三部分组成:输入层、隐藏层、输出层(其中隐藏层可以有多层,本图中只有一层)。图中输入层有两个神经元、隐藏层有三个神经元、输出层有一个神经元。我们通过计算可以得出ŷ的值(后文会有详细计算过程),这就是我们根据所给数据得到的输出结果,我们会将==输出结果==和==预期结果==进行比较(预期结果就是真实值),如果发现两个结果十分符合,那么表示我们所设置的期望和偏置是较优的,不需要进行修改(注:图中的期望w、v、β、λ都是我们自己事先设置的数值);如果发现两个结果相差较大,这表面我们事先设置的参数不合适(w、v、β、λ),需要进行修改。这时候我们需要从后往前的算出这些参数的的变化量,然后更新参数的数值,重新计算输出,直到得到的输入结果和预期相符停止。

picture.image

3. 权重偏置更新公式推导

同样的,我们以这张图为例来推导权重(w、v)偏置(β、λ)更新公式。

picture.image

picture.image

picture.image 🌷🌷🌷🌷🌷🌷🌷🌷🌷🌷🌷🌷🌷🌷🌷 2022.10.15更新 ==收到读者反馈,发现下图计算W11的梯度时多了个负号,具体位置如下:==

picture.image

🌷🌷🌷🌷🌷🌷🌷🌷🌷🌷🌷🌷🌷🌷🌷

picture.image 下图为三部分整体图片(方便阅读)

picture.image

4. BP神经网络优劣势

BP神经网络无论在网络理论还是在性能方面已比较成熟。其突出优点就是具有很强的非线性映射能力和柔性的网络结构。网络的中间层数、各层的神经元个数可根据具体情况任意设定,并且随着结构的差异其性能也有所不同。但是BP神经网络也存在以下的一些主要缺陷。 ①学习速度慢,即使是一个简单的问题,一般也需要几百次甚至上千次的学习才能收敛。 ②容易陷入局部极小值。 ③网络层数、神经元个数的选择没有相应的理论指导。 ④网络推广能力有限。

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
大规模高性能计算集群优化实践
随着机器学习的发展,数据量和训练模型都有越来越大的趋势,这对基础设施有了更高的要求,包括硬件、网络架构等。本次分享主要介绍火山引擎支撑大规模高性能计算集群的架构和优化实践。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论