博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
神经网络原理简介
阅读量:3947 次
发布时间:2019-05-24

本文共 796 字,大约阅读时间需要 2 分钟。

1,类比生物神经元

在这里插入图片描述2,层次结构
在这里插入图片描述
输入层,隐藏层(1,2),输出层;线可以理解为权重参数w。在神经网络中需要指定w的大小(矩阵的大小)

神经网络的流程:输入数据;前向传播计算损失值;反向传播计算梯度;使用梯度更新参数

3,非线性结构(激活函数)

在这里插入图片描述

激活函数作用于前一层权重参数后:
在这里插入图片描述
4,激活函数

在这里插入图片描述

4.1 Sigmoid激活函数
在这里插入图片描述

反向传播中的求导操作:

在这里插入图片描述

当x的绝对值较大时,则导数接近为0,则在链式法则中易出现梯度消失,使得权重参数无法进一步更新,神经网络也无法收敛,因此后来的神经网络大多不采用此函数作为激活函数。

4.2 ReLU激活函数

在这里插入图片描述

ReLU激活函数一方面可以解决梯度消失的问题,另一方面求导方便,因此后来的神经网络中通常使用该函数作为激活函数。

5,正则化项在神经网络中的重要作用

在这里插入图片描述

由于一些异常点,神经网络较易出现过拟合现象,正则化惩罚项可以有效抑制过拟合现象,增强神经网络的泛化能力。
在这里插入图片描述

越多的神经元(相当于权重参数),就越能够表达能复杂的模型,但过拟合的风险越大

6,数据预处理

在这里插入图片描述

以0为中心化(都减去均值),然后归一化处理(除以标准差来消除x,y轴浮动不同)。

7,权重w和偏置项b的初始化

权重不能以相同值来初始化,否则反向传播后都是朝一个方向更新,相当于神经网络迭代太慢。通常采用高斯初始化或随机初始化

在这里插入图片描述
b可以用常值(0或1)来初始化。

8,Drop-out

全连接:对n-1层和n层而言,n-1层的任意一个节点,都和第n层所有节点有连接。即第n层的每个节点在进行计算的时候,激活函数的输入是n-1层所有节点的加权。

在这里插入图片描述

全连接是一种不错的模式,但是网络很大的时候,训练速度会很慢,并且易出现过拟合的现象。

为了解决上述问题在每次训练时随机不考虑部分神经元(对一些权重参数不进行更新),即Drop-out操作如下图:

在这里插入图片描述
虽然参与训练的参数减少,但是我们可以加大迭代步数来弥补这一缺陷。

转载地址:http://zohwi.baihongyu.com/

你可能感兴趣的文章
比金钱更好的十样东西
查看>>
凡事必定不少于三个以上的解决方法
查看>>
带团队的点滴心经
查看>>
五种力量让你如虎添翼
查看>>
你害怕创新吗
查看>>
创新服务的七要素
查看>>
虚伪的奉承也有效
查看>>
蒂姆·库克的五项核心领导力
查看>>
你为何没有成为领导者
查看>>
一切悲剧都源于不当激励
查看>>
别把用户的高期望混同于好体验
查看>>
动机和机会:推动商业发展的引擎
查看>>
4个信号表明你是一个失败的领导
查看>>
成功谈判 你需要几个锦囊?
查看>>
一个人的宽度决定了他的高度
查看>>
善于拜访是另一种经营智慧
查看>>
打造新老员工双赢机制变对立为统一
查看>>
企业如何避免用错人
查看>>
打掉苹果“无与伦比”的傲慢(人民时评)
查看>>
Creating an Android Project
查看>>