深度学习之 7 深度前馈网络

发布时间:2022-08-19 13:55

本文是接着上一篇深度学习之 6 线性回归实现2_水w的博客-CSDN博客

目录

深度前馈网络

人工神经网络

1、人脑神经网络

2、一个解决异或问题的简单网络

3、神经网络结构 

前馈神经网络

1、前馈神经网络的结构和表示:

2、隐藏单元——激活函数:

3、输出单元 

4、前馈神经网络参数学习

反向传播算法

1、微分链式法则

2、反向传播算法

    ◼ 代码过程:


深度前馈网络

人工神经网络

1、人脑神经网络

人类大脑由 神经元 神经胶质细胞 神经干细 血管 组成
神经元(neuron) 也叫神经细胞(nerve cell),是人脑神经系统中最基本的单元
人脑神经系统包含近 860亿 个神经元
每个神经元有上千个 突触 与其他神经元相连
人脑神经元连接成巨大的复杂网络,总长度可达 数千公里

深度学习之 7 深度前馈网络_第1张图片

(1)神经元结构

细胞体 :通过生物化学反应,引起细胞膜内外 电位差 发生改变,形成 兴奋 抑制 状态
细胞突起 :由细胞体延伸出来,又可分为树突和轴突:
        ✓ 树突 :可 接收 刺激并将兴奋传入细胞体,每个神经元可以有一个或多个树突
        ✓ 轴突 :可把自身兴奋状态从细胞体 传给另一个神经元 ,每个神经元 只有一个 轴突

 深度学习之 7 深度前馈网络_第2张图片

(2)神经元之间的信息传递:

每个神经元与其他神经元相连,当它“ 兴奋 ”时,就会向相连的神经元 发送化学物质 ,从而改变这些神经元内的 电位
如果神经元的电位超过一定“ 阈值 ”,它就会被 激活 ,即“ 兴奋 ”起来,然后向其他神经元 发送化学物质

深度学习之 7 深度前馈网络_第3张图片

(3)人工神经元:

M-P神经元模型(McCulloch and Pitts,1943) :神经元接收到来自其他 个神经元 传递过来的 输入信号 ,这些输入信号通过 带权重的连接 进行传递,神经元接收到的 总输入值 将与神经元的 偏 置(bias) 进行比较,然后通过 “激活函数 处理产生神经元的 输出

深度学习之 7 深度前馈网络_第4张图片

(4)人工神经网络:

把许多人工神经元按一定的 层次结构连接 起来,就形成 人工神经网络
人工神经网络的三大要素:
        ✓ 节点 —— 采用什么激活函数?
        ✓ 连边 —— 权重(参数)是多少?
        ✓ 连接方式 —— 如何设计层次结构?

深度学习之 7 深度前馈网络_第5张图片

 2、一个解决异或问题的简单网络

(1)感知器求解异、或、非及异或问题:

输入为[1; 2]的单层单个神经元(输入层不计入层数),采用阶跃激活函数。

深度学习之 7 深度前馈网络_第6张图片

(2)双层感知器 —— 一个简单的神经网络

 输入仍为[1; 2],让网络包含两层:

        ✓ 隐藏层 包含两个神经元: = (1) (; , )
        ✓ 输出层 包含一个神经元: = (2) (; , )
        ✓ 隐藏层采用线性整流激活函数(ReLU),则整个模型为:
                        (; , , , ) = 2 ( 1 ())
                                                 = Τ max 0, T + +

深度学习之 7 深度前馈网络_第7张图片

 给出异或问题的一个解:

深度学习之 7 深度前馈网络_第8张图片

 解释:非线性空间变换

深度学习之 7 深度前馈网络_第9张图片

3、神经网络结构 

(1)万能近似定理:

深度学习之 7 深度前馈网络_第10张图片

(2)万能近似定理应用到神经网络:

根据万能近似定理,对于具有 线性输出层 至少一个 使用“挤压”性质的激活函数的 隐藏层 组成的神经网络,只要其隐藏层神经元的数量足够多,它就可以以任意精度来近似任何一个定义在实数空间中的有界闭集函数。
神经网络 可以作为一个 “万能”函数 来使用,可以用来进行复杂的特征转换,或逼近一个复杂的条件分布。
深度学习之 7 深度前馈网络_第11张图片

 

 

(3)为什么要深度:

单隐层网络 可以近似任何函数,但其 规模可能巨大
        ✓ 在最坏的情况下,需要 指数级的隐藏单元 才能近似某个函数[Barron, 1993]
随着 深度的增加 ,网络的 表示能力呈指数增加
        ✓ 具有 个输入、深度为 、每个隐藏层具有个单元的深度整流网络可以描述 的线性区域的数量为,意味着 深度学习之 7 深度前馈网络_第12张图片 ,描述能力为深度的 指数级

更深层的网络具有更好的泛化能力:模型的性能随着随着深度的增加而不断提升

参数数量的增加 未必 一定会带来模型效果的提升:
        更深的模型往往表现更好,并不仅仅是因为模型更大 想要学得的函数应该由许多更简单的函数复合在一起而得到。

(4)常见的神经网络结构:

前馈网络
        ✓ 各个神经元按照接收信息的先后分成不同的组,每一组可看作一个神经层
        ✓ 每一层中的神经元接收来自前一层神经元的输出,并输出给下一层神经元
        ✓ 整个网络中信息 朝一个方向传播 ,没有反向的信息传播,可以用一个有向无环图表示
        ✓ 前馈网络包括 全连接前馈神经网络 卷积神经网络
深度学习之 7 深度前馈网络_第13张图片

 

记忆网络(反馈网络)
        ✓ 神经元不但可以接收其他神经元的信息,也可以接收自己的 历史信息
        ✓ 神经元具有记忆功能,在 不同的时刻具有不同的状态
        ✓ 信息传播可以是 单向或者双向 传递,可用一个有向循环图或无向图来表示
        ✓ 记忆网络包括 循环神经网络 Hopfield网络 玻尔兹曼机 受限玻尔兹曼机

深度学习之 7 深度前馈网络_第14张图片

图网络
        ✓ 图网络是定义在 图结构数据 上的神经网络;
        ✓ 图中的每个节点都是由 一个 或者 一组 神经元构成;
        ✓ 节点之间的连接可以是 有向 的,也可以是 无向 的;
        ✓ 每个节点可以接收来自 相邻节点 或者 自身 的信息;
        ✓ 图网络是前馈网络和记忆网络的融合方法,包含许多不同的实现方式,如 图卷积网络 图注意力网络 消息传递网络 等。

 深度学习之 7 深度前馈网络_第15张图片

 其他结构设计方面的考虑:除了深度和宽度之外,神经网络的结构还具有其他方面的多样性。

  • 改变层与层之间的连接方式

ItVuer - 免责声明 - 关于我们 - 联系我们

本网站信息来源于互联网,如有侵权请联系:561261067@qq.com

桂ICP备16001015号