深层神经网络
- 1. 深层神经网络
- 2. 深层网络中的前向传播
- 3. 核对矩阵的维数
- 4. 为什么使用深层表示?
- 5. 前向传播和反向传播
- 6. 搭建神经网络块
- 7. 参数 vs. 超参数
- 8. 深度学习和大脑的关联性
1. 深层神经网络
深层神经网络其实就是包含更多的隐藏层神经网络。
如下图所示,分别列举了逻辑回归、1个隐藏层的神经网络、2个隐藏层的神经网络和5个隐藏层的神经网络它们的模型结构。
命名规则上,一般只参考隐藏层个数和输出层。例如,上图中的逻辑回归又叫1 layer NN,1个隐藏层的神经网络叫做2 layer NN,2个隐藏层的神经网络叫做3 layer NN,以此类推。如果是L-layer NN,则包含了L-1个隐藏层,最后的L层是输出层。
输入层是第 0 层,输出层 是第L层。
表示第
层包含的单元个数,
这个模型中,
,表示三个输入特征
,
第l层的激活函数输出用
表示,
表示第
层的权重,用于计算
。另外,我们把输入层记为
,把输出层
记为
注意, 和
中的上标
都是从1开始的,
。
2. 深层网络中的前向传播
接下来,我们来推导一下深层神经网络的正向传播过程。仍以上面讲过的4层神经网络为例,对于单个样本:
如果有m个训练样本,其向量化矩阵形式为:
综上所述, 对于第 层, 其正向传播过程的
和
可以表示为:
其中
3. 核对矩阵的维数
4. 为什么使用深层表示?
在图像处理领域,深层神经网络随着层数由浅到深,神经网络提取的特征也是从边缘到局部特征到整体,由简单到复杂。如果隐藏层足够多,那么能够提取的特征就越丰富、越复杂,模型的准确率就会越高。
在语音识别领域,浅层的神经元能够检测一些简单的音调,然后较深的神经元能够检测出基本的音素,更深的神经元就能够检测出单词信息。如果网络够深,还能对短语、句子进行检测。
除了从提取特征复杂度的角度来说明深层网络的优势之外,深层网络还有另外一个优点,就是能够减少神经元个数,从而减少计算量。
5. 前向传播和反向传播
前向传播:
- 输入:
- 输出:
- 缓存:
- 向量化写法
后向传播:
- 输入:
- 输出:
- 向量化写法
6. 搭建神经网络块
7. 参数 vs. 超参数
参数:模型可以根据数据可以自动学习出的变量,应该就是参数。比如,深度学习的权重w,偏差b等。
超参数:就是用来确定模型的一些参数,超参数不同,模型是不同的,超参数一般就是根据经验确定的变量。在深度学习中,超参数有:学习速率,梯度下降的迭代次数,隐藏层数量,隐藏层单元数量以及激活函数选择等等。
进行多种组合,各种尝试,目的是选择效果最好的参数组合,在第二门课会介绍具体方式。
8. 深度学习和大脑的关联性