目录
第1章作为机器学习模型的神经网络
1.1表示学习
1.2感知器与神经网络
1.3使用keras
第2章神经网络的训练
2.1基于梯度的一阶优化
2.2基于梯度的二阶优化
2.3普通训练方法的局限
2.4误差反向传播算法的本质
2.5使用keras
第3章神经网络的优化难题
3.1局部极小值,鞍点和非凸优化
3.2随机梯度下降的优势
3.3梯度方向优化
3.4动态调整学习率
3.5使用keras
第4章神经网络的过拟合
4.1参数绑定和提前终止
4.2数据增强和噪声添加
4.3Dropout
4.4使用keras
第5章神经网络的神经单元
5.1梯度消失和梯度爆炸
5.2隐藏单元设计原则和sigmoid的非零中心
5.3基于线性函数的改进和maxout单元
5.4使用keras
第6章神经网络的深度训练
6.1预处理和批标准化
6.2批标准化的不同视角: 协变量偏差和协调更新
6.3自归一化神经网络
6.4ResNet
6.5使用keras
第7章卷积神经网络
7.1局部连接和权重共享
7.2卷积操作的重要概念
7.3卷积核的参数学习
7.4基于感受野的三个卷积技巧
7.5使用keras
第8章循环神经网络
8.1理解循环结构
8.2循环结构的参数学习
8.3正交初始化和记忆容量
8.4理解LSTM
8.5使用keras
第9章无监督表示学习: 自编码器
9.1自编码器
9.2稀疏自编码器
9.3收缩自编码器
9.4使用keras
第10章概率生成模型
10.1变分自编码器
10.2生成对抗网络
10.3使用keras
参考文献
