文章目录 深度学习基础与传统神经网络的区别目标函数改进的梯度下降避免过拟合 CNN初步介绍CNN基本组件池化层误差反向传播卷积层误差反向传播 深度学习基础 与传统神经网络的区别 目标函数 crossentropy收敛性更好 softmax:软最大 改进的梯度下降 梯度下降的方式: 如果前后梯度方向一致,加速学习。如果不一致,可以冲过最低点,避免马鞍点。如果是真正的谷底,可以将点带回最低点。 delta是一个极小数,防止除0错误。 避免过拟合 Early Stopping Weight Decay Dropout CNN初步介绍 CNN基本组件 池化层误差反向传播 卷积层误差反向传播