神经网络训练的底层原理 代码/数学

数据准备(pytorch代码):dataset/data_loader/

batch -> forward -> loss calculation -> backward -> gradient update

效果评估:validation

反向传播的逐层推导:https://zhuanlan.zhihu.com/p/562350328
pytorch自动优化器autograd的实现

BGD:全样本
SGD:单样本
mini-batch SGD:批次样本

优化器:SGD/Momentum/NAG/Adagrad/RMSprop/Adadelta/Adam/AdamW
数学原理:凸优化/最优化算法

损失函数:CRE/MSE/SOFTMAX/SIGMOID

过拟合:数据增强/L1/L2正则/EarlyStop/Dropout

欠拟合:模型调小/加数据

梯度消失/梯度爆炸:BN/LN