训练/泛化误差
训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。
欠拟合
模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting)
过拟合
模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)
容易引起过拟合、欠拟合的其中两个因素:
模型复杂度 降低模型复杂度的两个方法 添加正则化项(L1、L2)sigmoid、tanh函数容易引起梯度消失
参数初始化
数据分布不一致的两个情况