Data Augmentation(数据增强):通过对训练数据进行随机变换(如旋转、翻转、缩放等)来增加训练样本的多样性,从而减少过拟合风险。
Regularization(正则化):正则化技术如L1正则化和L2正则化可以添加到模型的损失函数中,以减小模型的复杂度,防止过度拟合。
Dropout(随机失活):在训练过程中,通过随机关闭一部分神经元来减少神经网络的复杂性,防止过拟合。
Early Stopping(早停止):在训练过程中监控验证集的性能,一旦性能开始下降,就停止训练,以防止模型过拟合训练数据。
Batch Normalization(批标准化)虽然在训练中有正则化的效果,但它的主要目的是加速训练和提高模型的稳定性,而不是专门用于防止过拟合。