news 2026/4/23 17:13:34

机器学习 —— 过拟合

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
机器学习 —— 过拟合

摘要:机器学习中的过拟合是指模型过度拟合训练数据中的噪声而非潜在规律,导致在新数据上表现不佳。常见于复杂模型(如深度神经网络),其成因包括模型复杂度过高、训练数据不足或缺乏代表性、缺少正则化等。防止过拟合的技术包括交叉验证、早停法、正则化和丢弃法。示例代码展示了如何在Keras中实现早停法和L2正则化来防止过拟合,通过监控验证损失和添加权重惩罚项,有效提升模型的泛化能力。

目录

机器学习 —— 过拟合

过拟合的成因

防止过拟合的技术

示例

代码说明

输出结果


机器学习 —— 过拟合

过拟合是指模型学习到训练数据中的噪声,而非数据背后的潜在规律。这会导致模型在训练数据上表现优异,但在新数据上表现糟糕。本质上,模型对训练数据过度特化,无法泛化到新场景。

过拟合在使用复杂模型(如深度神经网络)时尤为常见。这类模型参数众多,能与训练数据高度贴合,但往往会牺牲泛化能力。

过拟合的成因

导致过拟合的因素主要有以下几点:

  • 模型复杂度过高:如前所述,复杂模型比简单模型更易过拟合,因其参数更多,能更紧密地贴合训练数据。
  • 训练数据不足:当训练数据量有限时,模型难以学习到真正的潜在规律,反而可能习得数据中的噪声。
  • 训练数据缺乏代表性:若训练数据无法反映模型要解决的问题本质,模型可能学到无关模式,无法泛化到新数据。
  • 缺乏正则化:正则化是通过在损失函数中添加惩罚项来防止过拟合的技术,若缺少这一惩罚项,模型更易发生过拟合。

防止过拟合的技术

机器学习中常用的防过拟合技术包括:

  • 交叉验证(Cross-validation):通过将数据划分为多个子集,轮流用每个子集作为验证集、其余子集作为训练集,评估模型在未见过数据上的表现,确保模型的泛化能力。
  • 早停法(Early stopping):在模型训练完全收敛前停止训练,通过监控验证误差,当误差不再改善时终止训练,避免模型过度拟合。
  • 正则化(Regularization):在损失函数中添加惩罚项,促使模型采用更小的权重,避免拟合训练数据中的噪声。
  • 丢弃法(Dropout):适用于深度神经网络的技术,训练时随机 “丢弃” 部分神经元,迫使剩余神经元学习更稳健的特征,从而防止过拟合。

示例

以下是使用 Keras 实现早停法与 L2 正则化的 Python 代码:

from keras.models import Sequential from keras.layers import Dense from keras.callbacks import EarlyStopping from keras import regularizers # 定义模型架构 model = Sequential() # 第一层:64个神经元,ReLU激活函数,添加L2正则化(惩罚系数0.01) model.add(Dense(64, input_dim=X_train.shape[1], activation='relu', kernel_regularizer=regularizers.l2(0.01))) # 第二层:32个神经元,ReLU激活函数,添加L2正则化(惩罚系数0.01) model.add(Dense(32, activation='relu', kernel_regularizer=regularizers.l2(0.01))) # 输出层:1个神经元,Sigmoid激活函数(适用于二分类任务) model.add(Dense(1, activation='sigmoid')) # 编译模型:损失函数为二元交叉熵,优化器为Adam,评估指标为准确率 model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy']) # 设置早停回调:监控验证损失,连续5个epoch无改善则停止训练 early_stopping = EarlyStopping(monitor='val_loss', patience=5) # 训练模型:使用训练集,划分20%作为验证集,最大训练100个epoch,批次大小为64,启用早停回调 history = model.fit(X_train, y_train, validation_split=0.2, epochs=100, batch_size=64, callbacks=[early_stopping])

代码说明

代码中使用 Keras 的 Sequential 模型搭建网络架构,前两层通过kernel_regularizer参数添加 L2 正则化;借助EarlyStopping类设置早停回调,监控验证损失,若连续 5 个 epoch 无改善则终止训练。训练时划分 20% 数据作为验证集,批次大小设为 64,最大训练 100 个 epoch。

输出结果

运行代码后,将得到类似以下的输出(省略中间 epoch):

plaintext

Train on 323 samples, validate on 81 samples Epoch 1/100 323/323 [==============================] - 0s 792us/sample - loss: -8.9033 - accuracy: 0.0000e+00 - val_loss: -15.1467 - val_accuracy: 0.0000e+00 Epoch 2/100 323/323 [==============================] - 0s 46us/sample - loss: -20.4505 - accuracy: 0.0000e+00 - val_loss: -25.7619 - val_accuracy: 0.0000e+00 Epoch 3/100 323/323 [==============================] - 0s 43us/sample - loss: -31.9206 - accuracy: 0.0000e+00 - val_loss: -36.8155 - val_accuracy: 0.0000e+00 ...(持续输出直至训练停止)

通过结合早停法与 L2 正则化,可有效防止模型过拟合,提升其泛化性能。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/23 13:25:44

实现ai循环中插入用户对话的方法

全局变量设置一个用户对话内容,初始化为空然后再input的prompt里面加入这个变量用户输入的时候就会加到prompt里面没输入就是空变量这轮用完就reset

作者头像 李华
网站建设 2026/4/23 11:30:35

从人鼠到植物:SEdb 3.0数据库一站式检索与分析超级增强子调控网络

超级增强子(SE)作为驱动细胞身份决定和关键致病基因表达的核心调控元件,一直是表观遗传学领域的研究热点,也是近年国自然的热点。然而,长期以来,相关的数据资源和注释工具主要集中于人类和小鼠模型。对于植…

作者头像 李华
网站建设 2026/4/23 13:19:43

巴菲特的市场看法与经济预测

巴菲特的市场看法与经济预测 关键词:巴菲特、市场看法、经济预测、价值投资、金融市场、宏观经济、投资策略 摘要:本文深入探讨了巴菲特的市场看法与经济预测相关内容。从背景介绍出发,阐述了研究巴菲特观点的目的、预期读者、文档结构和相关…

作者头像 李华
网站建设 2026/4/23 11:28:56

价值投资中的择股技巧

价值投资中的择股技巧 关键词:价值投资、择股技巧、基本面分析、财务指标、行业分析 摘要:本文围绕价值投资中的择股技巧展开深入探讨。首先介绍了价值投资及择股技巧的背景知识,包括目的、预期读者、文档结构和相关术语。接着阐述了核心概念…

作者头像 李华
网站建设 2026/4/23 14:13:26

数字图像处理篇---图像高通滤波

核心比喻:图像的“轮廓笔”和“细节放大器”想象你的图像是一幅铅笔画,有粗略的素描轮廓,也有细腻的明暗调子(阴影)。低通滤波:像用一块软布轻轻涂抹画纸,让细腻的调子(阴影&#xf…

作者头像 李华