我的编程空间,编程开发者的网络收藏夹
学习永远不晚

交叉验证之KFold和StratifiedKFold的使用(附案例实战)

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

交叉验证之KFold和StratifiedKFold的使用(附案例实战)

3f6a7ab0347a4af1a75e6ebadee63fc1.gif

🤵‍♂️ 个人主页:@艾派森的个人主页

✍🏻作者简介:Python学习者
🐋 希望大家多多支持,我们一起进步!😄
如果文章对你有帮助的话,
欢迎评论 💬点赞👍🏻 收藏 📂加关注+


846afc070de74e37936f1257fcab9122.png

 一、交叉验证简介

        交叉验证是在机器学习建立模型和验证模型参数时常用的办法。交叉验证,顾名思义,就是重复的使用数据,把得到的样本数据进行切分,组合为不同的训练集和测试集,用训练集来训练模型,用测试集来评估模型预测的好坏。在此基础上可以得到多组不同的训练集和测试集,某次训练集中的某样本在下次可能成为测试集中的样本,即所谓“交叉”。

  那么什么时候才需要交叉验证呢?交叉验证用在数据不是很充足的时候。通常情况下,如果数据样本量小于一万条,我们就会采用交叉验证来训练优化选择模型。如果样本大于一万条的话,我们一般随机的把数据分成三份,一份为训练集(Training Set),一份为验证集(Validation Set),最后一份为测试集(Test Set)。用训练集来训练模型,用验证集来评估模型预测的好坏和选择模型及其对应的参数。把最终得到的模型再用于测试集,最终决定使用哪个模型以及对应参数。

        学习预测函数的参数,并在相同数据集上进行测试是一种错误的做法: 一个仅给出测试用例标签的模型将会获得极高的分数,但对于尚未出现过的数据它则无法预测出任何有用的信息。 这种情况称为 overfitting(过拟合).。为了避免这种情况,在进行机器学习实验时,通常取出部分可利用数据作为 test set(测试数据集) X_test, y_test。下面是模型训练中典型的交叉验证工作流流程图。通过网格搜索可以确定最佳参数。

3937883524934850800ff95749dcf35a.png

         k-折交叉验证得出的性能指标是循环计算中每个值的平均值。 该方法虽然计算代价很高,但是它不会浪费太多的数据(如固定任意测试集的情况一样), 在处理样本数据集较少的问题(例如,逆向推理)时比较有优势。

9e94e7738704429b896e25bf6f959dd4.png

k-折交叉验证步骤

 

  • 第一步,不重复抽样将原始数据随机分为 k 份。
  • 第二步,每一次挑选其中 1 份作为测试集,剩余 k-1 份作为训练集用于模型训练。
  • 第三步,重复第二步 k 次,这样每个子集都有一次机会作为测试集,其余机会作为训练集。
  • 在每个训练集上训练后得到一个模型,
  • 用这个模型在相应的测试集上测试,计算并保存模型的评估指标,
  • 第四步,计算 k 组测试结果的平均值作为模型精度的估计,并作为当前 k 折交叉验证下模型的性能指标。
     

例如:

十折交叉验证

  • 将训练集分成十份,轮流将其中9份作为训练数据,1份作为测试数据,进行试验。每次试验都会得出相应的正确率。
  • 10次的结果的正确率的平均值作为对算法精度的估计,一般还需要进行多次10折交叉验证(例如10次10折交叉验证),再求其均值,作为对算法准确性的估计
  • 模型训练过程的所有步骤,包括模型选择,特征选择等都是在单个折叠 fold 中独立执行的。
  • 此外:
    • 多次 k 折交叉验证再求均值,例如:10 次10 折交叉验证,以求更精确一点。
    • 数据量大时,k设置小一些 / 数据量小时,k设置大一些。
       

adf57d0cc7bd4840a675f17f53c0fd39.png

KFold和StratifiedKFold的使用

        StratifiedKFold用法类似Kfold,但是它是分层采样,确保训练集,测试集中各类别样本的比例与原始数据集中相同。这一区别在于当遇到非平衡数据时,StratifiedKFold() 各个类别的比例大致和完整数据集中相同,若数据集有4个类别,比例是2:3:3:2,则划分后的样本比例约是2:3:3:2;但是KFold可能存在一种情况:数据集有5类,抽取出来的也正好是按照类别划分的5类,也就是说第一折全是0类,第二折全是1类等等,这样的结果就会导致模型训练时没有学习到测试集中数据的特点,从而导致模型得分很低,甚至为0。

 

Parameters

  • n_splits : int, default=3   也就是K折中的k值,必须大于等于2
  • shuffle : boolean  True表示打乱顺序,False反之
  • random_state :int,default=None 随机种子,如果设置值了,shuffle必须为True
# KFoldfrom sklearn.model_selection import KFoldkfolds = KFold(n_splits=3)for train_index, test_index in kfolds.split(X,y):    print('X_train:%s ' % X[train_index])    print('X_test: %s ' % X[test_index])# StratifiedKFoldfrom sklearn.model_selection import StratifiedKFoldskfold = StratifiedKFold(n_splits=3)for train_index, test_index in skfold.split(X,y):    print('X_train:%s ' % X[train_index])    print('X_test: %s ' % X[test_index])

KFold和StratifiedKFold实战案例

首先导入数据集,本数据集为员工离职数据,属于二分类任务

import pandas as pdimport warningswarnings.filterwarnings('ignore')data = pd.read_excel('data.xlsx')data['薪资情况'].replace(to_replace={'低':0,'中':1,'高':2},inplace=True)data.head()

5109f3a08a384ac19a08bb8406c8a858.png

 拆分数据集为训练集和测试集,测试集比例为0.2

from sklearn.model_selection import train_test_splitX = data.drop('是否离职',axis=1)y = data['是否离职']X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=0.2)

初始化一个分类模型,这里用逻辑回归模型举例。方法1使用cross_val_score()可以直接得到k折训练的模型效果,比如下面使用3折进行训练,得分评估使用准确率,关于scoring这个参数我会在文末介绍。

# 初始化一个分类模型,比如逻辑回归from sklearn.linear_model import LogisticRegressionlg = LogisticRegression()# 方法1from sklearn.model_selection import cross_val_scorescores = cross_val_score(lg,X_train,y_train,cv=3,scoring='accuracy')print(scores)print("Accuracy: %0.2f (+/- %0.2f)" % (scores.mean(), scores.std() * 2))

3107a95839c7430aa0ec7a3614dfad73.png

 接下来分别使用KFold和StratifiedKFold,其实两者代码非常类似,只是前面的方法不同。

KFold

# 方法2-KFold和StratifiedKFoldimport numpy as npfrom sklearn.model_selection import KFold,StratifiedKFoldfrom sklearn.metrics import accuracy_score,recall_score,f1_score# KFoldkfolds = KFold(n_splits=3)accuracy_score_list,recall_score_list,f1_score_list = [],[],[]for train_index,test_index in kfolds.split(X_train,y_train):    # 准备交叉验证的数据    X_train_fold = X_train.iloc[train_index]    y_train_fold = y_train.iloc[train_index]    X_test_fold = X_train.iloc[test_index]    y_test_fold = y_train.iloc[test_index]    # 训练模型    lg.fit(X_train_fold,y_train_fold)    y_pred = lg.predict(X_test_fold)    # 评估模型    AccuracyScore = accuracy_score(y_test_fold,y_pred)    RecallScore = recall_score(y_test_fold,y_pred)    F1Score = f1_score(y_test_fold,y_pred)    # 将评估指标存放对应的列表中    accuracy_score_list.append(AccuracyScore)    recall_score_list.append(RecallScore)    f1_score_list.append(F1Score)    # 打印每一次训练的正确率、召回率、F1值    print('accuracy_score:',AccuracyScore,'recall_score:',RecallScore,'f1_score:',F1Score)# 打印各指标的平均值和95%的置信区间print("Accuracy: %0.2f (+/- %0.2f)" % (np.average(accuracy_score_list), np.std(accuracy_score_list) * 2))print("Recall: %0.2f (+/- %0.2f)" % (np.average(recall_score_list), np.std(recall_score_list) * 2))print("F1_score: %0.2f (+/- %0.2f)" % (np.average(f1_score_list), np.std(f1_score_list) * 2))

8c46118c7f9c4dac8b3e24b2ece08182.png

StratifiedKFold

# StratifiedKFoldskfolds = StratifiedKFold(n_splits=3)accuracy_score_list,recall_score_list,f1_score_list = [],[],[]for train_index,test_index in skfolds.split(X_train,y_train):    # 准备交叉验证的数据    X_train_fold = X_train.iloc[train_index]    y_train_fold = y_train.iloc[train_index]    X_test_fold = X_train.iloc[test_index]    y_test_fold = y_train.iloc[test_index]    # 训练模型    lg.fit(X_train_fold,y_train_fold)    y_pred = lg.predict(X_test_fold)    # 评估模型    AccuracyScore = accuracy_score(y_test_fold,y_pred)    RecallScore = recall_score(y_test_fold,y_pred)    F1Score = f1_score(y_test_fold,y_pred)    # 将评估指标存放对应的列表中    accuracy_score_list.append(AccuracyScore)    recall_score_list.append(RecallScore)    f1_score_list.append(F1Score)    # 打印每一次训练的正确率、召回率、F1值    print('accuracy_score:',AccuracyScore,'recall_score:',RecallScore,'f1_score:',F1Score)# 打印各指标的平均值和95%的置信区间print("Accuracy: %0.2f (+/- %0.2f)" % (np.average(accuracy_score_list), np.std(accuracy_score_list) * 2))print("Recall: %0.2f (+/- %0.2f)" % (np.average(recall_score_list), np.std(recall_score_list) * 2))print("F1_score: %0.2f (+/- %0.2f)" % (np.average(f1_score_list), np.std(f1_score_list) * 2))

74873fa67e7c464cb2cceba748a9d07f.png

补充

scoring 参数: 定义模型评估规则

Model selection (模型选择)和 evaluation (评估)使用工具,例如 model_selection.GridSearchCV 和 model_selection.cross_val_score ,采用 scoring 参数来控制它们对 estimators evaluated (评估的估计量)应用的指标。

常见场景: 预定义值

        对于最常见的用例, 可以使用 scoring 参数指定一个 scorer object (记分对象); 下表显示了所有可能的值。 所有 scorer objects (记分对象)遵循惯例 higher return values are better than lower return values(较高的返回值优于较低的返回值)。因此,测量模型和数据之间距离的 metrics (度量),如 metrics.mean_squared_error 可用作返回 metric (指数)的 negated value (否定值)的 neg_mean_squared_error 。

Scoring(得分)Function(函数)Comment(注解)
Classification(分类)  
‘accuracy’metrics.accuracy_score 
‘average_precision’metrics.average_precision_score 
‘f1’metrics.f1_scorefor binary targets(用于二进制目标)
‘f1_micro’metrics.f1_scoremicro-averaged(微平均)
‘f1_macro’metrics.f1_scoremacro-averaged(宏平均)
‘f1_weighted’metrics.f1_scoreweighted average(加权平均)
‘f1_samples’metrics.f1_scoreby multilabel sample(通过 multilabel 样本)
‘neg_log_loss’metrics.log_lossrequires predict_proba support(需要 predict_proba 支持)
‘precision’ etc.metrics.precision_scoresuffixes apply as with ‘f1’(后缀适用于 ‘f1’)
‘recall’ etc.metrics.recall_scoresuffixes apply as with ‘f1’(后缀适用于 ‘f1’)
‘roc_auc’metrics.roc_auc_score 
Clustering(聚类)  
‘adjusted_mutual_info_score’metrics.adjusted_mutual_info_score 
‘adjusted_rand_score’metrics.adjusted_rand_score 
‘completeness_score’metrics.completeness_score 
‘fowlkes_mallows_score’metrics.fowlkes_mallows_score 
‘homogeneity_score’metrics.homogeneity_score 
‘mutual_info_score’metrics.mutual_info_score 
‘normalized_mutual_info_score’metrics.normalized_mutual_info_score 
‘v_measure_score’metrics.v_measure_score 
Regression(回归)  
‘explained_variance’metrics.explained_variance_score 
‘neg_mean_absolute_error’metrics.mean_absolute_error 
‘neg_mean_squared_error’metrics.mean_squared_error 
‘neg_mean_squared_log_error’metrics.mean_squared_log_error 
‘neg_median_absolute_error’metrics.median_absolute_error 
‘r2’metrics.r2_score

 

来源地址:https://blog.csdn.net/m0_64336780/article/details/130048638

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

交叉验证之KFold和StratifiedKFold的使用(附案例实战)

下载Word文档到电脑,方便收藏和打印~

下载Word文档

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录