我的编程空间,编程开发者的网络收藏夹
学习永远不晚

R语言逻辑回归、ROC曲线与十折如何实现交叉验证

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

R语言逻辑回归、ROC曲线与十折如何实现交叉验证

本篇内容主要讲解“R语言逻辑回归、ROC曲线与十折如何实现交叉验证”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“R语言逻辑回归、ROC曲线与十折如何实现交叉验证”吧!

1. 测试集和训练集3、7分组

australian <- read.csv("australian.csv",as.is = T,sep=",",header=TRUE)#读取行数N = length(australian$Y)                                                                                         #ind=1的是0.7概率出现的行,ind=2是0.3概率出现的行ind=sample(2,N,replace=TRUE,prob=c(0.7,0.3))#生成训练集(这里训练集和测试集随机设置为原数据集的70%,30%)aus_train <- australian[ind==1,]#生成测试集aus_test <- australian[ind==2,]

2.生成模型,结果导出

#生成logis模型,用glm函数#用训练集数据生成logis模型,用glm函数#family:每一种响应分布(指数分布族)允许各种关联函数将均值和线性预测器关联起来。常用的family:binomal(link='logit')--响应变量服从二项分布,连接函数为logit,即logistic回归pre <- glm(Y ~.,family=binomial(link = "logit"),data = aus_train)summary(pre)#测试集的真实值real <- aus_test$Y#predict函数可以获得模型的预测值。这里预测所需的模型对象为pre,预测对象newdata为测试集,预测所需类型type选择response,对响应变量的区间进行调整predict. <- predict.glm(pre,type='response',newdata=aus_test)#按照预测值为1的概率,>0.5的返回1,其余返回0predict =ifelse(predict.>0.5,1,0)#数据中加入预测值一列aus_test$predict = predict#导出结果为csv格式#write.csv(aus_test,"aus_test.csv")

3.模型检验

##模型检验res <- data.frame(real,predict)#训练数据的行数,也就是样本数量n = nrow(aus_train) #计算Cox-Snell拟合优度R2 <- 1-exp((pre$deviance-pre$null.deviance)/n) cat("Cox-Snell R2=",R2,"\n")#计算Nagelkerke拟合优度,我们在最后输出这个拟合优度值R2<-R2/(1-exp((-pre$null.deviance)/n)) cat("Nagelkerke R2=",R2,"\n")##模型的其他指标#residuals(pre) #残差#coefficients(pre) #系数,线性模型的截距项和每个自变量的斜率,由此得出线性方程表达式。或者写为coef(pre)#anova(pre) #方差

4.准确率和精度

true_value=aus_test[,15]predict_value=aus_test[,16]#计算模型精确度error = predict_value-true_valueaccuracy = (nrow(aus_test)-sum(abs(error)))/nrow(aus_test) #精确度--判断正确的数量占总数的比例#计算Precision,Recall和F-measure#一般来说,Precision就是检索出来的条目(比如:文档、网页等)有多少是准确的,Recall就是所有准确的条目有多少被检索出来了#和混淆矩阵结合,Precision计算的是所有被检索到的item(TP+FP)中,"应该被检索到的item(TP)”占的比例;Recall计算的是所有检索到的item(TP)占所有"应该被检索到的item(TP+FN)"的比例。precision=sum(true_value & predict_value)/sum(predict_value) #真实值预测值全为1 / 预测值全为1 --- 提取出的正确信息条数/提取出的信息条数recall=sum(predict_value & true_value)/sum(true_value) #真实值预测值全为1 / 真实值全为1 --- 提取出的正确信息条数 /样本中的信息条数#P和R指标有时候会出现的矛盾的情况,这样就需要综合考虑他们,最常见的方法就是F-Measure(又称为F-Score)F_measure=2*precision*recall/(precision+recall) #F-Measure是Precision和Recall加权调和平均,是一个综合评价指标#输出以上各结果print(accuracy)print(precision)print(recall)print(F_measure)#混淆矩阵,显示结果依次为TP、FN、FP、TNtable(true_value,predict_value)

5.ROC曲线的几个方法

#ROC曲线# 方法1#install.packages("ROCR") library(ROCR) pred <- prediction(predict.,true_value) #预测值(0.5二分类之前的预测值)和真实值 performance(pred,'auc')@y.values #AUC值perf <- performance(pred,'tpr','fpr')plot(perf)#方法2#install.packages("pROC")library(pROC)modelroc <- roc(true_value,predict.)plot(modelroc, print.auc=TRUE, auc.polygon=TRUE,legacy.axes=TRUE, grid=c(0.1, 0.2), grid.col=c("green", "red"), max.auc.polygon=TRUE, auc.polygon.col="skyblue", print.thres=TRUE) #画出ROC曲线,标出坐标,并标出AUC的值#方法3,按ROC定义TPR=rep(0,1000)FPR=rep(0,1000)p=predict.for(i in 1:1000) {  p0=i/1000; ypred<-1*(p>p0)  TPR[i]=sum(ypred*true_value)/sum(true_value)  FPR[i]=sum(ypred*(1-true_value))/sum(1-true_value) }plot(FPR,TPR,type="l",col=2)points(c(0,1),c(0,1),type="l",lty=2)

6.更换测试集和训练集的选取方式,采用十折交叉验证

australian <- read.csv("australian.csv",as.is = T,sep=",",header=TRUE)#将australian数据分成随机十等分#install.packages("caret")#固定folds函数的分组set.seed(7)require(caret)folds <- createFolds(y=australian$Y,k=10)#构建for循环,得10次交叉验证的测试集精确度、训练集精确度max=0num=0for(i in 1:10){  fold_test <- australian[folds[[i]],] #取folds[[i]]作为测试集 fold_train <- australian[-folds[[i]],] # 剩下的数据作为训练集  print("***组号***")  fold_pre <- glm(Y ~.,family=binomial(link='logit'),data=fold_train) fold_predict <- predict(fold_pre,type='response',newdata=fold_test) fold_predict =ifelse(fold_predict>0.5,1,0) fold_test$predict = fold_predict fold_error = fold_test[,16]-fold_test[,15] fold_accuracy = (nrow(fold_test)-sum(abs(fold_error)))/nrow(fold_test)  print(i) print("***测试集精确度***") print(fold_accuracy) print("***训练集精确度***") fold_predict2 <- predict(fold_pre,type='response',newdata=fold_train) fold_predict2 =ifelse(fold_predict2>0.5,1,0) fold_train$predict = fold_predict2 fold_error2 = fold_train[,16]-fold_train[,15] fold_accuracy2 = (nrow(fold_train)-sum(abs(fold_error2)))/nrow(fold_train)  print(fold_accuracy2)   if(fold_accuracy>max) { max=fold_accuracy  num=i } } print(max)print(num) ##结果可以看到,精确度accuracy最大的一次为max,取folds[[num]]作为测试集,其余作为训练集。

7.得到十折交叉验证的精确度,结果导出

#十折里测试集最大精确度的结果testi <- australian[folds[[num]],]traini <- australian[-folds[[num]],] # 剩下的folds作为训练集prei <- glm(Y ~.,family=binomial(link='logit'),data=traini)predicti <- predict.glm(prei,type='response',newdata=testi)predicti =ifelse(predicti>0.5,1,0)testi$predict = predicti#write.csv(testi,"ausfold_test.csv")errori = testi[,16]-testi[,15]accuracyi = (nrow(testi)-sum(abs(errori)))/nrow(testi)  #十折里训练集的精确度predicti2 <- predict.glm(prei,type='response',newdata=traini)predicti2 =ifelse(predicti2>0.5,1,0)traini$predict = predicti2errori2 = traini[,16]-traini[,15]accuracyi2 = (nrow(traini)-sum(abs(errori2)))/nrow(traini)  #测试集精确度、取第i组、训练集精确accuracyi;num;accuracyi2#write.csv(traini,"ausfold_train.csv")

总结

到此,相信大家对“R语言逻辑回归、ROC曲线与十折如何实现交叉验证”有了更深的了解,不妨来实际操作一番吧!这里是编程网网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

R语言逻辑回归、ROC曲线与十折如何实现交叉验证

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

R语言逻辑回归、ROC曲线与十折如何实现交叉验证

本篇内容主要讲解“R语言逻辑回归、ROC曲线与十折如何实现交叉验证”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“R语言逻辑回归、ROC曲线与十折如何实现交叉验证”吧!1. 测试集和训练集3、7分
2023-06-08

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录