在线时间:8:00-16:00
迪恩网络APP
随时随地掌握行业动态
扫描二维码
关注迪恩网络微信公众号
本文主要将逻辑回归的实现,模型的检验等 参考博文http://blog.csdn.net/tiaaaaa/article/details/58116346;http://blog.csdn.net/ai_vivi/article/details/43836641 1.测试集和训练集(3:7比例)数据来源:http://archive.ics.uci.edu/ml/datasets/statlog+(australian+credit+approval) austra=read.table("australian.dat") head(austra) #预览前6行 N=length(austra$V15) #690行,15列 #ind=1,ind=2分别以0.7,0.3的概率出现 ind=sample(2,N,replace=TRUE,prob=c(0.7,0.3)) aus_train=austra[ind==1,] aus_test=austra[ind==2,]
2. 逻辑回归的实现及预测 pre=glm(V15~.,data=aus_train,family=binomial(link="logit")) summary(pre) real=aus_test$V15 predict_=predict.glm(pre,type="response",newdata=aus_test) predict=ifelse(predict_>0.5,1,0) aus_test$predict=predict head(aus_test) #write.csv(aus_test,"aus_test.csv")
3.模型检验 res=data.frame(real,predict) n=nrow(aus_train)
4.准确率和精度 true_value=aus_test[,15] predict_value=aus_test[,16] #计算模型精度 error=predict_value-true_value #判断正确的数量占总数的比例 accuracy=(nrow(aus_test)-sum(abs(error)))/nrow(aus_test) #混淆矩阵中的量(混淆矩阵具体解释见下页) #真实值预测值全为1 / 预测值全为1 --- 提取出的正确信息条数/提取出的信息条数 precision=sum(true_value & predict_value)/sum(predict_value) #真实值预测值全为1 / 真实值全为1 --- 提取出的正确信息条数 /样本中的信息条数 recall=sum(predict_value & true_value)/sum(true_value) #P和R指标有时候会出现的矛盾的情况,这样就需要综合考虑他们,最常见的方法就是F-Measure(又称为F-Score) F_measure=2*precision*recall/(precision+recall) #F-Measure是Precision和Recall加权调和平均,是一个综合评价指标 #输出以上各结果 print(accuracy) print(precision) print(recall) print(F_measure) #混淆矩阵,显示结果依次为TP、FN、FP、TN table(true_value,predict_value)
5. ROC曲线 #ROC曲线 (ROC曲线详细解释见下页) # 方法1 #install.packages("ROCR") library(ROCR) pred <- prediction(predict_,true_value) #预测值(0.5二分类之前的预测值)和真实值 performance(pred,'auc')@y.values #AUC值 0.9191563 perf <- performance(pred,'tpr','fpr') #y轴为tpr(true positive rate),x轴为fpr(false positive rate) plot(perf) #方法2 #install.packages("pROC") library(pROC) modelroc <- roc(true_value,predict.) plot(modelroc, print.auc=TRUE, auc.polygon=TRUE,legacy.axes=TRUE, grid=c(0.1, 0.2), grid.col=c("green", "red"), max.auc.polygon=TRUE, auc.polygon.col="skyblue", print.thres=TRUE) #画出ROC曲线,标出坐标,并标出AUC的值 #方法3,按ROC定义 TPR=rep(0,1000) FPR=rep(0,1000) p=predict. for(i in 1:1000) { p0=i/1000; ypred<-1*(p>p0) TPR[i]=sum(ypred*true_value)/sum(true_value) FPR[i]=sum(ypred*(1-true_value))/sum(1-true_value) } plot(FPR,TPR,type="l",col=2) points(c(0,1),c(0,1),type="l",lty=2)
6. 更换测试集和训练集的选取方式,采用十折交叉验证 australian <- read.table("australian.dat") #将australian数据分成随机十等分 #install.packages("caret") #固定folds函数的分组 set.seed(7) library(caret) folds <- createFolds(y=australian$V15,k=10) #构建for循环,得10次交叉验证的测试集精确度、训练集精确度 max=0 num=0 for(i in 1:10){ fold_test <- australian[folds[[i]],] #取folds[[i]]作为测试集 fold_train <- australian[-folds[[i]],] # 剩下的数据作为训练集 print("***组号***") fold_pre <- glm(V15 ~.,family=binomial(link='logit'),data=fold_train) fold_predict <- predict(fold_pre,type='response',newdata=fold_test) fold_predict =ifelse(fold_predict>0.5,1,0) fold_test$predict = fold_predict fold_error = fold_test[,16]-fold_test[,15] fold_accuracy = (nrow(fold_test)-sum(abs(fold_error)))/nrow(fold_test) print(i) print("***测试集精确度***") print(fold_accuracy) print("***训练集精确度***") fold_predict2 <- predict(fold_pre,type='response',newdata=fold_train) fold_predict2 =ifelse(fold_predict2>0.5,1,0) fold_train$predict = fold_predict2 fold_error2 = fold_train[,16]-fold_train[,15] fold_accuracy2 = (nrow(fold_train)-sum(abs(fold_error2)))/nrow(fold_train) print(fold_accuracy2) if(fold_accuracy>max) { max=fold_accuracy num=i } } print(max) print(num) ##结果可以看到,精确度accuracy最大的一次为max,取folds[[num]]作为测试集,其余作为训练集。
7.十折交叉验证的准确度 #十折里测试集最大精确度的结果 testi <- australian[folds[[num]],] traini <- australian[-folds[[num]],] # 剩下的folds作为训练集 prei <- glm(V15 ~.,family=binomial(link='logit'),data=traini) predicti <- predict.glm(prei,type='response',newdata=testi) predicti =ifelse(predicti>0.5,1,0) testi$predict = predicti #write.csv(testi,"ausfold_test.csv") errori = testi[,16]-testi[,15] accuracyi = (nrow(testi)-sum(abs(errori)))/nrow(testi) #十折里训练集的精确度 predicti2 <- predict.glm(prei,type='response',newdata=traini) predicti2 =ifelse(predicti2>0.5,1,0) traini$predict = predicti2 errori2 = traini[,16]-traini[,15] accuracyi2 = (nrow(traini)-sum(abs(errori2)))/nrow(traini) #测试集精确度、取第i组、训练集精确 accuracyi;num;accuracyi2 #write.csv(traini,"ausfold_train.csv")
混淆矩阵
AccuracyRate(准确率): (TP+TN)/(TP+TN+FN+FP) ErrorRate(误分率): (FN+FP)/(TP+TN+FN+FP) Recall(召回率,查全率,击中概率): TP/(TP+FN), 在所有GroundTruth为正样本中有多少被识别为正样本了; Precision(查准率):TP/(TP+FP),在所有识别成正样本中有多少是真正的正样本; TPR(True Positive Rate): TP/(TP+FN),实际就是Recall FAR(False Acceptance Rate)或FPR(False Positive Rate):FP/(FP+TN), 错误接收率,误报率,在所有GroundTruth为负样本中有多少被识别为正样本了; FRR(False Rejection Rate): FN/(TP+FN),错误拒绝率,拒真率,在所有GroundTruth为正样本中有多少被识别为负样本了,它等于1-Recall
ROC曲线(receiver operating characteristic curve)
|
请发表评论