10折交叉验证深入理解_十折交叉验证-程序员宅基地

技术标签: 机器学习  Python  

交叉验证(Cross Validation),有的时候也称作循环估计(Rotation Estimation),是一种统计学上将数据样本切割成较小子集的实用方法,该理论是由Seymour Geisser提出的。
在给定的建模样本中,拿出大部分样本进行建模型,留小部分样本用刚建立的模型进行预报,并求这小部分样本的预报误差,记录它们的平方加和。这个过程一直进行,直到所有的样本都被预报了一次而且仅被预报一次。把每个样本的预报误差平方加和,称为PRESS(predicted Error Sum of Squares)。
常用的精度测试方法主要是交叉验证,例如10折交叉验证(10-fold cross validation),将数据集分成十份,轮流将其中9份做训练1份做验证,10次的结果的均值作为对算法精度的估计,一般还需要进行多次10折交叉验证求均值,例如:10次10折交叉验证,以求更精确一点。这个方法的优势在于,同时重复运用随机产生的子样本进行训练和验证,每次的结果验证一次。


"""这里是正确的代码"""
def cross_10folds(data,folds,jiange,start_index,end_index):
    df_test=data[start_index*jiange:end_index*jiange]  #数据刚好可以做10折交叉验证。
    df_test_index=list(df_test.index)
    df_test_flag=data.index.isin(df_test_index)  #都转换为list来判定成员资格
    diff_flag = [not f for f in df_test_flag] # 不是df_test_flag里面的索引的索引记为df_train_index的索引集合
    df_train= data[diff_flag]
    return df_train,df_test

path='C:/Users/Administrator/Desktop/zhou1.csv'
columns1=['cid','side_effects']
import pandas as pd
#data=pd.read_csv(path)[:100]  #经验证划分完全正确
data=pd.read_csv(path)
data.columns=columns1
folds=10
jiange=int(data.shape[0]/folds)
#10次10折交叉验证的代码
for i in range(1,11):
	#将数据集随机打散
	data=data.sample(frac = 1) #随机打乱样本
	for i in range(1,folds+1):
	    df_train,df_test=cross_10folds(data,folds,jiange,i-1,i) #起始和尾部索引
	    df_train.to_csv('C:/Users/Administrator/Desktop/zhou/train_'+str(i)+'.csv',index=True,header=True) #检验对了再改成False
	    df_test.to_csv('C:/Users/Administrator/Desktop/zhou/test_'+str(i)+'.csv',index=True,header=True)

1.matlab版本代码实现:

%十折交叉验证\
[m,n]=size(train_bags);     %蛋白质的数量的个数
indices=crossvalind('Kfold',m,10);
temp_Hamming_Loss=zeros(1,10);
temp_Macro_F1=zeros(1,10);
temp_Micro_F1=zeros(1,10);
for k=1:1:10
    test=(indices==k);  %获取验证集,但是最后替换掉了
    train=~test;
    train_data=train_bags(train,:);   %训练集的包
    train_target=train_lable(:,train);  %训练集的标记
    test_bags=train_bags(test,:);          %十折交叉验证的测试集包
    test_target=train_lable(:,test);        %十折交叉验证的测试集标记

2.Python3版本代码实现:
2.1.简易5折交叉验证分割结果打印:未随机打散的情形下

#简易5折交叉验证分割结果打印:未随机打散的情形下
from sklearn.cross_validation import KFold
kf = KFold(150,n_folds=5, shuffle=False)
for eachfold in kf:
    print(eachfold,'=========') #kf是一个长度为5的list,list中的每个元素是一次10折交叉验证的划分结果。

5折交叉验证划分结果的前半部分是trainset,后半部分是testset

(array([ 30,  31,  32,  33,  34,  35,  36,  37,  38,  39,  40,  41,  42,
        43,  44,  45,  46,  47,  48,  49,  50,  51,  52,  53,  54,  55,
        56,  57,  58,  59,  60,  61,  62,  63,  64,  65,  66,  67,  68,
        69,  70,  71,  72,  73,  74,  75,  76,  77,  78,  79,  80,  81,
        82,  83,  84,  85,  86,  87,  88,  89,  90,  91,  92,  93,  94,
        95,  96,  97,  98,  99, 100, 101, 102, 103, 104, 105, 106, 107,
       108, 109, 110, 111, 112, 113, 114, 115, 116, 117, 118, 119, 120,
       121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 131, 132, 133,
       134, 135, 136, 137, 138, 139, 140, 141, 142, 143, 144, 145, 146,
       147, 148, 149]), array([ 0,  1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11, 12, 13, 14, 15, 16,
       17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29]))
====================================================
(array([  0,   1,   2,   3,   4,   5,   6,   7,   8,   9,  10,  11,  12,
        13,  14,  15,  16,  17,  18,  19,  20,  21,  22,  23,  24,  25,
        26,  27,  28,  29,  60,  61,  62,  63,  64,  65,  66,  67,  68,
        69,  70,  71,  72,  73,  74,  75,  76,  77,  78,  79,  80,  81,
        82,  83,  84,  85,  86,  87,  88,  89,  90,  91,  92,  93,  94,
        95,  96,  97,  98,  99, 100, 101, 102, 103, 104, 105, 106, 107,
       108, 109, 110, 111, 112, 113, 114, 115, 116, 117, 118, 119, 120,
       121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 131, 132, 133,
       134, 135, 136, 137, 138, 139, 140, 141, 142, 143, 144, 145, 146,
       147, 148, 149]), array([30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46,
       47, 48, 49, 50, 51, 52, 53, 54, 55, 56, 57, 58, 59]))
====================================================
(array([  0,   1,   2,   3,   4,   5,   6,   7,   8,   9,  10,  11,  12,
        13,  14,  15,  16,  17,  18,  19,  20,  21,  22,  23,  24,  25,
        26,  27,  28,  29,  30,  31,  32,  33,  34,  35,  36,  37,  38,
        39,  40,  41,  42,  43,  44,  45,  46,  47,  48,  49,  50,  51,
        52,  53,  54,  55,  56,  57,  58,  59,  90,  91,  92,  93,  94,
        95,  96,  97,  98,  99, 100, 101, 102, 103, 104, 105, 106, 107,
       108, 109, 110, 111, 112, 113, 114, 115, 116, 117, 118, 119, 120,
       121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 131, 132, 133,
       134, 135, 136, 137, 138, 139, 140, 141, 142, 143, 144, 145, 146,
       147, 148, 149]), array([60, 61, 62, 63, 64, 65, 66, 67, 68, 69, 70, 71, 72, 73, 74, 75, 76,
       77, 78, 79, 80, 81, 82, 83, 84, 85, 86, 87, 88, 89]))
====================================================
(array([  0,   1,   2,   3,   4,   5,   6,   7,   8,   9,  10,  11,  12,
        13,  14,  15,  16,  17,  18,  19,  20,  21,  22,  23,  24,  25,
        26,  27,  28,  29,  30,  31,  32,  33,  34,  35,  36,  37,  38,
        39,  40,  41,  42,  43,  44,  45,  46,  47,  48,  49,  50,  51,
        52,  53,  54,  55,  56,  57,  58,  59,  60,  61,  62,  63,  64,
        65,  66,  67,  68,  69,  70,  71,  72,  73,  74,  75,  76,  77,
        78,  79,  80,  81,  82,  83,  84,  85,  86,  87,  88,  89, 120,
       121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 131, 132, 133,
       134, 135, 136, 137, 138, 139, 140, 141, 142, 143, 144, 145, 146,
       147, 148, 149]), array([ 90,  91,  92,  93,  94,  95,  96,  97,  98,  99, 100, 101, 102,
       103, 104, 105, 106, 107, 108, 109, 110, 111, 112, 113, 114, 115,
       116, 117, 118, 119]))
====================================================
(array([  0,   1,   2,   3,   4,   5,   6,   7,   8,   9,  10,  11,  12,
        13,  14,  15,  16,  17,  18,  19,  20,  21,  22,  23,  24,  25,
        26,  27,  28,  29,  30,  31,  32,  33,  34,  35,  36,  37,  38,
        39,  40,  41,  42,  43,  44,  45,  46,  47,  48,  49,  50,  51,
        52,  53,  54,  55,  56,  57,  58,  59,  60,  61,  62,  63,  64,
        65,  66,  67,  68,  69,  70,  71,  72,  73,  74,  75,  76,  77,
        78,  79,  80,  81,  82,  83,  84,  85,  86,  87,  88,  89,  90,
        91,  92,  93,  94,  95,  96,  97,  98,  99, 100, 101, 102, 103,
       104, 105, 106, 107, 108, 109, 110, 111, 112, 113, 114, 115, 116,
       117, 118, 119]), array([120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 131, 132,
       133, 134, 135, 136, 137, 138, 139, 140, 141, 142, 143, 144, 145,
       146, 147, 148, 149]))

2.2.随机打散数据并做10次10折交叉验证

# -*- coding: utf-8 -*-
import numpy as np
from sklearn import cross_validation
from sklearn import datasets
from sklearn import svm
iris = datasets.load_iris()
X=iris.data
Y=iris.target

def tenFolds(X,Y):
    from sklearn.model_selection import StratifiedKFold
    skf= StratifiedKFold(n_splits=10)
    from sklearn.cross_validation import cross_val_score
    clf = svm.SVC(kernel='linear', C=5)
    zhou=[]
    #shoushou=list(skf.split(X,Y)) #发现每一个都是tuple类型的数据
    for train_index,test_index in skf.split(X,Y):
        print('Train: ',train_index,'Test: ',test_index)
        X_train,X_test=X[train_index],X[test_index]
        Y_train,Y_test=Y[train_index],Y[test_index]
        v10=cross_val_score(clf,X_train,Y_train,cv=5).mean() 
        zhou.append(v10)
    print('均值:',np.mean(zhou)) 
    print('方差:',np.std(zhou)) 
    return zhou,np.mean(zhou)+np.std(zhou)

# X:features  Y:targets  cv:k
import pandas as pd
all_valid=[]
mean_var=[]
#做10次10折交叉验证结果分析
for i in range(1,11):
    df1=pd.DataFrame(X)
    df2=pd.DataFrame(Y)
    df3=pd.concat([df1,df2],axis=1)
    df3.columns=['f1','f2','f3','f4','label']
    df3=df3.sample(frac = 1) #随机打乱样本
    df3.index=range(150)
    X1=np.array(df3[['f1','f2','f3','f4']])
    Y1=np.array(df3['label'])
    zhou,vsd= tenFolds(X1,Y1)
    all_valid.append(zhou)
    mean_var.append(vsd)
np.mean(mean_var) 

all_valid

[0.9777777777777776, 0.962962962962963, 0.962962962962963, 0.9703703703703702, 0.9703703703703702, 0.9703703703703702, 0.9777777777777779, 0.9555555555555555, 0.9555555555555555, 0.9703703703703702]
[0.9555555555555555, 0.9703703703703704, 0.962962962962963, 0.9555555555555555, 0.9703703703703704, 0.962962962962963, 0.9703703703703702, 0.9925925925925926, 0.9703703703703702, 0.9777777777777776]
[0.9703703703703704, 0.9777777777777779, 0.9555555555555555, 0.9703703703703704, 0.9703703703703704, 0.9481481481481481, 0.9703703703703704, 0.962962962962963, 0.962962962962963,
 0.9777777777777779]
[0.9703703703703702, 0.9703703703703702, 0.962962962962963, 0.9851851851851852, 0.962962962962963, 0.962962962962963, 
0.9703703703703702, 0.9777777777777779, 0.9703703703703702, 0.9703703703703702]
[0.9777777777777779, 0.962962962962963, 0.9555555555555555, 0.962962962962963, 0.962962962962963, 0.9555555555555555, 
0.9703703703703702, 0.9777777777777776, 0.9407407407407407, 0.9777777777777776]
[0.9481481481481481, 0.9703703703703704, 0.9777777777777779, 0.9407407407407409, 0.962962962962963, 0.9555555555555555, 0.9555555555555555, 0.962962962962963, 0.9703703703703702, 0.9851851851851852]
[0.9777777777777776, 0.9777777777777776, 0.9777777777777776, 0.9703703703703704, 0.9925925925925926, 0.9851851851851852, 0.9777777777777779, 0.9703703703703704, 0.9703703703703704, 0.9851851851851852]
[0.962962962962963, 0.9703703703703702, 0.9703703703703704, 0.962962962962963, 0.9703703703703702, 0.9777777777777779, 0.9481481481481481, 0.9555555555555555, 0.9481481481481481, 0.9555555555555557]
[0.962962962962963, 0.9703703703703702, 0.9555555555555555, 0.9703703703703704, 0.9703703703703702, 0.962962962962963, 0.9703703703703702, 0.962962962962963, 0.9555555555555555, 
0.962962962962963]
[0.9703703703703702, 0.962962962962963, 0.9555555555555555, 0.962962962962963, 0.9703703703703702, 0.9703703703703702, 0.9777777777777779, 0.9851851851851852, 0.9777777777777779, 0.9703703703703702]

mean_var

0.9749615103905077
0.9792592592592592
0.9755863663546611
0.9769957569703696
0.975823919626472
0.9757929689449547
0.9855066526904122
0.9718518518518519
0.9699876405729984
0.9784847786297061

分层交叉验证和不平衡数据集的处理:
https://blog.csdn.net/asialee_bird/article/details/83714612
Python smote例程:使用sklearn的make_classification生成不平衡数据样本
https://blog.csdn.net/levy_cui/article/details/86707049

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/jp_zhou256/article/details/85248578

智能推荐

while循环&CPU占用率高问题深入分析与解决方案_main函数使用while(1)循环cpu占用99-程序员宅基地

文章浏览阅读3.8k次,点赞9次,收藏28次。直接上一个工作中碰到的问题,另外一个系统开启多线程调用我这边的接口,然后我这边会开启多线程批量查询第三方接口并且返回给调用方。使用的是两三年前别人遗留下来的方法,放到线上后发现确实是可以正常取到结果,但是一旦调用,CPU占用就直接100%(部署环境是win server服务器)。因此查看了下相关的老代码并使用JProfiler查看发现是在某个while循环的时候有问题。具体项目代码就不贴了,类似于下面这段代码。​​​​​​while(flag) {//your code;}这里的flag._main函数使用while(1)循环cpu占用99

【无标题】jetbrains idea shift f6不生效_idea shift +f6快捷键不生效-程序员宅基地

文章浏览阅读347次。idea shift f6 快捷键无效_idea shift +f6快捷键不生效

node.js学习笔记之Node中的核心模块_node模块中有很多核心模块,以下不属于核心模块,使用时需下载的是-程序员宅基地

文章浏览阅读135次。Ecmacript 中没有DOM 和 BOM核心模块Node为JavaScript提供了很多服务器级别,这些API绝大多数都被包装到了一个具名和核心模块中了,例如文件操作的 fs 核心模块 ,http服务构建的http 模块 path 路径操作模块 os 操作系统信息模块// 用来获取机器信息的var os = require('os')// 用来操作路径的var path = require('path')// 获取当前机器的 CPU 信息console.log(os.cpus._node模块中有很多核心模块,以下不属于核心模块,使用时需下载的是

数学建模【SPSS 下载-安装、方差分析与回归分析的SPSS实现(软件概述、方差分析、回归分析)】_化工数学模型数据回归软件-程序员宅基地

文章浏览阅读10w+次,点赞435次,收藏3.4k次。SPSS 22 下载安装过程7.6 方差分析与回归分析的SPSS实现7.6.1 SPSS软件概述1 SPSS版本与安装2 SPSS界面3 SPSS特点4 SPSS数据7.6.2 SPSS与方差分析1 单因素方差分析2 双因素方差分析7.6.3 SPSS与回归分析SPSS回归分析过程牙膏价格问题的回归分析_化工数学模型数据回归软件

利用hutool实现邮件发送功能_hutool发送邮件-程序员宅基地

文章浏览阅读7.5k次。如何利用hutool工具包实现邮件发送功能呢?1、首先引入hutool依赖<dependency> <groupId>cn.hutool</groupId> <artifactId>hutool-all</artifactId> <version>5.7.19</version></dependency>2、编写邮件发送工具类package com.pc.c..._hutool发送邮件

docker安装elasticsearch,elasticsearch-head,kibana,ik分词器_docker安装kibana连接elasticsearch并且elasticsearch有密码-程序员宅基地

文章浏览阅读867次,点赞2次,收藏2次。docker安装elasticsearch,elasticsearch-head,kibana,ik分词器安装方式基本有两种,一种是pull的方式,一种是Dockerfile的方式,由于pull的方式pull下来后还需配置许多东西且不便于复用,个人比较喜欢使用Dockerfile的方式所有docker支持的镜像基本都在https://hub.docker.com/docker的官网上能找到合..._docker安装kibana连接elasticsearch并且elasticsearch有密码

随便推点

Python 攻克移动开发失败!_beeware-程序员宅基地

文章浏览阅读1.3w次,点赞57次,收藏92次。整理 | 郑丽媛出品 | CSDN(ID:CSDNnews)近年来,随着机器学习的兴起,有一门编程语言逐渐变得火热——Python。得益于其针对机器学习提供了大量开源框架和第三方模块,内置..._beeware

Swift4.0_Timer 的基本使用_swift timer 暂停-程序员宅基地

文章浏览阅读7.9k次。//// ViewController.swift// Day_10_Timer//// Created by dongqiangfei on 2018/10/15.// Copyright 2018年 飞飞. All rights reserved.//import UIKitclass ViewController: UIViewController { ..._swift timer 暂停

元素三大等待-程序员宅基地

文章浏览阅读986次,点赞2次,收藏2次。1.硬性等待让当前线程暂停执行,应用场景:代码执行速度太快了,但是UI元素没有立马加载出来,造成两者不同步,这时候就可以让代码等待一下,再去执行找元素的动作线程休眠,强制等待 Thread.sleep(long mills)package com.example.demo;import org.junit.jupiter.api.Test;import org.openqa.selenium.By;import org.openqa.selenium.firefox.Firefox.._元素三大等待

Java软件工程师职位分析_java岗位分析-程序员宅基地

文章浏览阅读3k次,点赞4次,收藏14次。Java软件工程师职位分析_java岗位分析

Java:Unreachable code的解决方法_java unreachable code-程序员宅基地

文章浏览阅读2k次。Java:Unreachable code的解决方法_java unreachable code

标签data-*自定义属性值和根据data属性值查找对应标签_如何根据data-*属性获取对应的标签对象-程序员宅基地

文章浏览阅读1w次。1、html中设置标签data-*的值 标题 11111 222222、点击获取当前标签的data-url的值$('dd').on('click', function() { var urlVal = $(this).data('ur_如何根据data-*属性获取对应的标签对象

推荐文章

热门文章

相关标签