问题 如何使用tensorflow执行k折交叉验证?


我跟着 张量流的IRIS示例

我现在的情况是我将所有数据都放在一个CSV文件中,而不是分开,我想对该数据应用k-fold交叉验证。

我有

data_set = tf.contrib.learn.datasets.base.load_csv(filename="mydata.csv",
                                                   target_dtype=np.int)

如何使用多层神经网络对此数据集执行k-fold交叉验证,与IRIS示例相同?


3144
2017-09-28 13:15


起源



答案:


NN通常用于不使用CV的大型数据集 - 而且非常昂贵。在IRIS的情况下(每个物种50个样本),您可能需要它.. 为什么不用 scikit-learn与不同的随机种子 分开你的训练和测试?

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=42)

k in kfold:

  1. 不同地分割数据将不同的值传递给“random_state”
  2. 使用_train学习网络
  3. 使用_test测试

如果你不喜欢随机种子,想要更有条理的k折分裂, 你可以用这个来自 这里

from sklearn.model_selection import KFold, cross_val_score
X = ["a", "a", "b", "c", "c", "c"]
k_fold = KFold(n_splits=3)
for train_indices, test_indices in k_fold.split(X):
    print('Train: %s | test: %s' % (train_indices, test_indices))
Train: [2 3 4 5] | test: [0 1]
Train: [0 1 4 5] | test: [2 3]
Train: [0 1 2 3] | test: [4 5]

9
2017-11-20 10:42



答案与问题无关!!!应该提供Tensorflow解决方案的答案 - AGP


答案:


NN通常用于不使用CV的大型数据集 - 而且非常昂贵。在IRIS的情况下(每个物种50个样本),您可能需要它.. 为什么不用 scikit-learn与不同的随机种子 分开你的训练和测试?

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=42)

k in kfold:

  1. 不同地分割数据将不同的值传递给“random_state”
  2. 使用_train学习网络
  3. 使用_test测试

如果你不喜欢随机种子,想要更有条理的k折分裂, 你可以用这个来自 这里

from sklearn.model_selection import KFold, cross_val_score
X = ["a", "a", "b", "c", "c", "c"]
k_fold = KFold(n_splits=3)
for train_indices, test_indices in k_fold.split(X):
    print('Train: %s | test: %s' % (train_indices, test_indices))
Train: [2 3 4 5] | test: [0 1]
Train: [0 1 4 5] | test: [2 3]
Train: [0 1 2 3] | test: [4 5]

9
2017-11-20 10:42



答案与问题无关!!!应该提供Tensorflow解决方案的答案 - AGP


我知道这个问题已经过时了,但是如果有人想要做类似的事情,请继续扩展 ahmedhosny的 回答:

新的tensorflow数据集API能够使用python生成器创建数据集对象,因此与scikit-learn的KFold一起,一个选项可以是从KFold.split()生成器创建数据集:

import numpy as np

from sklearn.model_selection import LeaveOneOut,KFold

import tensorflow as tf
import tensorflow.contrib.eager as tfe
tf.enable_eager_execution()

from sklearn.datasets import load_iris
data = load_iris()
X=data['data']
y=data['target']

def make_dataset(X_data,y_data,n_splits):

    def gen():
        for train_index, test_index in KFold(n_splits).split(X_data):
            X_train, X_test = X_data[train_index], X_data[test_index]
            y_train, y_test = y_data[train_index], y_data[test_index]
            yield X_train,y_train,X_test,y_test

    return tf.data.Dataset.from_generator(gen, (tf.float64,tf.float64,tf.float64,tf.float64))

dataset=make_dataset(X,y,10)

然后,可以在基于图的张量流或使用急切执行中迭代数据集。使用急切执行:

for X_train,y_train,X_test,y_test in tfe.Iterator(dataset):
    ....

6
2018-05-10 12:59



这应该标记为我认为的答案...... - AGP