Как разбить данные на 3 набора (тренировка, проверка и тестирование)?


146

У меня есть датафрейм pandas, и я хочу разделить его на 3 отдельных набора. Я знаю , что с помощью train_test_split из sklearn.cross_validation, можно разделить данные в двух сетах (поезд и тест). Тем не менее, я не смог найти никакого решения о разделении данных на три набора. Желательно, чтобы у меня были индексы исходных данных.

Я знаю, что обходной путь будет использовать train_test_splitдва раза и как-то скорректировать индексы. Но есть ли более стандартный / встроенный способ разбить данные на 3 набора вместо 2?


5
Это не отвечает на ваш конкретный вопрос, но я думаю, что более стандартный подход для этого будет разделять на два набора, обучать и тестировать, и выполнять перекрестную проверку на обучающем наборе, таким образом устраняя необходимость в отдельном наборе «разработки» ,
Дэвид

1
Это произошло раньше, и, насколько я знаю, для этого пока нет встроенного метода.
Айхан

5
Я предлагаю Hastie et al. « Элементы статистического обучения» для обсуждения того, почему использовать три набора вместо двух ( web.stanford.edu/~hastie/local.ftp/Springer/OLD/… глава «Оценка и выбор модели»)
Айхан

2
@David В некоторых моделях для предотвращения переоснащения необходимо 3 комплекта вместо 2. Поскольку при выборе дизайна вы каким-то образом настраиваете параметры, чтобы повысить производительность тестового набора. Чтобы предотвратить это, требуется набор для разработки. Таким образом, использование перекрестной проверки будет недостаточно.
CentAu

6
@ayhan, исправленный URL-адрес этой книги - statweb.stanford.edu/~tibs/ElemStatLearn/printings/… , глава 7 (стр. 219).
Камиль Гудесюн

Ответы:


161

Numpy решение. Сначала мы перетасуем весь набор данных (df.sample (frac = 1)), а затем разделим наш набор данных на следующие части:

  • 60% - поездный набор,
  • 20% - проверочный набор,
  • 20% - тестовый набор

In [305]: train, validate, test = np.split(df.sample(frac=1), [int(.6*len(df)), int(.8*len(df))])

In [306]: train
Out[306]:
          A         B         C         D         E
0  0.046919  0.792216  0.206294  0.440346  0.038960
2  0.301010  0.625697  0.604724  0.936968  0.870064
1  0.642237  0.690403  0.813658  0.525379  0.396053
9  0.488484  0.389640  0.599637  0.122919  0.106505
8  0.842717  0.793315  0.554084  0.100361  0.367465
7  0.185214  0.603661  0.217677  0.281780  0.938540

In [307]: validate
Out[307]:
          A         B         C         D         E
5  0.806176  0.008896  0.362878  0.058903  0.026328
6  0.145777  0.485765  0.589272  0.806329  0.703479

In [308]: test
Out[308]:
          A         B         C         D         E
4  0.521640  0.332210  0.370177  0.859169  0.401087
3  0.333348  0.964011  0.083498  0.670386  0.169619

[int(.6*len(df)), int(.8*len(df))]- это indices_or_sectionsмассив для numpy.split () .

Вот небольшая демонстрация для np.split()использования - давайте разделим массив из 20 элементов на следующие части: 80%, 10%, 10%:

In [45]: a = np.arange(1, 21)

In [46]: a
Out[46]: array([ 1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20])

In [47]: np.split(a, [int(.8 * len(a)), int(.9 * len(a))])
Out[47]:
[array([ 1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11, 12, 13, 14, 15, 16]),
 array([17, 18]),
 array([19, 20])]

@root, что именно делает параметр frac = 1?
SpiderWasp42

1
@ SpiderWasp42, frac=1инструктирует sample()функцию возвращать все ( 100%или дробные = 1.0) строки
MaxU

12
Спасибо @MaxU. Я хотел бы упомянуть 2 вещи, чтобы упростить вещи. Во-первых, используйте np.random.seed(any_number)перед линией разделения, чтобы получить одинаковый результат при каждом запуске. Во-вторых, чтобы сделать неравное соотношение, как train:test:val::50:40:10использование [int(.5*len(dfn)), int(.9*len(dfn))]. Здесь первый элемент обозначает размер для train(0,5%), второй элемент обозначает размер для val(1-0,9 = 0,1%), а разница между двумя значениями обозначает размер для test(0,9-0,5 = 0,4%). Поправь меня, если я ошибаюсь :)
dataLeo

hrmm это ошибка, когда вы говорите: «Вот небольшая демонстрация для использования np.split () - давайте разберем массив из 20 элементов на следующие части: 90%, 10%, 10%:« Я уверен, что вы имеете в виду 80 %, 10%, 10%
Кевин

Эй, @MaxU У меня был случай, что-то похожее. Мне было интересно, не могли бы вы взглянуть на это, чтобы увидеть, если это так, и помочь мне там. Вот мой вопрос stackoverflow.com/questions/54847668/…
Deepak M

55

Примечание:

Была написана функция для обработки заполнения создания случайного набора. Вы не должны полагаться на разбиение множества, которое не рандомизирует множества.

import numpy as np
import pandas as pd

def train_validate_test_split(df, train_percent=.6, validate_percent=.2, seed=None):
    np.random.seed(seed)
    perm = np.random.permutation(df.index)
    m = len(df.index)
    train_end = int(train_percent * m)
    validate_end = int(validate_percent * m) + train_end
    train = df.iloc[perm[:train_end]]
    validate = df.iloc[perm[train_end:validate_end]]
    test = df.iloc[perm[validate_end:]]
    return train, validate, test

демонстрация

np.random.seed([3,1415])
df = pd.DataFrame(np.random.rand(10, 5), columns=list('ABCDE'))
df

введите описание изображения здесь

train, validate, test = train_validate_test_split(df)

train

введите описание изображения здесь

validate

введите описание изображения здесь

test

введите описание изображения здесь


1
Я считаю, что эта функция требует df со значениями индекса в диапазоне от 1 до n. В моем случае я изменил функцию, чтобы использовать df.loc, поскольку мои значения индекса не обязательно были в этом диапазоне.
iOSBeginner

32

Тем не менее, один из подходов к разделению набора данных в train, test, cvс 0.6, 0.2, 0.2будут использовать train_test_splitметод дважды.

from sklearn.model_selection import train_test_split

x, x_test, y, y_test = train_test_split(xtrain,labels,test_size=0.2,train_size=0.8)
x_train, x_cv, y_train, y_cv = train_test_split(x,y,test_size = 0.25,train_size =0.75)

Субоптимальный для больших наборов данных
Максим Ганенко

@MaksymGanenko Можете ли вы уточнить?
blitu12345

Вы предлагаете разделить данные двумя отдельными операциями. Каждый раздел данных включает в себя копирование данных. Поэтому, когда вы предлагаете использовать две отдельные операции разделения вместо одной, вы искусственно создаете нагрузку как на ОЗУ, так и на ЦП. Так что ваше решение неоптимально. Разделение данных должно быть сделано с помощью одной операции, как np.split(). Кроме того, он не требует дополнительной зависимости от sklearn.
Максим Ганенко

@MaksymGanenko согласился с дополнительной нагрузкой на память, и для этого мы можем удалить исходные данные из памяти, т. Е. (Xtrain и метки)! А ваше предложение об использовании numpy несколько ограничено только целочисленными типами данных, а как насчет других типов данных?
blitu12345

1
Еще одним преимуществом этого подхода является то, что вы можете использовать параметры стратификации.
Ами Тавори

7

Вот функция Python, которая разбивает фрейм данных Pandas на обучающие, проверочные и тестовые фреймы данных со стратифицированной выборкой. Он выполняет это разделение, дважды вызывая функцию scikit-learn train_test_split().

import pandas as pd
from sklearn.model_selection import train_test_split

def split_stratified_into_train_val_test(df_input, stratify_colname='y',
                                         frac_train=0.6, frac_val=0.15, frac_test=0.25,
                                         random_state=None):
    '''
    Splits a Pandas dataframe into three subsets (train, val, and test)
    following fractional ratios provided by the user, where each subset is
    stratified by the values in a specific column (that is, each subset has
    the same relative frequency of the values in the column). It performs this
    splitting by running train_test_split() twice.

    Parameters
    ----------
    df_input : Pandas dataframe
        Input dataframe to be split.
    stratify_colname : str
        The name of the column that will be used for stratification. Usually
        this column would be for the label.
    frac_train : float
    frac_val   : float
    frac_test  : float
        The ratios with which the dataframe will be split into train, val, and
        test data. The values should be expressed as float fractions and should
        sum to 1.0.
    random_state : int, None, or RandomStateInstance
        Value to be passed to train_test_split().

    Returns
    -------
    df_train, df_val, df_test :
        Dataframes containing the three splits.
    '''

    if frac_train + frac_val + frac_test != 1.0:
        raise ValueError('fractions %f, %f, %f do not add up to 1.0' % \
                         (frac_train, frac_val, frac_test))

    if stratify_colname not in df_input.columns:
        raise ValueError('%s is not a column in the dataframe' % (stratify_colname))

    X = df_input # Contains all columns.
    y = df_input[[stratify_colname]] # Dataframe of just the column on which to stratify.

    # Split original dataframe into train and temp dataframes.
    df_train, df_temp, y_train, y_temp = train_test_split(X,
                                                          y,
                                                          stratify=y,
                                                          test_size=(1.0 - frac_train),
                                                          random_state=random_state)

    # Split the temp dataframe into val and test dataframes.
    relative_frac_test = frac_test / (frac_val + frac_test)
    df_val, df_test, y_val, y_test = train_test_split(df_temp,
                                                      y_temp,
                                                      stratify=y_temp,
                                                      test_size=relative_frac_test,
                                                      random_state=random_state)

    assert len(df_input) == len(df_train) + len(df_val) + len(df_test)

    return df_train, df_val, df_test

Ниже приведен полный рабочий пример.

Рассмотрим набор данных с меткой, на которой вы хотите выполнить стратификацию. Эта метка имеет свое собственное распространение в исходном наборе данных, скажем, 75% foo, 15% barи 10% baz. Теперь давайте разделим набор данных на тренировку, проверку и тестирование на подмножества, используя соотношение 60/20/20, где каждое разделение сохраняет одинаковое распределение меток. Смотрите иллюстрацию ниже:

введите описание изображения здесь

Вот пример набора данных:

df = pd.DataFrame( { 'A': list(range(0, 100)),
                     'B': list(range(100, 0, -1)),
                     'label': ['foo'] * 75 + ['bar'] * 15 + ['baz'] * 10 } )

df.head()
#    A    B label
# 0  0  100   foo
# 1  1   99   foo
# 2  2   98   foo
# 3  3   97   foo
# 4  4   96   foo

df.shape
# (100, 3)

df.label.value_counts()
# foo    75
# bar    15
# baz    10
# Name: label, dtype: int64

Теперь давайте вызовем split_stratified_into_train_val_test()функцию сверху, чтобы получить обучающие, проверочные и тестовые кадры данных в соотношении 60/20/20.

df_train, df_val, df_test = \
    split_stratified_into_train_val_test(df, stratify_colname='label', frac_train=0.60, frac_val=0.20, frac_test=0.20)

Три dataframes df_train, df_valи df_testсодержит все исходные строки , но их размеры будут следовать выше соотношению.

df_train.shape
#(60, 3)

df_val.shape
#(20, 3)

df_test.shape
#(20, 3)

Кроме того, каждое из трех разделений будет иметь одинаковое распределение метки, а именно 75% foo, 15% barи 10% baz.

df_train.label.value_counts()
# foo    45
# bar     9
# baz     6
# Name: label, dtype: int64

df_val.label.value_counts()
# foo    15
# bar     3
# baz     2
# Name: label, dtype: int64

df_test.label.value_counts()
# foo    15
# bar     3
# baz     2
# Name: label, dtype: int64

NameError: имя 'df' не определено. 'Df' в split_stratified_into_train_val_test () следует заменить на 'df_input'.
Фэнтези Поллок

Спасибо. Я починил это. Проблема была в пути обработки ошибок кода.
stackoverflowuser2010

1

Это очень удобно использовать train_test_splitбез переиндексации после разделения на несколько наборов и без написания дополнительного кода. В вышеприведенном наилучшем ответе не упоминается, что разделение два раза с использованием train_test_splitнеизменяемых размеров разделов не даст изначально предполагаемый раздел:

x_train, x_remain = train_test_split(x, test_size=(val_size + test_size))

Тогда часть проверочных и тестовых наборов в x_remain изменится и может быть посчитана как

new_test_size = np.around(test_size / (val_size + test_size), 2)
# To preserve (new_test_size + new_val_size) = 1.0 
new_val_size = 1.0 - new_test_size

x_val, x_test = train_test_split(x_remain, test_size=new_test_size)

В этом случае все начальные разделы сохраняются.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.