Python資料集切分

2021-08-14 13:58:52 字數 1534 閱讀 8263

在處理資料過程中經常要把資料集切分為訓練集和測試集,因此記錄一下切分**。

'''

data:資料集

test_ratio:測試機占比

如果data為numpy.numpy.ndarray直接使用此**

如果data為pandas.datframe型別則

return data[train_indices],data[test_indices]

修改為 return data.iloc[train_indices],data.iloc[test_indices]

'''def

split_train

(data,test_ratio):

shuffled_indices=np.random.permutation(len(data))

test_set_size=int(len(data)*test_ratio)

test_indices =shuffled_indices[:test_set_size]

train_indices=shuffled_indices[test_set_size:]

return data[train_indices],data[test_indices]

測試**如下:

import numpy as np

import pandas as pd

data=np.random.randint(100,size=[25,4])

print(data)

結果如下:

從上圖可以看出,原資料集按照5:1被隨機分為兩部分。但是此種方法存在乙個缺點–每次呼叫次函式切分同乙個資料集切分出來的結果都不一樣,因此常在np.random.permutation(len(data))先呼叫np.random.seed(int)函式,來確保每次切分來的結果相同。因此將上述函式改為:

def

split_train

(data,test_ratio):

np.random.seed(43)

shuffled_indices=np.random.permutation(len(data))

test_set_size=int(len(data)*test_ratio)

test_indices =shuffled_indices[:test_set_size]

train_indices=shuffled_indices[test_set_size:]

return data[train_indices],data[test_indices]

這個函式np.random.seed(43)當引數為同一整數時產生的隨機數相同。

PYTHON 訓練集與測試集切分

通常,我們在建模之前會對原始資料進行切分,現對該方法進行打包。資料切分,按照7 3切分訓練集與測試集 data df 原始資料 object col 目標變數 defdata split data df object col from sklearn.model selection import t...

訓練集與測試集切分

為了 更好的訓練資料並且更好測試模型,一般做機器學習之前都會進行訓練集和測試集的切分。其實我們可以先把資料的輸入x和輸出向量y進行乙個水平拼接,然後隨機之後拆開,但是過程比較麻煩。在sklearn中shuffle的並不是訓練集,而是訓練集長度大小的隨機索引。shuffle indexes np.ra...

將資料集切分成「訓練 測試資料集」和交叉驗證

把資料集分為兩部分 分別用於訓練和測試 sklearn提供乙個將資料集切分成訓練集和測試集的函式。from sklearn.cross validation import train test splitxd train,xd test,y train,y test train test split...