python分塊讀取大資料,避免記憶體不足的方法

2022-10-04 18:36:11 字數 602 閱讀 7007

如下所示:

def read_data(file_name):

'''file_name:檔案位址

'''inputfile = open(file_name, 'rb') #可開啟含有中文的位址

data = pd.read_csv(i iterator=true)

loop = true

chunksize = 1000 #一千行一塊

chunks =

while loop:

try:

cwww.cppcns.comhunk = dcs.get_chunk(chunksize)

chunks.append(chunk)

except stopiteration:

loop = false

程式設計客棧print("iteration is stopped.")

data = pd.concat(chunks, ignore_index=true)

#print(train.程式設計客棧head())

odvnbwwq return data

本文標題: python分塊讀取大資料,避免記憶體不足的方法

本文位址:

Python 分塊讀取大檔案

python中讀取檔案的方式有許多種,往往資料量大的情況令人苦惱。之前一篇部落格我說會發大檔案讀取的後續。那麼後續來啦!1 import pandas as pd2 採用塊讀取功能,讀取csv檔案 3 path1 data tianchi mobile recommend train user.cs...

python讀取大資料csv R讀取並處理較大資料

1.概述 之前在讀取和處理較大的csv資料時,在嘗試了一次直接讀取處理後發現非常耗時,就改用匯入資料庫,再通過rmysql或者rodbc來讀取處理資料。今天來比較一下。載入相關packages library data.table library dplyr library sqldf librar...

Python 多執行緒分塊讀取檔案

什麼也不說,直接上 絕對看的懂 coding utf 8 import time,threading,configparser reader類,繼承threading.thread init 方法初始化 run方法實現了讀檔案的操作 class reader threading.thread def...