讀取大檔案時,使用f.read()一次性讀取整個檔案會比較困難,通常一行一行讀取。
一、使用 f.readline()
f =
open
(r"d:\python study\readme.txt"
)# readme檔案的路徑
while
true
: text = f.readline(
)print
(text)
ifnot text:
break
f.close
結果為:
123
45
二、迭代讀取
f =
open
(r"d:\python study\readme.txt"
)# readme檔案的路徑
for line in f:
print
(line, end='')
f.close
結果為:
123
45
三、二者混用
f =
open
(r"d:\python study\readme.txt"
)# readme檔案的路徑
for line in f:
text = f.readline(
)print
(text)
f.close
結果為:
2
4
二者混用後,並不能正常讀取。 因為兩者的處理機制不同, 最好不要混用。在複製寫入檔案時,同樣會出錯。 python 讀取大檔案
以前一直沒有關注過python讀取大檔案的問題,因為一直都是順順暢暢地讀取了檔案。直到今天有人問我python怎麼讀取檔案出現了記憶體不足的錯誤?我才發現原來大檔案 gb級別 的讀取和普通檔案的讀取是不一樣的。下面介紹三種我親測可用的方法。這裡的檔案型別可以是txt,dat等型別的檔案。用read ...
python讀取大檔案
最近在學習python的過程中接觸到了python對檔案的讀取。python讀取檔案一般情況是利用open 函式以及read 函式來完成 f open filename,r f.read 這種方法讀取小檔案,即讀取遠遠大小小於記憶體的檔案顯然沒有什麼問題。但是如果是將乙個10g大小的日誌檔案讀取,即...
python 大檔案的讀取
在這裡插入 片很久以前做數學建模的時候面臨了一回大檔案的讀取問題,當時沒有什麼程式設計經驗就使用如下的 進行了讀取。with open filename,rb as fp for line in fp.readlines do something line 這種 在檔案比較小時倒也沒有太大影響,但是...