CentOS下下刪除大量檔案

2021-09-06 22:41:17 字數 1589 閱讀 8314

首先建立50萬個檔案

➜ test for i in $(seq 1 500000);do echo text >>$i.txt;done

1. rm

➜ test time rm -f *

zsh: sure you want to delete all the files in /home/hungerr/test [yn]? y

zsh: argument list too long: rm

rm -f * 3.63s user 0.29s system 98% cpu 3.985 total

由於檔案數量過多,rm不起作用。

2. find

➜ test time find ./ -type f -exec rm {} \;

find ./ -type f -exec rm {} \; 49.86s user 1032.13s system 41% cpu 43:19.17 total

3. find with delete

➜ test time find ./ -type f -delete

find ./ -type f -delete 0.43s user 11.21s system 2% cpu 9:13.38 total

用時9分鐘。

4. rsync

首先建立空資料夾blanktest

➜ ~ time rsync -a --delete blanktest/ test/

rsync -a --delete blanktest/ test/ 0.59s user 7.86s system 51% cpu 16.418 total

16s,很好很強大。

5. python

import os

import timeit

def main():

for pathname,dirnames,filenames in os.walk('/home/username/test'):

for filename in filenames:

file=os.path.join(pathname,filename)

os.remove(file)

if __name__=='__main__':

t=timeit.timer('main()','from __main__ import main')

print t.timeit(1)  

➜ ~ python test.py

529.309022903

大概用時9分鐘。

6. perl

➜ test time perl -e 'for(<*>)'

perl -e 'for(<*>)' 1.28s user 7.23s system 50% cpu 16.784 total

16s,這個應該最快了。

統計一下:

命令 耗費時間

rm 檔案數量太多,不可用

find with -exec 50萬檔案耗時43分鐘

find with -delete 9分鐘

perl 16s

python 9分鐘

rsync with -delete 16s

AIX刪除大量的檔案

oracle home rdbms audit目錄下經常會有一些審計資訊產生,需要定期刪除 pwd rm rf ksh usr bin rm 0403 027 the parameter list is too long.ls wc l 241108 getconf arg max 24576 可以...

Linux下刪除大量檔案

主要參考了 首先建立50萬個檔案 test for i in seq 1500000 do echo text i.txt done test time rm f zsh sure you want to delete all the files in home hungerr test yn y ...

快速刪除大量小檔案

由於bash會展開例如 rm aa 這樣的命令 如果後面的檔案太多就會報引數太長,所以有時候刪除大量小檔案就不適合用rm了 可以使用find先查詢在刪除 就不會出現上面那種報錯問題,可是還有乙個問題檔案太多的話 exec rm 完全沒有效率,一兩個小時估計也就只能刪除幾十萬的檔案 對於需要刪除百萬為...