(编辑:jimmy 日期: 2024/11/10 浏览:2)
测试一下Linux下面删除大量文件的效率。
首先建立50万个文件
$ test for i in $(seq 1 500000);do echo text $i.txt;done
1. rm删除
$ time rm -f *
zsh: sure you want to delete all the files in /home/hungerr/test [yn]"htmlcode">import os import timeit def main(): for pathname,dirnames,filenames in os.walk('/home/username/test'): for filename in filenames: file=os.path.join(pathname,filename) os.remove(file) if __name__=='__main__': t=timeit.Timer('main()','from __main__ import main') print t.timeit(1) 1 2 $ python test.py 529.309022903大概用时9分钟。
6. Perl删除
$ time perl -e 'for(<*>){((stat)[9]<(unlink))}'
perl -e 'for(<*>){((stat)[9]<(unlink))}' 1.28s user 7.23s system 50% cpu 16.784 total16s
这个应该最快了。
7、结果:
- rm:文件数量太多,不可用
- find with -exec 50万文件耗时43分钟
- find with -delete 9分钟
- Perl 16sPython 9分钟
- rsync with -delete 16s
结论:删除大量小文件rsync最快,最方便。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。