读书人

linux目录下百万级文件应如何避免

发布时间: 2013-12-20 00:23:10 作者: rapoo

linux目录下百万级文件应如何处理?
我的网站附件图片有100多G,解压出来的的文件个数可能在百万级吧!
刚买了一个云服务器,我把100来G的文件分别打包在5-6G左右的zip格式上传到服务器目录中,用unzip命令解压,开始解压二个压缩文件速度还可以,当解压第三个压缩文件的时候,发现很慢,很慢!解压一个文件要好长时间,可能1个小时,具体时间没测试!不知道为什么?

我的文件存放格式为
upload_files/a/1/1.jpg 2.jpg 3.jpg 4.jpg 5.jpg
upload_files/a/2/1.jpg 2.jpg 3.jpg 4.jpg 5.jpg
upload_files/a/3/1.jpg 2.jpg 3.jpg 4.jpg 5.jpg
upload_files/a/N……/1.jpg 2.jpg 3.jpg 4.jpg 5.jpg

upload_files/b/1/1.jpg 2.jpg 3.jpg 4.jpg 5.jpg
upload_files/b/2/1.jpg 2.jpg 3.jpg 4.jpg 5.jpg
upload_files/b/3/1.jpg 2.jpg 3.jpg 4.jpg 5.jpg
upload_files/b/N……/1.jpg 2.jpg 3.jpg 4.jpg 5.jpg



limits.conf 这个的问题?
[解决办法]
你是写一个bash程序自动运行的?还是手动的?
运行完一个unzip,释放一下内存再运行下一个。

读书人网 >UNIXLINUX

热点推荐