求高效的大文件操作方法
有个文件大概20M - 30M 的样子需要频繁的改变,其实就是一个加密解密的过程,但这个操作非常频繁。
目前处理方式打开文件句柄后读入1024个字节,改变后写入,然后再次读出写入 ......
这么做的最大缺点是频繁的读写,对文件完整性有考验,可能读写一半后就出错照成文件损坏。。。
求高效解决方案
[解决办法]
是的。不过,顺序处理几个G的大文件,比如计算md5,总不能一次加载到内存吧。
而用stream计算md5,每次从filestream里读取几十个字节,效率很低的。我那个类是在内部对filestream做了缓存处理。