所以我正在尝试加密一些文件并且工作正常,但是当我尝试包含一个进度条来显示大文件有多远时,例如 100mb-1gb 文件,性能被削减并且非常慢。我假设这是因为ReportProgress被快速调用,所以我添加了秒表,仅每2秒更新一次,但这导致它的工作速度更快(如果不调用reportProgress,仍然没有那么快),但有时也不会更新进度条。
using (FileStream fsCrypt = new FileStream(cryptFile, FileMode.Create))
{
using (CryptoStream cs = new CryptoStream(fsCrypt, AES.CreateEncryptor(), CryptoStreamMode.Write))
{
using (FileStream fsIn = new FileStream(inputFile, FileMode.Open))
{
int data;
int test = 0;
Stopwatch stopw = new Stopwatch();
stopw.Start();
while ((data = fsIn.ReadByte()) != -1)
{
cs.WriteByte((byte) data);
test++;
if (stopw.Elapsed.Seconds > 2)
{
stopw.Reset();
backgroundWorker1.ReportProgress((int) fsIn.Length);
}
}
stopw.Stop();
}
}
}
一个例子是,删除backgroundWorker1.ReportProgress((int) fsIn.Length);
行后,一个文件可能需要 5 秒,但加上它,最终需要 20 秒。
我能做些什么来改善这一点并使其更快?
我的建议是不要使用秒表,而只是继续使用#字节。 也许在每个字节后检查秒表需要很长时间(虽然似乎不太可能,但谁知道呢)。 另外,在 while 循环之外获取一次fsIn.Length
。
using (FileStream fsCrypt = new FileStream(cryptFile, FileMode.Create))
{
using (CryptoStream cs = new CryptoStream(fsCrypt, AES.CreateEncryptor(), CryptoStreamMode.Write))
{
using (FileStream fsIn = new FileStream(inputFile, FileMode.Open))
{
int data;
long test = 0;
long total = fsIn.Length;
while ((data = fsIn.ReadByte()) != -1)
{
cs.WriteByte((byte) data);
test++;
if (test % 10000 == 0)
{
backgroundWorker1.ReportProgress((int) (test * 100 / total));
}
}
}
}
}
还要确保 ReportProgress
事件处理程序中的代码不是罪魁祸首。 你不想在那里做任何昂贵的事情。