У меня есть приложение C#, и я использую класс FileStream для чтения 120-гигабайтного файла с * EDIT * isilon storage unit (отображается на z-диск) по гигабитной локальной сети. Я начинаю с скорости чтения со скоростью 45 мегабайт в секунду, но примерно в диапазоне 20 ГБ скорость чтения резко падает и оседает примерно до 9 мегабайт в секунду. Кто-нибудь есть идеи о том, что может вызвать замедление?Замедление при копировании огромных (120 + ГБ) файлов
Сервер Windows Server 2008 Enterprise R2 64-разрядная, 16 ГБ оперативная память, двухъядерный четырехъядерный процессор и мое приложение - это консольное приложение на платформе .NET Framework 4.0. Вот мой код:
byte[] buffer = new byte[16777216];
int count;
long totalBytes = 0;
FileStream file = File.OpenRead("z:\bigfile.dat");
while ((count = file.Read(buffer, 0, buffer.Length)) > 0)
{
// I track megabyte/second here
totalBytes += count;
}
Смотрите, если же код имеет замедление в Mono, так вы знаете, если проблема с NTFS (и у меня такое ощущение, что это так) – alternative
Дефрагментация диска в любом случае. –
Это просто ОС с чашкой чая. Будь как будет. – slugster