Я использую SQLBULKCOPY для копирования некоторых таблиц данных в таблицу базы данных, однако, поскольку размер файлов, которые я копирую, иногда превышает 600 мб, у меня заканчивается нехватка памяти.sqlbulkcopy mem. управление
Я надеюсь получить некоторые советы по управлению размером таблицы, прежде чем я передам ее базе данных, чтобы я мог освободить память, чтобы продолжить запись.
Вот некоторые примеры моего кода (некоторые столбцы и строки исключаемые для простоты)
SqlBulkCopy sqlbulkCopy = new SqlBulkCopy(ServerConfiguration); //Define the Server Configuration
System.IO.StreamReader rdr = new System.IO.StreamReader(fileName);
Console.WriteLine("Counting number of lines...");
Console.WriteLine("{0}, Contains: {1} Lines", fileName, countLines(fileName));
DataTable dt = new DataTable();
sqlbulkCopy.DestinationTableName = "[dbo].[buy.com]"; //You need to define the target table name where the data will be copied
dt.Columns.Add("PROGRAMNAME");
dt.Columns.Add("PROGRAMURL");
dt.Columns.Add("CATALOGNAME");
string inputLine = "";
DataRow row; //Declare a row, which will be added to the above data table
while ((inputLine = rdr.ReadLine()) != null) //Read while the line is not null
{
i = 0;
string[] arr;
Console.Write("\rWriting Line: {0}", k);
arr = inputLine.Split('\t'); //splitting the line which was read by the stream reader object (tab delimited)
row = dt.NewRow();
row["PROGRAMNAME"] = arr[i++];
row["PROGRAMURL"] = arr[i++];
row["CATALOGNAME"] = arr[i++];
row["LASTUPDATED"] = arr[i++];
row["NAME"] = arr[i++];
dt.Rows.Add(row);
k++;
}
// Set the timeout, 600 secons (10 minutes) given table size--damn that's a lota hooch
sqlbulkCopy.BulkCopyTimeout = 600;
try
{
sqlbulkCopy.WriteToServer(dt);
}
catch (Exception e)
{
Console.WriteLine(e);
}
sqlbulkCopy.Close();//Release the resources
dt.Dispose();
Console.WriteLine("\nDB Table Written: \"{0}\" \n\n", sqlbulkCopy.DestinationTableName.ToString());
}
Я продолжал иметь проблемы получения SqlBulkCopy на работу, и я понял, что мне нужно делать больше работы на каждая запись до того, как она была введена в базу данных, поэтому я разработал простой метод LinQ to Sql для записи записей с помощью записи, поэтому я мог редактировать другую информацию и создавать больше информации о записи по мере ее запуска,
Проблема: это метод работает довольно slo w (даже на процессоре Core i3), какие-либо идеи о том, как ускорить его (потоки?) - на одном процессорном ядре, с 1 ГБ памяти он сбой или занимает иногда 6-8 часов для записи того же объема данных, что и один SQLBulkCopy, который занимает несколько секунд. Однако он лучше управляет памятью.
while ((inputLine = rdr.ReadLine()) != null) //Read while the line is not null
{
Console.Write("\rWriting Line: {0}", k);
string[] arr;
arr = inputLine.Split('\t');
/* items */
if (fileName.Contains(",,"))
{
Item = Table(arr);
table.tables.InsertOnSubmit(Item);
/* Check to see if the item is in the db */
bool exists = table.tables.Where(u => u.ProductID == Item.ProductID).Any();
/* Commit */
if (!exists)
{
try
{
table.SubmitChanges();
}
catch (Exception e)
{
Console.WriteLine(e);
// Make some adjustments.
// ...
// Try again.
table.SubmitChanges();
}
}
}
С вспомогательным методом:
public static class extensionMethods
{
/// <summary>
/// Method that provides the T-SQL EXISTS call for any IQueryable (thus extending Linq).
/// </summary>
/// <remarks>Returns whether or not the predicate conditions exists at least one time.</remarks>
public static bool Exists<TSource>(this IQueryable<TSource> source, Expression<Func<TSource, bool>> predicate)
{
return source.Where(predicate).Any();
}
}
возможно также утилизации РДР может быть хорошей идеей, –
спасибо - я буду держать это в виду Я интересно, если я распоряжаюсь мой читатель, прежде чем Я заканчиваю читателя, прежде чем закончить чтение каждого файла. Я потеряю свой темп, пока я читаю прямо, и у меня ошибка в памяти, пока я читаю не во время написания ... Любые мысли о том, как я вернусь туда, где я был в файле? –
см. Выше комментарий ... –