У меня есть примерно 90 ГБ несжатых данных .csv
для импорта в SQL Server. В зависимости от конечных требований интерфейса я могу или не могу разбить эти данные - но могу ли я это сделать или нет, это будут некоторые большие таблицы. Хотя большая в общей сложности, строки относительно просты:SQL Server 2016 - сжатие до или после массовой загрузки
[Exchange] [Symbol] [Compare_To_Exchange] [Compare_To_Symbol] [Date] [Correlation]
NYSE ZTS INDEX DCXE 12/9/2013 0:00 -0.5521076
Я не знаком с сжатия таблиц SQL Server, и я читать вверх. Один из вопросов, который у меня есть, что я не могу найти ответ, - это то, лучше или не лучше (производительность или любой другой способ) сжать таблицу, пока она пуста, и позволить массовой транзакции выполнить сжатие или вставить все данные и затем сжать?
На первый взгляд, я думаю, что делать это, пока он пуст (например, создание кластерного индекса на пустой таблице проще, чем на полном), но одна статья, которую я прочитал, приблизилась к этому тема показала, что сжатие должно выполняться после заполнения таблицы. Я был бы признателен за опыт любого, кто знал бы разницу. Спасибо за ваше время и заранее за любые мысли, информацию или указатели, которые вы можете предоставить.
Большое значение, Хоган. Я был так озабочен «90 ГБ», что я действительно не переставал думать об этом поразрядным. Спасибо, что вернули мне голову в правый аквариум. –
@ShannonHolsinger - Рад, что я мог бы помочь, не забудьте отметить это как ответ, если вы это чувствуете. – Hogan