У меня проблема с импортом данных powershell в SQL. Я выполняю импорт CSV-файлов, размещенных на удаленном сервере, на другой сервер БД. Существует около 2400 CSV-файлов, размер которых варьируется от 1 КБ до 30 ГБ. Я читаю содержимое каждого файла и импортирую его в базу данных. Но для завершения около тысячи файлов требуется больше одного дня, поэтому для завершения всех 2400 файлов будут приняты два или три. Но это не согласовано для бизнеса. Я использую следующую команду для импорта файлов.производительность импорта данных powershell
Get-ChildItem $CsvFilePath | Foreach-Object {
$DataImport = Import-Csv $_.FullName | Out-DataTable
Write-DataTable -ServerInstance $server -Database $Database -TableName $Table -Username $Username -Password $Password -Data $DataImport
}
Как повысить производительность, чтобы я мог завершить импорт в течение короткого периода времени, предпочтительно, менее чем за день. Любой, пожалуйста, помогите мне, предоставив для этого практическое решение.
Благодаря Jerin
Все они загружаются в одну и ту же БД? – mjolinor