js + sequelize для вставки 280K строк данных с использованием JSON. JSON - это массив из 280K. Есть ли способ сделать объемную вставку в куски. Я вижу, что для обновления данных требуется много времени. Когда я попытался сократить данные до 40 тыс. Строк, он работает быстро. Я придерживаюсь правильного подхода. Пожалуйста посоветуй. Я использую postgresql как backend.Как сделать объемную вставку с помощью Sequelize и node.js
PNs.bulkCreate(JSON_Small)
.catch(function(err) {
console.log('Error ' + err);
})
.finally(function(err) {
console.log('FINISHED + ' \n +++++++ \n');
});
Тот же вопрос здесь, с ответом: http://stackoverflow.com/questions/33129677/nodejs-promises-streams-processing-large-csv-files/33138965#33138965 –