Как сохранить большие объемы данных, прочитав из файла CSV (скажем, 20 миллионов строк). До сих пор он близок к 1 1/2 дням и хранит всего 10 миллионов строк, как я могу это сделать, чтобы он стал быстрее, и есть возможность запускать это параллельно.Как сохранить большие объемы данных, прочитав из файла CSV
Я использую код здесь, чтобы прочитать CSV, я хотел бы знать, есть ли лучший способ достичь этого.
См: dealing with large CSV files (20G) in ruby
Какова цель иметь 20-миллиметровые ряды в памяти? Почему бы просто не прочитать каждую строку и не вставить ее в базу данных SQLite?(тогда сделайте анализ там). Если вы пытаетесь выполнять функции большого количества данных, тогда вы захотите посмотреть на MapReduce. – Besto
Я бы хотел обработать все данные и сохранить их в базе данных MySQL для дальнейшей обработки. Сообщите мне, могу ли я оптимизировать способ чтения данных или партии данных. Оцените все фрагменты кода здесь. Также прошли строки? – brisk
Можете ли вы привести пример схемы? Тогда я соберу фрагмент. – Besto