У меня есть файл CSV более 16G, каждая строка - это текстовые данные. Когда я кодировал (например, один-горячий-кодировать) весь файл CSV-файла, мой процесс был убит из-за ограничения памяти. Есть ли способ обработать такие «большие данные»?Как управлять огромным CSV-файлом в python
Я думаю, что разбить весь CSV-файл на несколько «меньших» файлов, а затем добавить их в другой CSV-файл, это правильный способ обработки огромного CSV-файла?
Неполное. Вероятно, это зависит от того, как вы читаете файл. –
@HenkHolterman использует python, особенно в библиотеке Pandas – Kun