1
Я пытаюсь разбить огромный файл данных на более мелкие части. Я использую следующие скрипты -Ошибка импорта файла Pandas .DAT с пропущенными строками
df = pd.read_csv(file_name, header=None,encoding='latin1',sep='\t',nrows=100000, skiprows = 100000)
, но я вижу, что пропуск строки аргумент пропускает около 200 тысяч строк вместо 100000 может кто-нибудь сказать мне, почему это происходит
почему бы не просто указать 'chunksize = 100000' который вернет вам кусочек ФР, так что вы можете разделить пеленгации для каждого блока? – EdChum
Фактический файл - 190 Гб. Я не смогу сразу прочитать все это в памяти. – Uasthana
Вам не нужно с 'chunksize', это будет просто читать следующие строки chunksize, тогда вы можете делать все, что хотите, с помощью chunk – EdChum