Мне нужно прочитать большое .csv
около 20MB
. Эти файлы представляют собой таблицы, составленные из столбцов 8
и 5198
строк. Мне нужно сделать некоторую статистику по определенному столбцу I
.Python: это лучший способ прочитать большой файл .csv?
У меня есть n
различных файлов и это то, что я делаю:
stat = np.arange(n)
I = 0
for k in stat:
df = pd.read_csv(pathS+'run_TestRandom_%d.csv'%k, sep=' ')
I+=df['I']
I = I/k ## Average
Этот процесс занимает 0.65s
, и я интересно, если есть быстрый способ.
Возможно, попробуйте указать 'memory_map = True' в' pd.read_csv' –
. Если данные являются исключительно числовыми, тогда нет необходимости использовать модуль ** csv **. Вы можете использовать ** split **. - Есть некоторые небольшие накладные расходы для использования словаря для доступа к полям записи. Вместо этого вы можете использовать ** find ** в заголовке в csv, а затем использовать этот индекс для получения элементов из разделенной записи. –
первая строка не является числовой, хотя, возможно ли использовать 'split'? – emax