У меня есть большой массив (1000x500000x6), который хранится в файле pyTables. Я делаю некоторые расчеты на нем, которые довольно оптимизированы с точки зрения скорости, но самое время занимает нарезка массива.Ускорение среза большого массива numpy
В начале сценария, мне нужно, чтобы получить подмножество строк: reduced_data = данные [row_indices,:,:], а затем, для этого восстановленного набора данных, мне нужно, чтобы получить доступ к:
- колонны по одному: reduced_data [:, clm_indice ,:]
- подмножество столбцов: reduced_data [:, clm_indices ,:]
Получение этих массивов принимает навсегда. Есть ли способ ускорить это? например, хранение данных по-разному?
Я думаю, вы должны попытаться получить их по строкам, так как это (я считаю) способ, которым они упорядочены в файле. Это может иметь большое значение в такой большой таблице. – Lior
Являются ли данные PyTables хранимыми в таблице или массиве? – dtlussier
@ dtlussier данные хранятся в сжатом карере. –