Я немного запутался здесь:h5py: Правильный способ нарезать наборы данных массива
Насколько я понял, .value
метод h5py читает весь набор данных и сбрасывает его в массив, который медленно и не рекомендуются (и должны быть заменены в целом [()]
правильный способ заключается в использовании Numpy-эск нарезку
Однако я получаю раздражающие результаты (с h5py 2.2.1):..
import h5py
import numpy as np
>>> file = h5py.File("test.hdf5",'w')
# Just fill a test file with a numpy array test dataset
>>> file["test"] = np.arange(0,300000)
# This is TERRIBLY slow?!
>>> file["test"][range(0,300000)]
array([ 0, 1, 2, ..., 299997, 299998, 299999])
# This is fast
>>> file["test"].value[range(0,300000)]
array([ 0, 1, 2, ..., 299997, 299998, 299999])
# This is also fast
>>> file["test"].value[np.arange(0,300000)]
array([ 0, 1, 2, ..., 299997, 299998, 299999])
# This crashes
>>> file["test"][np.arange(0,300000)]
Я думаю, что мой набор данных настолько мал, что .value
не мешает производительности значительно, но как первый вариант может быть медленным? Какая здесь предпочтительная версия?
Спасибо!
ОБНОВЛЕНИЕ Кажется, что я был недостаточно ясен, извините. Я знаю, что .value
копирует весь набор данных в память, в то время как нарезка только извлекает подходящую подчасти. Мне интересно, почему резка в файле slower, чем копирование всего массива, а затем резка в памяти. Я всегда думал, что hdf5/h5py был реализован специально, так что срезанные субчастицы всегда были бы самыми быстрыми.
Файл выражения ['test'] [range (300000)] вызывает h5py версию «fancy indexing» <- Вот и все! Я не ожидал, что h5py сделает это, учитывая, что это диапазон, но это имеет смысл. И спасибо за ссылки, они полезны. – JiaYow