Мне нужно собрать все огромные данные в один набор данных в hdf5. Теперь то, что если вы попробуете:Добавление данных к одному набору данных в hdf5 в matlab
>> hdf5write('hd', '/dataset1', [1;2;3])
>> hdf5write('hd', '/dataset1', [4;5;6], 'WriteMode', 'append')
??? Error using ==> hdf5writec
writeH5Dset: Dataset names must be unique when appending data.
Как вы можете видеть, hdf5write будет жаловаться, когда вы пытались добавить данные в том же наборе данных. Я осмотрелся и вижу одно возможное обходное решение - сначала захватить ваши данные из набора данных, а затем объединить данные прямо в среде Matlab. Конечно, это не проблема для небольших данных. В этом случае мы говорим о гигабайтах данных, и Matlab начинает выкрикивать из памяти.
Из-за этого, какие у меня варианты в этом случае?
Примечание: у нас нет функции h5write в нашей версии matlab.
Это будет полезно тем, у кого есть более новая версия Matlab, но для нас мы написали в нашем вопросе, что у нас нет функции h5write. – Karl