hdf5

    0зной

    1ответ

    Скачайте Caltech101. Его структура: #Caltech101 dir #class1 dir #images of class1 jpgs #class2 dir #images of class2 jpgs ... #class100 dir #images of class100 jpgs Моя проблема заключается в том, что

    1зной

    1ответ

    Мне часто приходится сравнивать hdf файлов. Как я это делаю, либо с двоичным diff (который говорит мне, что файлы разные, даже если фактические номера внутри одинаковы) или путем сброса содержимого в

    2зной

    1ответ

    У меня небольшая проблема с пакетом h5py от python. Я работаю с очень большими наборами данных (размером около 250 тыс. Фрагментов изображения), хранящимися в файле hdf5, в виде массива с размерами (n

    3зной

    1ответ

    При попытке использовать набор данных HDF5 с keras я получаю следующее сообщение об ошибке. Казалось бы, что Sequential.fit(), создавая срез данных проверки, обнаруживает, что ключ среза не имеет атри

    0зной

    1ответ

    После переноса моего файла hdf5 в Amazon EC2 Linux, например, кажется, что я не могу видеть наборы данных в этом файле (5Гб, md5sum проверяется после передачи) Когда я запускаю этот код: import h5py

    1зной

    2ответ

    У меня есть HDFStore, где я вводить данные каждую ночь. Я задаюсь вопросом, сбой системы и т. Д., Я мог бы перезапустить процессы, поэтому я хочу убедиться, что если уже существует строка, в которой p

    -1зной

    1ответ

    У меня ежедневно есть временной ряд за считанные секунды после начала работы (00: 00h UTC). Поскольку я хочу построить временные ряды других данных, я хочу преобразовать временные ряды в секундах по д

    1зной

    1ответ

    ли следующие чтения из набора без загрузки всего вещь сразу в память [все это не будет вписываться в памяти] и получить размер набора данных без загрузки данных с помощью h5py в python? если нет, то к

    0зной

    1ответ

    Я создал контейнер HDF5, используя MATLAB. Контент - это несколько изображений с размерами [1024 1024 4] (= ширина, высота, каналы). Я создал и заполнил набор данных, как это: % GENERATE DATA img = d

    3зной

    1ответ

    У меня есть блок данных 2Gb, который один раз записывает, читает много df. Я хотел бы использовать df в pandas, поэтому я использовал df.read_hdf и df.to_hdf в фиксированном формате, который отлично р