Я пишу файл HDF5 с использованием API C ++ HDF и выполняю несколько сравнений с библиотекой H5py Python.
В библиотеке Python H5py autochunking применяется по умолчанию, когда используется алгоритм сжатия, такой как GZIP или LZF.
Относится ли то же условие к API HDF5 C ++? Если так, как я могу доказать, что порции были автоматически созданы, когда алгоритм сжатия, такой как GZIP, был применен к наборам данных.
В соответствии с https://www.hdfgroup.org/HDF5/faq/compression.html:
Чтобы применить фильтр сжатия к набору данных, он должен быть создан с макетом хранения набора данных по частям.
И вы должны сделать это вручную:
1. Create a dataset creation property list and modify it to enable chunking and compression.
2. Create the dataset.
Других решений пока нет …