Python — Включена ли автоматическая блокировка по умолчанию, когда сжатие GZIP используется в API HDF5 C ++?

Я пишу файл HDF5 с использованием API C ++ HDF и выполняю несколько сравнений с библиотекой H5py Python.

В библиотеке Python H5py autochunking применяется по умолчанию, когда используется алгоритм сжатия, такой как GZIP или LZF.

Относится ли то же условие к API HDF5 C ++? Если так, как я могу доказать, что порции были автоматически созданы, когда алгоритм сжатия, такой как GZIP, был применен к наборам данных.

2

Решение

В соответствии с https://www.hdfgroup.org/HDF5/faq/compression.html:

Чтобы применить фильтр сжатия к набору данных, он должен быть создан с макетом хранения набора данных по частям.

И вы должны сделать это вручную:

1. Create a dataset creation property list and modify it to enable chunking and compression.
2. Create the dataset.
1

Другие решения

Других решений пока нет …

По вопросам рекламы [email protected]