Кажется, что dlib
нужен слой потерь, который определяет, как обрабатываются слои, наиболее удаленные от нашего входного слоя. Я не могу найти какую-либо документацию по слоям потерь, но, похоже, нет способа создать какой-либо слой суммирования.
Однако суммирование всех значений последнего слоя будет именно тем, что мне нужно для регрессии (см. Также: https://deeplearning4j.org/linear-regression)
Я думал о том, чтобы написать собственный слой потерь, но также не смог найти информацию об этом.
Итак, я наблюдал за соответствующим слоем здесь или есть возможность получить то, что мне нужно?
Слои потерь в dlib перечислены в меню на dlib страница машинного обучения. Ищите слова «слои потерь». Есть много документации.
Текущая выпущенная версия dlib не включает потерю регрессии. Однако, если вы получаете текущий код из github, вы можете использовать новый слой loss_mean_squared для регрессии. Увидеть: https://github.com/davisking/dlib/blob/master/dlib/dnn/loss_abstract.h
Других решений пока нет …