Использование XGBOOST в переполнении стека

Как я могу использовать XGBOOST https://github.com/dmlc/xgboost/ библиотека в с ++? Я основал Python и Java API, но не могу найти API для c ++

13

Решение

В итоге я использовал C API, см. Пример ниже:

// create the train data
int cols=3,rows=5;
float train[rows][cols];
for (int i=0;i<rows;i++)
for (int j=0;j<cols;j++)
train[i][j] = (i+1) * (j+1);

float train_labels[rows];
for (int i=0;i<rows;i++)
train_labels[i] = 1+i*i*i;// convert to DMatrix
DMatrixHandle h_train[1];
XGDMatrixCreateFromMat((float *) train, rows, cols, -1, &h_train[0]);

// load the labels
XGDMatrixSetFloatInfo(h_train[0], "label", train_labels, rows);

// read back the labels, just a sanity check
bst_ulong bst_result;
const float *out_floats;
XGDMatrixGetFloatInfo(h_train[0], "label" , &bst_result, &out_floats);
for (unsigned int i=0;i<bst_result;i++)
std::cout << "label[" << i << "]=" << out_floats[i] << std::endl;

// create the booster and load some parameters
BoosterHandle h_booster;
XGBoosterCreate(h_train, 1, &h_booster);
XGBoosterSetParam(h_booster, "booster", "gbtree");
XGBoosterSetParam(h_booster, "objective", "reg:linear");
XGBoosterSetParam(h_booster, "max_depth", "5");
XGBoosterSetParam(h_booster, "eta", "0.1");
XGBoosterSetParam(h_booster, "min_child_weight", "1");
XGBoosterSetParam(h_booster, "subsample", "0.5");
XGBoosterSetParam(h_booster, "colsample_bytree", "1");
XGBoosterSetParam(h_booster, "num_parallel_tree", "1");

// perform 200 learning iterations
for (int iter=0; iter<200; iter++)
XGBoosterUpdateOneIter(h_booster, iter, h_train[0]);

// predict
const int sample_rows = 5;
float test[sample_rows][cols];
for (int i=0;i<sample_rows;i++)
for (int j=0;j<cols;j++)
test[i][j] = (i+1) * (j+1);
DMatrixHandle h_test;
XGDMatrixCreateFromMat((float *) test, sample_rows, cols, -1, &h_test);
bst_ulong out_len;
const float *f;
XGBoosterPredict(h_booster, h_test, 0,0,&out_len,&f);

for (unsigned int i=0;i<out_len;i++)
std::cout << "prediction[" << i << "]=" << f[i] << std::endl;// free xgboost internal structures
XGDMatrixFree(h_train[0]);
XGDMatrixFree(h_test);
XGBoosterFree(h_booster);
22

Другие решения

Используйте XGBoost C API.

  BoosterHandle booster;
const char *model_path = "/path/of/model";

// create booster handle first
XGBoosterCreate(NULL, 0, &booster);

// by default, the seed will be set 0
XGBoosterSetParam(booster, "seed", "0");

// load model
XGBoosterLoadModel(booster, model_path);

const int feat_size = 100;
const int num_row = 1;
float feat[num_row][feat_size];

// create some fake data for predicting
for (int i = 0; i < num_row; ++i) {
for(int j = 0; j < feat_size; ++j) {
feat[i][j] = (i + 1) * (j + 1)
}
}

// convert 2d array to DMatrix
DMatrixHandle dtest;
XGDMatrixCreateFromMat(reinterpret_cast<float*>(feat),
num_row, feat_size, NAN, &dtest);

// predict
bst_ulong out_len;
const float *f;
XGBoosterPredict(booster, dtest, 0, 0, &out_len, &f);
assert(out_len == num_row);
std::cout << f[0] << std::endl;

// free memory
XGDMatrixFree(dtest);
XGBoosterFree(booster);

Обратите внимание, что когда вы хотите загрузить существующую модель (как показано в коде выше), вы должны убедиться, что формат данных в обучении такой же, как и в прогнозировании. Итак, если вы прогнозируете с помощью XGBoosterPredict, который принимает плотную матрицу в качестве параметра, вы должны использовать плотную матрицу в обучении.

Обучение в формате libsvm и прогнозирование с плотной матрицей может привести к неправильным прогнозам, так как XGBoost FAQ говорит:

«Разреженные» элементы обрабатываются так, как если бы они были «пропущены» бустером дерева, и как нули линейным бустером. Для древовидных моделей важно использовать согласованные форматы данных во время обучения и оценки.

2

Я не знаю ни одного примера. есть файл c_api.h, который содержит API C / C ++ для пакета, и вам придется найти способ его использования. Я только что сделал это. Мне потребовалось несколько часов, чтобы прочитать код и попробовать несколько вещей. Но в конце концов мне удалось создать работающий C ++ пример xgboost.

0

Чтобы решить эту проблему, мы запускаем программу xgboost из исходного кода C ++.

0
По вопросам рекламы [email protected]