Я пишу программу cuda для сопоставления каждого входного изображения с разрешением ~ 180X180, с около 10000 шаблонных изображений с разрешением ~ 128 * 128. Цель состоит в достижении производительности в реальном времени, т. Е. Сопоставление шаблонов 25 ~ 30 входных изображений (каждое со всеми 10000 шаблонов) за 1 секунду.
В настоящее время я использую следующий подход
Пока для 1 входного изображения в 10000 шаблонов требуется около 2 секунд.
Мои вопросы:
Технические характеристики машины: [i7-4770, 8 ГБ, GTX-680]
Объяснение текущего кода ядра:
Код ядра:
__global__ void cudaMatchTemplate(TemplateArray *templates, uchar *Match)
{
int global = blockIdx.x*blockDim.x + threadIdx.x;
__shared__ int idx[TEMPLATE_MATCH_DIM];
__shared__ float out_shared[TEMPLATE_MATCH_DIM];
//halving the template size....
int rows = (templates[blockIdx.x].nHeight)/2;
int cols = (templates[blockIdx.x].nWidth)/2;
int fullCol = templates[blockIdx.x].nWidth;
int x = templates[blockIdx.x].nMatchLeft;
int y = templates[blockIdx.x].nMatchTop;
int offset_y = (threadIdx.x/TEMPLATE_MATCH_SIZE);
int offset_x = (threadIdx.x - offset_y*TEMPLATE_MATCH_SIZE);
// *************** Performing match in time domain *****************************//
int sum = 0;
float temp;
int idxXFactor = 3*(2*(offset_x) + x);
int idxYFactor = 2*(offset_y) + y ;
for (int i = 0; i < rows; i++)
{
int I=3*i*fullCol;
int sourceIdxY = idxYFactor + 2*i;
for (int j = 0; j < cols; j++)
{
int J=3*j;
int sourceIdxX = idxXFactor + 2*J;
int templateIdx = 2*I+2*J;
//**** R *****//
temp = float(tex2D(SourceImgColorTex,sourceIdxX,sourceIdxY)) - float(templates[blockIdx.x].pRAWPixels_gpu[templateIdx]);
sum = sum + temp*temp;
//**** G *****//
temp = float(tex2D(SourceImgColorTex,sourceIdxX+1,sourceIdxY)) - float(templates[blockIdx.x].pRAWPixels_gpu[templateIdx +1]);
sum = sum + temp*temp;
//**** B *****//
temp = float(tex2D(SourceImgColorTex,sourceIdxX+2,sourceIdxY)) - float(templates[blockIdx.x].pRAWPixels_gpu[templateIdx +2]);
sum = sum + temp*temp;
}
}
__syncthreads();
//placing all values in shared memory for comparison.
if(threadIdx.x < TEMPLATE_MATCH_DIM)
{
idx[threadIdx.x] = threadIdx.x;
out_shared[threadIdx.x] = sum;
}
__syncthreads();// //computing the Min location.....//
#pragma unroll
for(int s=512; s>0; s>>=1)
{
if ((threadIdx.x < s) &&((threadIdx.x + s)<TEMPLATE_MATCH_DIM))
{
idx[threadIdx.x] = out_shared[threadIdx.x] < out_shared[threadIdx.x + s] ? idx[threadIdx.x] : idx[threadIdx.x + s];
out_shared[threadIdx.x] = out_shared[threadIdx.x] < out_shared[threadIdx.x + s] ? out_shared[threadIdx.x] : out_shared[threadIdx.x + s];
}
}
__syncthreads();
if(threadIdx.x <1)
{
int half_Margin = MARGIN_FOR_TEMPLATE_MATCH/2;
int matchY = idx[0]/TEMPLATE_MATCH_SIZE ;
int matchX = idx[0] - matchY * TEMPLATE_MATCH_SIZE;
int diff = absolute(half_Margin - matchX) + absolute(half_Margin - matchY);
if(diff < THRESHOLD)
{
Match[blockIdx.x] = 1;
}
else
Match[blockIdx.x] = 0;
}
}
Я постараюсь ответить на большинство ваших вопросов
Есть ли способ определить, достижима ли эта задача в реальном времени или нет? Я имею в виду максимальные ограничения пропускной способности FLOPS и I / O, т. Е.
Я понятия не имею, как определить, достижимо ли ядро в режиме реального времени, вы можете максимизировать ваше ядро CUDA, используя Калькулятор занятости CUDA,
Вы можете рассмотреть возможность использования текстуры, поверхностной памяти, постоянной памяти, закрепленной памяти хоста и т. Д. Это зависит от реализации вашего алгоритма.
Как рассчитать, если GPU полностью используется на максимуме?
Вы можете использовать CUDA Occupancy Calculator и CUDA визуальный профилировщик.
Я настоятельно рекомендую использовать визуальный профилировщик, это поможет вам понять CUDA.
Возможные способы улучшения производительности?
Есть несколько интересных способов сделать это,
Во-первых, вы можете максимизировать ваш вызов ядра, используя вышеуказанный метод,
Если этого недостаточно, попробуйте реализовать конвейер с использованием потоковых объектов, чтобы одновременно копировать данные и вычислительные задания.
если это не сработает, попробуйте работать с задержкой, одновременно управлять несколькими потоками, обращающимися к графическому процессору, поскольку CC 3.5 CUDA запустил HyperQ, это может помочь вам выполнить несколько вызовов параллельно.
Если это не сработает, рассмотрите возможность использования нескольких устройств с графическим процессором.
Пожалуйста, держите нас в курсе
Других решений пока нет …