Данные от датчика глубины в z-буфер OpenGL для достижения окклюзии

Я хотел бы узнать больше об окклюзии в приложениях дополненной реальности, используя данные от датчика глубины (например, kinect или комплект Realsense RGB-D Dev).

Я прочитал, что нужно сравнить значения z-буфера визуализированных объектов со значениями карты глубины от датчика и каким-то образом замаскировать значения так, чтобы были видны только те пиксели, которые ближе к пользователю. какие-либо ресурсы или открытый исходный код, который делает это или может помочь мне понять это?

Более того, я хочу, чтобы моя рука (которую я определяю как блоб) всегда закрывала виртуальные объекты. Разве нет более простого варианта сделать это?

0

Решение

Вы можете загрузить данные глубины как текстуру и связать их как буфер глубины для цели рендеринга.

Это требует согласования ближней и дальней плоскостей проекционной матрицы с минимальными и максимальными значениями датчика глубины.

Если цель рендеринга не того же размера, что и данные глубины, вы можете использовать ее в фрагментном шейдере и discard; когда это будет закрыто.

0

Другие решения


По вопросам рекламы [email protected]