Я хотел бы узнать больше об окклюзии в приложениях дополненной реальности, используя данные от датчика глубины (например, kinect или комплект Realsense RGB-D Dev).
Я прочитал, что нужно сравнить значения z-буфера визуализированных объектов со значениями карты глубины от датчика и каким-то образом замаскировать значения так, чтобы были видны только те пиксели, которые ближе к пользователю. какие-либо ресурсы или открытый исходный код, который делает это или может помочь мне понять это?
Более того, я хочу, чтобы моя рука (которую я определяю как блоб) всегда закрывала виртуальные объекты. Разве нет более простого варианта сделать это?
Вы можете загрузить данные глубины как текстуру и связать их как буфер глубины для цели рендеринга.
Это требует согласования ближней и дальней плоскостей проекционной матрицы с минимальными и максимальными значениями датчика глубины.
Если цель рендеринга не того же размера, что и данные глубины, вы можете использовать ее в фрагментном шейдере и discard;
когда это будет закрыто.