Неправильные расчеты пропорций для камеры (простой луч-кастер)

Я работаю над действительно простым трассировщиком лучей.

Сейчас я пытаюсь заставить перспективную камеру работать правильно.

Я использую такой цикл для рендеринга сцены (только с двумя жестко закодированными сферами — я отбрасываю луч для каждого пикселя из его центра, без применения АА):

Camera * camera = new PerspectiveCamera({ 0.0f, 0.0f, 0.0f }/*pos*/,
{ 0.0f, 0.0f, 1.0f }/*direction*/, { 0.0f, 1.0f, 0.0f }/*up*/,
buffer->getSize() /*projectionPlaneSize*/);
Sphere * sphere1 = new Sphere({ 300.0f, 50.0f, 1000.0f }, 100.0f); //center, radius
Sphere * sphere2 = new Sphere({ 100.0f, 50.0f, 1000.0f }, 50.0f);

for(int i = 0; i < buffer->getSize().getX(); i++) {
for(int j = 0; j < buffer->getSize().getY(); j++) {
//for each pixel of buffer (image)
double centerX = i + 0.5;
double centerY = j + 0.5;

Geometries::Ray ray = camera->generateRay(centerX, centerY);
Collision * collision = ray.testCollision(sphere1, sphere2);
if(collision){
//output red
}else{
//output blue
}
}
}

Camera::generateRay(float x, float y) является:

Camera::generateRay(float x, float y) {
//position = camera position, direction = camera direction etc.
Point2D xy = fromImageToPlaneSpace({ x, y });
Vector3D imagePoint = right * xy.getX() + up * xy.getY() + position + direction;
Vector3D rayDirection = imagePoint - position;
rayDirection.normalizeIt();
return Geometries::Ray(position, rayDirection);
}

Point2D fromImageToPlaneSpace(Point2D uv) {
float width = projectionPlaneSize.getX();
float height = projectionPlaneSize.getY();
float x = ((2 * uv.getX() - width) / width) * tan(fovX);
float y = ((2 * uv.getY() - height) / height) * tan(fovY);
return Point2D(x, y);
}

Fovs:

double fovX = 3.14159265359 / 4.0;
double fovY = projectionPlaneSize.getY() / projectionPlaneSize.getX() * fovX;

Я получаю хороший результат за 1:1 ширина: высота (например, 400×400):
введите описание изображения здесь

Но я получаю ошибки, например, 800×400:
введите описание изображения здесь

Что даже немного хуже для больших форматов изображения (например, 1200×400):
введите описание изображения здесь

Какие я сделал неправильно или какой шаг я пропустил?

Это может быть проблема с точностью или, скорее, что-то с fromImageToPlaneSpace(...)?

0

Решение

Предостережение: я провел 5 лет в видео компании, но я немного ржавый.

Примечание: после того, как я написал это, я понял, что пропорции пикселя могут не быть вашей проблемой, так как пропорции экрана также кажутся неправильными, так что вы можете немного пропустить.

Но в видео мы имели дело с двумя различными источниками видео: standard definition с экран соотношение сторон 4:3 и высокое разрешение с экран соотношение сторон 16:9,

Но есть и другая переменная / параметр: пиксель соотношение сторон. В стандартном определении пиксели квадратные, а в hidef пиксели прямоугольные (или наоборот — не помню).

Предполагая, что ваши текущие расчеты правильны для соотношения сторон экрана, вам, возможно, придется учитывать, что соотношение сторон в пикселях отличается от источника камеры или дисплея, который вы используете.

И соотношение сторон экрана и соотношение сторон пикселей могут быть сохранены в формате .mp4, .jpeg и т. Д.

Я скачал ваш 1200×400 JPEG. Я использовал ImageMagick, чтобы изменить только соотношение сторон пикселя:

convert orig.jpg -resize 125x100%\! new.jpg

Это говорит изменить пиксель соотношение сторон (увеличьте ширину на 125% и оставьте высоту неизменной). \! средства пиксель против экран соотношение. 125, потому что я помню прямоугольный пиксель как 8×10. В любом случае вам нужно увеличить горизонтальную ширину на 10/8, что составляет 1,25 или 125%.

Излишне говорить, что это дало мне круги вместо овалов.

На самом деле, я смог получить тот же эффект с настройкой соотношения сторон экрана.

Итак, где-то в ваших расчетах вы вводите искажение этого фактора. Где вы применяете масштабирование? Чем отличаются вызовы функций?

Где вы устанавливаете размер экрана / соотношение? Я не думаю, что это показано (например, я не вижу ничего похожего на 1200 или 400).

Если бы мне пришлось рисковать предположением, вы должны учитывать соотношение сторон в fromImageToPlaneSpace, Либо ширину / высоту нужно предварительно масштабировать, либо x = и / или y = линии нуждаются в коэффициентах масштабирования. AFAICT, то, что у вас есть, будет работать только для квадратной геометрии в настоящее время. Чтобы проверить, используя случай 1200×400, умножьте x на 125% [клудж], и я уверен, что вы что-то получите.

0

Другие решения

Из изображений выглядит, как будто вы неправильно определили отображение от координат пикселей до мировых координат и вводите некоторую растяжку по оси Y.

Скользя по своему коду, похоже, что вы определяете усеченный вид камеры по размерам буфера кадров. Поэтому, если у вас буфер кадров с соотношением сторон не 1: 1, у вас есть камера, у которой угол обзора не равен 1: 1. Вы захотите отделить модель поля зрения камеры от размера пространства изображения конечного буфера кадра.

Другими словами, буфер кадра — это часть плоскости, проецируемой камерой, которую мы просматриваем. Камера определяет, как трехмерное пространство мира проецируется на плоскость камеры.

Любая базовая книга по 3D-графике будет обсуждать просмотр и проекцию.

0

По вопросам рекламы [email protected]