Я работаю над действительно простым трассировщиком лучей.
Сейчас я пытаюсь заставить перспективную камеру работать правильно.
Я использую такой цикл для рендеринга сцены (только с двумя жестко закодированными сферами — я отбрасываю луч для каждого пикселя из его центра, без применения АА):
Camera * camera = new PerspectiveCamera({ 0.0f, 0.0f, 0.0f }/*pos*/,
{ 0.0f, 0.0f, 1.0f }/*direction*/, { 0.0f, 1.0f, 0.0f }/*up*/,
buffer->getSize() /*projectionPlaneSize*/);
Sphere * sphere1 = new Sphere({ 300.0f, 50.0f, 1000.0f }, 100.0f); //center, radius
Sphere * sphere2 = new Sphere({ 100.0f, 50.0f, 1000.0f }, 50.0f);
for(int i = 0; i < buffer->getSize().getX(); i++) {
for(int j = 0; j < buffer->getSize().getY(); j++) {
//for each pixel of buffer (image)
double centerX = i + 0.5;
double centerY = j + 0.5;
Geometries::Ray ray = camera->generateRay(centerX, centerY);
Collision * collision = ray.testCollision(sphere1, sphere2);
if(collision){
//output red
}else{
//output blue
}
}
}
Camera::generateRay(float x, float y)
является:
Camera::generateRay(float x, float y) {
//position = camera position, direction = camera direction etc.
Point2D xy = fromImageToPlaneSpace({ x, y });
Vector3D imagePoint = right * xy.getX() + up * xy.getY() + position + direction;
Vector3D rayDirection = imagePoint - position;
rayDirection.normalizeIt();
return Geometries::Ray(position, rayDirection);
}
Point2D fromImageToPlaneSpace(Point2D uv) {
float width = projectionPlaneSize.getX();
float height = projectionPlaneSize.getY();
float x = ((2 * uv.getX() - width) / width) * tan(fovX);
float y = ((2 * uv.getY() - height) / height) * tan(fovY);
return Point2D(x, y);
}
Fovs:
double fovX = 3.14159265359 / 4.0;
double fovY = projectionPlaneSize.getY() / projectionPlaneSize.getX() * fovX;
Я получаю хороший результат за 1:1
ширина: высота (например, 400×400):
Но я получаю ошибки, например, 800×400:
Что даже немного хуже для больших форматов изображения (например, 1200×400):
Какие я сделал неправильно или какой шаг я пропустил?
Это может быть проблема с точностью или, скорее, что-то с fromImageToPlaneSpace(...)
?
Предостережение: я провел 5 лет в видео компании, но я немного ржавый.
Примечание: после того, как я написал это, я понял, что пропорции пикселя могут не быть вашей проблемой, так как пропорции экрана также кажутся неправильными, так что вы можете немного пропустить.
Но в видео мы имели дело с двумя различными источниками видео: standard definition
с экран соотношение сторон 4:3
и высокое разрешение с экран соотношение сторон 16:9
,
Но есть и другая переменная / параметр: пиксель соотношение сторон. В стандартном определении пиксели квадратные, а в hidef пиксели прямоугольные (или наоборот — не помню).
Предполагая, что ваши текущие расчеты правильны для соотношения сторон экрана, вам, возможно, придется учитывать, что соотношение сторон в пикселях отличается от источника камеры или дисплея, который вы используете.
И соотношение сторон экрана и соотношение сторон пикселей могут быть сохранены в формате .mp4, .jpeg и т. Д.
Я скачал ваш 1200×400 JPEG. Я использовал ImageMagick, чтобы изменить только соотношение сторон пикселя:
convert orig.jpg -resize 125x100%\! new.jpg
Это говорит изменить пиксель соотношение сторон (увеличьте ширину на 125% и оставьте высоту неизменной). \!
средства пиксель против экран соотношение. 125, потому что я помню прямоугольный пиксель как 8×10. В любом случае вам нужно увеличить горизонтальную ширину на 10/8, что составляет 1,25 или 125%.
Излишне говорить, что это дало мне круги вместо овалов.
На самом деле, я смог получить тот же эффект с настройкой соотношения сторон экрана.
Итак, где-то в ваших расчетах вы вводите искажение этого фактора. Где вы применяете масштабирование? Чем отличаются вызовы функций?
Где вы устанавливаете размер экрана / соотношение? Я не думаю, что это показано (например, я не вижу ничего похожего на 1200 или 400).
Если бы мне пришлось рисковать предположением, вы должны учитывать соотношение сторон в fromImageToPlaneSpace
, Либо ширину / высоту нужно предварительно масштабировать, либо x =
и / или y =
линии нуждаются в коэффициентах масштабирования. AFAICT, то, что у вас есть, будет работать только для квадратной геометрии в настоящее время. Чтобы проверить, используя случай 1200×400, умножьте x на 125% [клудж], и я уверен, что вы что-то получите.
Из изображений выглядит, как будто вы неправильно определили отображение от координат пикселей до мировых координат и вводите некоторую растяжку по оси Y.
Скользя по своему коду, похоже, что вы определяете усеченный вид камеры по размерам буфера кадров. Поэтому, если у вас буфер кадров с соотношением сторон не 1: 1, у вас есть камера, у которой угол обзора не равен 1: 1. Вы захотите отделить модель поля зрения камеры от размера пространства изображения конечного буфера кадра.
Другими словами, буфер кадра — это часть плоскости, проецируемой камерой, которую мы просматриваем. Камера определяет, как трехмерное пространство мира проецируется на плоскость камеры.
Любая базовая книга по 3D-графике будет обсуждать просмотр и проекцию.