трассировка лучей треугольных сетчатых объектов

Я пытаюсь написать трассировщик лучей для любых объектов, образованных треугольными сетками. Я использую внешнюю библиотеку, чтобы загрузить куб из формата .ply и затем отследить его. До сих пор я реализовал большую часть трассировщика, и теперь я пытаюсь протестировать его с одним кубом, но по какой-то причине на экране появляется только красная линия. Я пробовал несколько способов исправить это, но я просто не могу понять это больше. Для этого первичного теста я создаю только первичные лучи, и если они попадают в мой куб, то я окрашиваю этот пиксель в диффузный цвет куба и возвращаю. Для проверки пересечений луча с объектом я прохожу все треугольники, которые образуют этот объект, и возвращаю расстояние до ближайшего. Было бы здорово, если бы вы могли взглянуть на код и сказать мне, что могло пойти не так и где. Буду весьма признателен за это.

Пересечение Луч-Треугольник:

bool intersectTri(const Vec3D& ray_origin, const Vec3D& ray_direction, const Vec3D& v0, const Vec3D& v1, const Vec3D& v2, double &t, double &u, double &v) const
{

Vec3D edge1 = v1 - v0;
Vec3D edge2 = v2 - v0;
Vec3D pvec = ray_direction.cross(edge2);
double det = edge1.dot(pvec);
if (det > - THRESHOLD && det < THRESHOLD)
return false;
double invDet = 1/det;
Vec3D tvec = ray_origin - v0;
u = tvec.dot(pvec)*invDet;
if (u < 0 || u > 1)
return false;
Vec3D qvec = tvec.cross(edge1);
v = ray_direction.dot(qvec)*invDet;
if (v < 0 || u + v > 1)
return false;
t = edge2.dot(qvec)*invDet;
if (t < 0)
return false;
return true;
}

//Object intersection
bool intersect(const Vec3D& ray_origin, const Vec3D& ray_direction, IntersectionData& idata, bool enforce_max) const
{

double tClosest;
if (enforce_max)
{
tClosest = idata.t;
}
else
{
tClosest = TMAX;
}

for (int i = 0 ; i < indices.size() ; i++)
{
const Vec3D v0 = vertices[indices[i][0]];
const Vec3D v1 = vertices[indices[i][1]];
const Vec3D v2 = vertices[indices[i][2]];
double t, u, v;
if (intersectTri(ray_origin, ray_direction, v0, v1, v2, t, u, v))
{
if (t < tClosest)
{
idata.t = t;
tClosest = t;
idata.u = u;
idata.v = v;
idata.index = i;
}
}
}
return (tClosest < TMAX && tClosest > 0) ? true : false;
}

Vec3D trace(World world, Vec3D &ray_origin, Vec3D &ray_direction)
{

Vec3D objColor = world.background_color;
IntersectionData idata;
double coeff = 1.0;
int depth = 0;

double tClosest = TMAX;
Object *hitObject = NULL;
for (unsigned int i = 0 ; i < world.objs.size() ; i++)
{
IntersectionData idata_curr;
if (world.objs[i].intersect(ray_origin, ray_direction, idata_curr, false))
{
if (idata_curr.t < tClosest && idata_curr.t > 0)
{
idata.t = idata_curr.t;
idata.u = idata_curr.u;
idata.v = idata_curr.v;
idata.index = idata_curr.index;
tClosest = idata_curr.t;
hitObject = &(world.objs[i]);
}
}
}
if (hitObject == NULL)
{
return world.background_color;
}
else
{
return hitObject->getDiffuse();
}
}

int main(int argc, char** argv)
{

parse("cube.ply");
Vec3D diffusion1(1, 0, 0);
Vec3D specular1(1, 1, 1);
Object cube1(coordinates, connected_vertices, diffusion1, specular1, 0, 0);
World wrld;
// Add objects to the world
wrld.objs.push_back(cube1);
Vec3D background(0, 0, 0);
wrld.background_color = background;
// Set light color
Vec3D light_clr(1, 1, 1);
wrld.light_colors.push_back(light_clr);
// Set light position
Vec3D light(0, 64, -10);
wrld.light_positions.push_back(light);

int width = 128;
int height = 128;
Vec3D *image = new Vec3D[width*height];
Vec3D *pixel = image;

// Trace rays
for (int y = -height/2 ; y < height/2 ; ++y)
{
for (int x = -width/2 ; x < width/2 ; ++x, ++pixel)
{
Vec3D ray_dir(x+0.5, y+0.5, -1.0);
ray_dir.normalize();
Vec3D ray_orig(0.5*width, 0.5*height, 0.0);
*pixel = trace(wrld, ray_orig, ray_dir);
}
}

savePPM("./test.ppm", image, width, height);
return 0;
}

Я только что выполнил тестовый пример, и я получил это:

для единичного куба с центром в (0,0, -1,5) и масштабированным по оси X и Y на 100. Кажется, что с проекцией что-то не так, но я не могу точно сказать, что именно из результата. Кроме того, не должны ли в этом случае (куб центрирован в (0,0)) конечный объект также появится в середине изображения?
ИСПРАВЛЕНИЕ: Я исправил проблему с центрированием, выполнив ray_dir = ray_dir — ray_orig перед нормализацией и вызовом функции трассировки. Тем не менее, перспектива кажется совершенно неверной.

2

Решение

Я продолжил работу, и теперь я начал осуществлять диффузное отражение в соответствии с Phong.

Трасса Vec3D (Мир мира, Vec3D &ray_origin, Vec3D &ray_direction)
{

Vec3D objColor = Vec3D(0);
IntersectionData idata;
double coeff = 1.0;
int depth = 0;
do
{
double tClosest = TMAX;
Object *hitObject = NULL;
for (unsigned int i = 0 ; i < world.objs.size() ; i++)
{
IntersectionData idata_curr;
if (world.objs[i].intersect(ray_origin, ray_direction, idata_curr, false))
{
if (idata_curr.t < tClosest && idata_curr.t > 0)
{
idata.t = idata_curr.t;
idata.u = idata_curr.u;
idata.v = idata_curr.v;
idata.index = idata_curr.index;
tClosest = idata_curr.t;
hitObject = &(world.objs[i]);
}
}
}
if (hitObject == NULL)
{
return world.background_color;
}

Vec3D newStart = ray_origin + ray_direction*idata.t;

// Compute normal at intersection by interpolating vertex normals (PHONG Idea)
Vec3D v0 = hitObject->getVertices()[hitObject->getIndices()[idata.index][0]];
Vec3D v1 = hitObject->getVertices()[hitObject->getIndices()[idata.index][1]];
Vec3D v2 = hitObject->getVertices()[hitObject->getIndices()[idata.index][2]];

Vec3D n1 = hitObject->getNormals()[hitObject->getIndices()[idata.index][0]];
Vec3D n2 = hitObject->getNormals()[hitObject->getIndices()[idata.index][1]];
Vec3D n3 = hitObject->getNormals()[hitObject->getIndices()[idata.index][2]];

//  Vec3D N = n1 + (n2 - n1)*idata.u + (n3 - n1)*idata.v;
Vec3D N = v0.computeFaceNrm(v1, v2);
if (ray_direction.dot(N) > 0)
{
N = N*(-1);
}
N.normalize();

Vec3D lightray_origin = newStart;

for (unsigned int itr = 0 ; itr < world.light_positions.size() ; itr++)
{

Vec3D lightray_dir = world.light_positions[0] - newStart;
lightray_dir.normalize();

double cos_theta = max(N.dot(lightray_dir), 0.0);
objColor.setX(objColor.getX() + hitObject->getDiffuse().getX()*hitObject->getDiffuseReflection()*cos_theta);
objColor.setY(objColor.getY() + hitObject->getDiffuse().getY()*hitObject->getDiffuseReflection()*cos_theta);
objColor.setZ(objColor.getZ() + hitObject->getDiffuse().getZ()*hitObject->getDiffuseReflection()*cos_theta);
return objColor;
}

depth++;

} while(coeff > 0 && depth < MAX_RAY_DEPTH);
return objColor;

}

Когда я достигаю объекта с первичным лучом, я посылаю другой луч в источник света, расположенный в точке (0,0,0), и возвращаю цвет в соответствии с моделью освещения Phong для диффузного отражения, но результат действительно не является ожидаемым : http://s15.postimage.org/vc6uyyssr/test.png. Куб представляет собой единичный куб с центром в (0,0,0) и затем переводится как (1,5, -1,5, -1,5). С моей точки зрения, левая сторона куба должна получить больше света, и это действительно так. Что ты думаешь об этом?

0

Другие решения

Других решений пока нет …

По вопросам рекламы [email protected]