GAMES101 作业5——光线追踪1(光线生成和光线与三角形的相交)

举报
lutianfei 发表于 2022/05/12 16:33:27 2022/05/12
【摘要】 作业描述在这部分的课程中,我们将专注于使用光线追踪来渲染图像。在光线追踪中最重要的操作之一就是找到光线与物体的交点。一旦找到光线与物体的交点,就可以执行着色并返回像素颜色。在这次作业中,我们需要实现两个部分:光线的生成和光线与三角形的相交。本次代码的流程为:从 main 函数开始。我们定义场景的参数,添加物体(球体或三角形)到场景中,并设置其材质,然后将光源添加到场景中。调用 Render...

作业描述

在这部分的课程中,我们将专注于使用光线追踪来渲染图像。在光线追踪中最重要的操作之一就是找到光线与物体的交点。一旦找到光线与物体的交点,就可以执行着色并返回像素颜色。在这次作业中,我们需要实现两个部分:光线的生成和光线与三角形的相交

注:如果是自建windows开发环境会有如下报错:
image.png

在CMakeList.txt中增加如下参数即可。
-fsanitize-undefined-trap-on-error
image.png

本次代码的流程为:

  1. 从 main 函数开始。我们定义场景的参数,添加物体(球体或三角形)到场景中,并设置其材质,然后将光源添加到场景中。

  2. 调用 Render(scene) 函数。在遍历所有像素的循环里,生成对应的光线并将返回的颜色保存在帧缓冲区(framebuffer)中。在渲染过程结束后,帧缓冲区中的信息将被保存为图像。

  3. 在生成像素对应的光线后,我们调用 CastRay 函数,该函数调用 trace 来查询光线与场景中最近的对象的交点。

  4. 然后,我们在此交点执行着色。我们设置了三种不同的着色情况,并且已经为你提供了代码。

你需要修改的函数是:

  • Renderer.cpp 中的 Render():这里你需要为每个像素生成一条对应的光线,然后调用函数 castRay() 来得到颜色,最后将颜色存储在帧缓冲区的相应像素中。

  • Triangle.hpp 中的 rayTriangleIntersect(): v0, v1, v2 是三角形的三个顶点,orig 是光线的起点,dir 是光线单位化的方向向量。tnear, u, v 是你需要使用我们课上推导的 Moller-Trumbore 算法来更新的参数。

思路

1. 如何生成视角经过成像平面像素到场景中物体的光线?

首先空间中的射线可以由起始点 O \overrightarrow{\mathbf{O}} 和时间 t,以及方向 D \overrightarrow{\mathbf{D}} 组成, 如下所示:
r a y = O + t D ray = \overrightarrow{\mathbf{O}}+t \overrightarrow{\mathbf{D}}

假设成像平面高为width, 宽为height, 那么成像平面中的像素的 x,y 的范围就分别为0∼width,0∼height。由于屏幕空间的像素的范围和成像平面空间的坐标范围并不一致,所以我们需要将成像平面的像素坐标范围规范化至−1∼1 的区间。

如何进行规范化,很简单,分两步进行:

  1. 将成像平面上的 x,y 分别除以他们对应的宽高,规范化至0∼1区间
  2. 将步骤一的结果通过变换(类似于平移、缩放)规范化至-1∼1区间

解释成伪代码就有:
第一步:

x1 =  (x + 0.5) / width
y1 =  (y + 0.5) / height
//为什么要取 0.5,这里是考虑光线穿过每个像素的中心的情况

第二步:

x2 = 2 * x1 - 1
y2 = 1 - 2 * y1 // y2 = 2 * y1 - 1
//由于屏幕空间的 y 轴与成像平面的 y 轴相反,所以这里要取反

如图所示:
image.png

仅仅对坐标进行规范化是不够的,因为实际的成像平面的长宽并不一致,如图所示:
image.png
当某个轴要长一些时,要将该轴乘以对应的比例以模拟实际的宽高比例效果。若 x 轴要长一些,那么应该对 x 轴乘以一个宽高比进行放缩。

同时,我们还需要考虑 fov 来判断相机的视野。由于在屏幕空间中,相机离成像平面实际上只有一个单位的长度,那么成像平面的高度就是由 α \alpha 所决定,即 B C = tan ( α 2 ) |BC|=\tan \left(\frac{\alpha}{2}\right) ,如图所示:
image.png

当我们想要相机视野更宽/窄时,就需要增大/减少 α \alpha 的值,以达到放缩成像平面宽/高度的效果,所以这里 tan ( α 2 ) \tan \left(\frac{\alpha}{2}\right) 也应该作为一个放缩因子。

综上,伪代码可以写成:

// [width, height] 归一化至 [-1, 1]
float centerX = (float(i) + 0.5) / scene.width;
float centerY = (float(j) + 0.5) / scene.height;

// 对某个轴进行放缩以模拟真正的宽高比,并且通过 fov 来控制成像平面的宽高长度
// scale :fov
float x = (2 * centerX - 1) * imageAspectRatio * scale;
float y = (1 - 2 * centerY) * scale;

则用于控制生成光线的Render函数可写成:

// [comment]
// The main render function. This where we iterate over all pixels in the image, generate
// primary rays and cast these rays into the scene. The content of the framebuffer is
// saved to a file.
// [/comment]
void Renderer::Render(const Scene& scene)
{
    std::vector<Vector3f> framebuffer(scene.width * scene.height);

    float scale = std::tan(deg2rad(scene.fov * 0.5f));
    float imageAspectRatio = scene.width / (float)scene.height;

    // Use this variable as the eye position to start your rays.
    Vector3f eye_pos(0);
    int m = 0;
    for (int j = 0; j < scene.height; ++j)
    {
        for (int i = 0; i < scene.width; ++i)
        {
            // generate primary ray direction
            float centerX = (float(i) + 0.5) / scene.width;
            float centerY = (float(j) + 0.5) / scene.height;
            float x = (2 * centerX - 1) * imageAspectRatio * scale;
            float y = (1 - 2 * centerY) * scale;
            // Find the x and y positions of the current pixel to get the direction
            // vector that passes through it.
            // Also, don't forget to multiply both of them with the variable *scale*, and
            // x (horizontal) variable with the *imageAspectRatio*            

            Vector3f dir = Vector3f(x, y, -1); // Don't forget to normalize this direction!
            dir = normalize(dir);
            framebuffer[m++] = castRay(eye_pos, dir, scene, 0);
        }
        UpdateProgress(j / (float)scene.height);
    }

    // save framebuffer to file
    FILE* fp = fopen("binary.ppm", "wb");
    (void)fprintf(fp, "P6\n%d %d\n255\n", scene.width, scene.height);
    for (auto i = 0; i < scene.height * scene.width; ++i) {
        static unsigned char color[3];
        color[0] = (char)(255 * clamp(0, 1, framebuffer[i].x));
        color[1] = (char)(255 * clamp(0, 1, framebuffer[i].y));
        color[2] = (char)(255 * clamp(0, 1, framebuffer[i].z));
        fwrite(color, 1, 3, fp);
    }
    fclose(fp);
}

2. 如何求解光线与三角形的相交

这里主要是依据于一个思路:光线如果与三角形相交,那么该交点一定可以用三角形的重心坐标进行表示。通过重心坐标的定义我们可以知道:它的三个参数分别需要大于0。并且,光线中的时间 t tt 也需要大于0,这两个条件是我们用来判断光线是否与三角形相交的。
具体看笔记光线追踪1部分MT算法

bool rayTriangleIntersect(const Vector3f& v0, const Vector3f& v1, const Vector3f& v2, const Vector3f& orig,
                          const Vector3f& dir, float& tnear, float& u, float& v)
{
    // Implement this function that tests whether the triangle
    // that's specified bt v0, v1 and v2 intersects with the ray (whose
    // origin is *orig* and direction is *dir*)
    // Also don't forget to update tnear, u and v.
    auto E1 = v1 - v0;
    auto E2 = v2 - v0;
    auto S = orig - v0;
    auto S1 = crossProduct(dir, E2);
    auto S2 = crossProduct(S, E1);
    float factor = dotProduct(S1, E1);

    float t = dotProduct(S2, E2) / factor;
    float b1 = dotProduct(S1, S) / factor;
    float b2 = dotProduct(S2, dir) / factor;

    if (t>0 && b1 > 0 && b2 > 0 && 1 -b1-b2 >0) {
        tnear = t;
        u = b1;
        v = b2;
        return true;
    }
    return false;
}

image.png

【版权声明】本文为华为云社区用户原创内容,未经允许不得转载,如需转载请自行联系原作者进行授权。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。