我想根据glm::project的输出计算对象位置的z缓冲区。以下代码中z缓冲区的计算来自https://en.wikipedia.org/wiki/Z-buffering.
我尝试过的
int windowWidth = 800;
int windowHeight = 600;
float positions[] = {-42.5806f, 27.8838f, 49.9729f} // Example point
glm::mat4 model;
glm::mat4 view;
glm::mat4 proj;
view = glm::lookAt(
glm::vec3( 0.0f, 0.0f, 2.0f ),
glm::vec3( 0.0f, 0.0f, 0.0f ),
glm::vec3( 0.0f, 1.0f, 0.0f )
);
proj = glm::perspective( 45.0f, aspect, 0.1f, 10.0f );
// Get screen coordinates from an object point
glm::vec3 screenCoords = glm::project(
glm::vec3( positions[0], positions[1] , positions[2] ),
view*model,
proj,
glm::vec4( 0, 0, windowWidth, windowHeight )
);
// Calculating the z-buffer
int zFar = 10;
int zNear = 0.1;
float zBufferValue = (zFar+zNear ) / ( zFar-zNear ) + ( 1/screenCoords.z) * ( ( -2*zFar*zNear ) / ( zFar - zNear ) );
问题
无论我如何旋转模型或使用哪个点,zBufferValue的值都是1。根据wiki页面,该值应介于-1(近平面)和1(远平面)之间。
我的计算做错了什么?
您的最后一行代码是多余的。深度计算是在投影变换(以及随后的透视分割)期间完成的。glm::project
本质上是这样做的:
// P: projection matrix
// MV: modelview matrix
// v: vertex to convert to screen space
vec4 result = P * MV * vec4(v, 1.0f);
result /= result.w; // perspective divide
// convert X/Y/Z from normalized device coords to screen coords...
result.z = (result.z + 1.0f) * 0.5f;
// ...
return vec3(result);
它还将X/Y坐标从标准化的设备空间[(-1, -1), (1, 1)]
转换为屏幕空间[(0, 0), (viewport_width, viewport_height)]
,但由于您只关心深度缓冲区,所以我省略了上面的步骤。
因此,忽略代码的最后3行,screenCoords.z
应该包含一个相当于从glReadPixels中获得的深度缓冲区值。
当然,存储在图形卡上的实际位取决于深度缓冲区的大小以及OpenGL的使用设置。特别是,如果您使用自定义glDepthRange,则上面的值将与存储在深度缓冲区中的值不同。
您将维基百科文章中的公式应用于错误的值。您已经使用glm::project应用了投影矩阵,这就是z' = ...
公式的作用。所以你基本上在代码中应用了两次投影矩阵。
OpenGL中的深度缓冲区值在窗口坐标中,它们在范围[n,f]内,其中n和f是使用glDepthRange(n, f)
设置的(默认值为0和1)。您可以在规范的13.6.1中阅读它。这些值与投影矩阵中使用的zNear和zFar值无关。
glm::project
只是假设这些默认值,并且由于它输出窗口坐标,所以这是写入深度缓冲区的值。所以正确的代码很简单:
float zBufferValue = screenCoords.z;