• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            投影與相機空間

            http://sighingnow.github.io/graphics/projection_and_camera.html

            投影與相機空間

             Published On August 14, 2015

            計算機屏幕是2維的,OpenGL渲染的3D場景必須以2D形式的圖像投影到屏幕上。

            透視投影

            透視投影能較好的使二維投影顯示立體感,因為人眼觀看物體符合透視原理。首先,將所有頂點從眼坐標(biāo)(照相機坐標(biāo))轉(zhuǎn)換到裁剪坐標(biāo)系下。然后,這些裁剪坐標(biāo)通過透視除法,即除以裁剪坐標(biāo)中w分量,轉(zhuǎn)換到歸一化設(shè)備坐標(biāo)系(NDC)。在透視投影中,在眼坐標(biāo)下截頭椎體(a truncated pyramid frustum)內(nèi)的3D點被映射到NDC下一個立方體中;x坐標(biāo)從[l,r]映射到[-1,1],y坐標(biāo)從[b,t]映射到[-1,1],z坐標(biāo)從[n,f]映射到[-1,1]。

            世界坐標(biāo)和眼坐標(biāo)系使用右手坐標(biāo)系,而NDC使用左手坐標(biāo)系。這就是說,眼坐標(biāo)系下,在原點處的照相機朝著-Z軸看去,但是在NDC中它朝著+Z軸看去。如下圖所示:

            相機坐標(biāo)系與設(shè)備坐標(biāo)系

            由幾何關(guān)系,可以推導(dǎo)出對稱視錐(常見的都是對稱視錐,也符合人眼看物理的規(guī)律)的投影變換矩陣如下:

            透視投影變換矩陣

            其中,n為眼睛與近平面的距離(near),f為眼睛與遠(yuǎn)平面的距離(far),r為設(shè)備的寬度,t為設(shè)備的高度。

            如何定義視界角度為alpha,定義設(shè)備的寬高比為 ar = width/height, 那么,投影矩陣也可以表述為:

            透視投影變換矩陣

            對應(yīng)的代碼實現(xiàn):

            PipeLine & PipeLine::PerspectiveProject(float ar, float alpha, float znear, float zfar) {     mat4x4f PrespectiveM = {         1.0f/(tanf(alpha/2.0)*ar), 0.0f                  , 0.0f                      , 0.0f,         0.0f                     , 1.0f/(tanf(alpha/2.0)), 0.0f                      , 0.0f,         0.0f                     , 0.0f                  , (-znear-zfar)/(znear-zfar), (2*zfar*znear)/(znear-zfar),         0.0f                     , 0.0f                  , 1.0f                      , 0.0f     };     mulmatf(PrespectiveM, M, M, 4, 4, 4);     return *this; } 

            投影變換對應(yīng)的矩陣稱為投影(projection)矩陣

            正交投影

            構(gòu)造正交投影(Orithographic Projection)的矩陣簡單很多。所有的是眼坐標(biāo)下xe, ye 和ze,都被線性的映射到NDC中。我們需要做的就是講長方體視景體縮放為規(guī)范視見體,然后移動到原點。如下圖所示:

            正交投影

            如果視錐是對稱的話,投影矩陣為:

            正交投影變換矩陣

            相機空間

            我們可以將相機放在三維空間的任意位置,然后將世界坐標(biāo)系中的點轉(zhuǎn)換到相機坐標(biāo)系中,然后投影到設(shè)備屏幕上。理論上可以生成這樣的變化矩陣,實現(xiàn)把一個位于3D空間的對象投影到坐落在世界坐標(biāo)系任意位置的相機正前方的2D平面上。

            三維相機的一個示意圖:

            相機示意圖

            與UVN相關(guān)的概念包括:

            • 相機位置,或者叫做視點(eyepoint): 觀察參考點 (View Reference Point)
            • 相機鏡頭方向,通過觀察平面的法向量指定: 觀察平面法向量VPN (View Plane Normal)
            • 相機頂部正朝向: VUV (View Up Vector)

            相機平移變換

            移動相機是非常簡單的。如果相機位于(x,y,z),那么平移變換就是(-x,-y,-y)。原因很明顯——相機在世界坐標(biāo)系下用向量(x,y,z)做平移變換,所以想要相機回到原點,那么我們就需要使用此向量的相反向量進行平移。變換矩陣如下所示:

            相機移動變換矩陣

            相機旋轉(zhuǎn)變換

            下一步是將相機轉(zhuǎn)向世界坐標(biāo)系中指定的位置。我們想要找到在相機定義的新坐標(biāo)系下頂點的位置。“UVN相機”是眾多指定相機方向的辦法中的一個。相機被下列的矩陣所定義:

            • N: 由相機指向它的目標(biāo)的向量。在一些3D的文獻中也被稱為’look at’。這個向量對應(yīng)于Z軸。
            • V: 直立時,這個向量相對于相機是豎直向上的。這個向量對應(yīng)于Y軸。
            • U: 這個向量從相機指向其右側(cè)。它對應(yīng)于X軸。

            為了把一個位置從世界坐標(biāo)系空間轉(zhuǎn)換到被UVN向量定義的相機坐標(biāo)系空間,我們需要在位置和UVN向量之間進行一個點乘運算。我們可以把UVN系統(tǒng)看作是相機的基,從而可以方便的把一個向量在世界坐標(biāo)和相機坐標(biāo)進行轉(zhuǎn)換(將世界坐標(biāo)變換到相機坐標(biāo))。得到的相機旋轉(zhuǎn)變換矩陣:

            相機轉(zhuǎn)動變換矩陣

            下來討論這個變換矩陣的推導(dǎo)過程。對于一個相機,我們?nèi)菀字浪谌S坐標(biāo)(世界坐標(biāo)系)中的以下三個參數(shù):

            • pos: 相機的位置坐標(biāo)。
            • target: 相機正前方的目標(biāo)點的坐標(biāo)。
            • up: 相機的正上方(頭頂)的方向向量。(一般為(0.0f, 1.0f, 0.0f),與人平視屏幕時的頭頂方向一致)。

            根據(jù)這三個參數(shù),注意到相機坐標(biāo)系是右手坐標(biāo)系,根據(jù)向量叉積的性質(zhì),容易求出:

            N = norm(target - pos) U = norm(up * N) V = norm(N * U) 

            當(dāng)相機在屏幕中定位時,它首先會進行朝向的確定——旋轉(zhuǎn),然后進行位置的確定——平移。因此,當(dāng)進行相機變換的時候,將世界坐標(biāo)系中的坐標(biāo)變換到相機坐標(biāo)系中的坐標(biāo)時,應(yīng)該進行一個相機定位的逆定位。先做逆平移變換,再做逆旋轉(zhuǎn)變換。

            關(guān)于相機變換矩陣的推導(dǎo),參考了博文[推導(dǎo)相機變換矩陣][http://blog.csdn.net/popy007/article/details/5120158]。

            相機變換對應(yīng)的矩陣稱為視圖(view)矩陣,也稱為觀察矩陣

            數(shù)學(xué)運算庫 glm 中包含了一個lookUp函數(shù),可以根據(jù)postargetup三個向量來直接計算出相機變換矩陣:

            glm::mat4 View = glm::lookAt(     glm::vec3(4,3,3), // Camera is at (4,3,3), in World Space     glm::vec3(0,0,0), // and looks at the origin     glm::vec3(0,1,0)  // Head is up (set to 0,-1,0 to look upside-down) ); 

            攝像機控制

            通過相機變換矩陣,我們可以利用矩陣乘法將世界坐標(biāo)系中的坐標(biāo)變換到相機坐標(biāo)系中。通過修改pos, target 和 up 參數(shù),我們可以在程序中動態(tài)完成相機的控制。但是這樣仍然不能很好的用于人機交互,通常使用的第一人稱相機,通過鍵盤WASD等鍵和鼠標(biāo)來控制虛擬相機更加方便,因此需要改進我們的相機控制。要想構(gòu)造適合人機交互的相機類,必須明確我們需要實現(xiàn)的目標(biāo)。第一人稱相機的目標(biāo)包括:鍵盤來移動相機,是相機前后左右移動,通過鼠標(biāo)來控制相機繞xy軸轉(zhuǎn)動角度,通過鼠標(biāo)滾輪來實現(xiàn)縮放。

            第一人稱相機旋轉(zhuǎn)示意圖:

            第一人稱相機旋轉(zhuǎn)示意圖圖

            可以將相機在空間的旋轉(zhuǎn)、移動等變換都分解到 U、V、N 方向上進行,三個為了更好地表達(dá)對攝像機的控制,實現(xiàn)一個Camera類,代碼實現(xiàn):

            // implements for class Camera Camera::Camera(vec3f pos, vec3f target, vec3f up): POS(pos), TARGET(target), UP(up) {     // initial camera.     POS = pos; TARGET = target; UP = up;     this->UpdateUVN(); }  Camera & Camera::Translate(float du, float dv, float dn) {     vec3f delta(du*U.x + dv*V.x + dn*N.x, du*U.y + dv*V.y + dn*N.y, du*U.z + dv*V.z + dn*N.z);     POS = POS + delta;     TARGET = TARGET + delta;     return this->UpdateUVN(); }  Camera & Camera::Rotate(float roll, float pitch, float yaw) {     vec3f uu, vv, nn;      uu = U, vv = V;     U = uu * cosf(roll) - vv * sinf(roll);     V = uu * sinf(roll) + vv * cosf(roll);      vv = V, nn = N;     V = vv * cosf(pitch) - nn * sinf(pitch);     N = vv * sinf(pitch) + nn * cosf(pitch);      // nn = N, uu = U;     N = nn * cosf(yaw) - uu * sinf(yaw);     U = nn * sinf(yaw) + uu * cosf(yaw);      // update target and up.     TARGET = POS + N; UP = V;      return *this; }  Camera & Camera::UpdateUVN() {     // calculate the axis value of camera coordinate system.     N = (TARGET - POS).Normalize();     U = (UP * N).Normalize();     V = (U * N).Normalize();     return *this; }  mat4x4f & Camera::TransformM() {     memset(M, 0x00, sizeof(M));     M[0][0] = M[1][1] = M[2][2] = M[3][3] = 1.0f;     // calculate translation transform.     mat4x4f TranslateM = {         1.0f, 0.0f, 0.0f, -POS.x,         0.0f, 1.0f, 0.0f, -POS.y,         0.0f, 0.0f, 1.0f, -POS.z,         0.0f, 0.0f, 0.0f, 1.0f     };     mulmatf(TranslateM, M, M, 4, 4, 4);     // calculate rotation transform.     mat4x4f RotateM = {         U.x , U.y , U.z , 0.0f,         V.x , V.y , V.z , 0.0f,         N.x , N.y , N.z , 0.0f,         0.0f, 0.0f, 0.0f, 1.0f     };     mulmatf(RotateM, M, M, 4, 4, 4);      return this->M; } 

            方向鍵控制六個方向上的移動:

            static void SpecialKeys(int key, int, int) {     switch (key) {     case GLUT_KEY_LEFT: camera.Translate(-STEP_VAL); break;     case GLUT_KEY_RIGHT: camera.Translate(STEP_VAL); break;     case GLUT_KEY_UP: camera.Translate(0.0f, STEP_VAL); break;     case GLUT_KEY_DOWN: camera.Translate(0.0f, -STEP_VAL); break;     case GLUT_KEY_PAGE_UP: camera.Translate(0.0f, 0.0f, STEP_VAL); break;     case GLUT_KEY_PAGE_DOWN: camera.Translate(0.0f, 0.0f, -STEP_VAL); break;     default: printf("Unknown Special Key: %d\n", key); break;     } } 

            鼠標(biāo)拖拽:

            glutMotionFunc(MotionFunc); glutMouseFunc(MouseFunc);  static void MotionFunc(int x, int y) {     if(mstate) {         camera.Rotate(0.0f, ToRadian((_y-y)*Camera::MOUSE_SENSITIVITY), ToRadian((_x-x)*Camera::MOUSE_SENSITIVITY));         _x = x; _y = y; // update     } }  static void MouseFunc(int button, int state, int x, int y) {     if(button == GLUT_LEFT_BUTTON) {         if(state == GLUT_DOWN) {             _x = x, _y = y; mstate = true;         }         else {             mstate = false;         }     } } 

            MVP變換矩陣

            M、V、P 分別指模型(model),視圖(view)和投影(projection)。MVP矩陣是模型、視圖、以及投影變換三者結(jié)合起來的變換矩陣。變換順序為:模型 -> 視圖 -> 投影。變換方程表達(dá):

            MVP = model * view * projection  MVPTransform = model * view * projection * origin 

            在實際編程中,可以使用glm庫來方便地實現(xiàn)這些操作:

                // Projection matrix : 45° Field of View, 4:3 ratio, display range : 0.1 unit <-> 100 units     glm::mat4 Projection = glm::perspective(45.0f, 4.0f / 3.0f, 0.1f, 100.0f);     // Camera matrix     glm::mat4 View       = glm::lookAt(         glm::vec3(4,3,3), // Camera is at (4,3,3), in World Space         glm::vec3(0,0,0), // and looks at the origin         glm::vec3(0,1,0)  // Head is up (set to 0,-1,0 to look upside-down)     );     // Model matrix : an identity matrix (model will be at the origin)     glm::mat4 Model      = glm::mat4(1.0f);  // Changes for each model !     // Our ModelViewProjection : multiplication of our 3 matrices     glm::mat4 MVP        = Projection * View * Model; // Remember, matrix multiplication is the other way around 

            深度緩沖(Z-Buffer)

            在OpenGL繪圖過程中,我們會遇到這樣的問題:一些理應(yīng)被遮擋的面,因為繪制次序靠后,竟然變成可見的了。我們將用深度緩沖(Z-Buffer)算法解決它。

            該問題的解決方案是:在緩沖中存儲每個片段的深度(即“Z”值);并且每次繪制片段之前要比較當(dāng)前與先前片段的深度值,看誰離攝像機更近。

            我們可以自己實現(xiàn)深度緩沖,但讓硬件自動完成更簡單:

            // Enable depth test glEnable(GL_DEPTH_TEST); // Accept fragment if it closer to the camera than the former one glDepthFunc(GL_LESS); 

            問題解決了。

            參考

            1. 深入投影變換
            2. OpenGL學(xué)習(xí)腳印: 投影矩陣的推導(dǎo)
            3. 推導(dǎo)相機變換矩陣

            posted on 2018-01-08 11:31 zmj 閱讀(1571) 評論(0)  編輯 收藏 引用


            只有注冊用戶登錄后才能發(fā)表評論。
            網(wǎng)站導(dǎo)航: 博客園   IT新聞   BlogJava   博問   Chat2DB   管理


            久久国产精品-久久精品| 久久婷婷五月综合97色直播| 久久婷婷色香五月综合激情| 奇米综合四色77777久久| 69久久夜色精品国产69| 久久久久国产精品嫩草影院| 亚洲精品tv久久久久久久久| 91久久香蕉国产熟女线看| 久久国语露脸国产精品电影| 99久久精品无码一区二区毛片| 久久99久久无码毛片一区二区| 久久人妻少妇嫩草AV无码专区| 思思久久99热只有频精品66| 久久这里只有精品18| 精品无码人妻久久久久久| 五月丁香综合激情六月久久| 色综合久久综精品| 久久Av无码精品人妻系列| 精品无码久久久久久国产| 久久久亚洲AV波多野结衣| 国产成人精品久久亚洲高清不卡 | 国产精品18久久久久久vr| 欧美亚洲另类久久综合婷婷| 久久综合伊人77777| 久久精品中文闷骚内射| 狠狠色丁香久久婷婷综合_中| 伊人热热久久原色播放www| 日本精品久久久久影院日本 | 伊人久久大香线蕉精品不卡| 高清免费久久午夜精品| 国产激情久久久久久熟女老人| 久久天天躁狠狠躁夜夜avapp| 一本伊大人香蕉久久网手机| 99久久人妻无码精品系列| 久久国产劲爆AV内射—百度| 亚洲精品无码久久久久AV麻豆| 国产真实乱对白精彩久久| 欧美伊香蕉久久综合类网站| 99久久精品国产高清一区二区| 色欲久久久天天天综合网精品 | 成人综合伊人五月婷久久|