看板 DSLR 關於我們 聯絡資訊
※ 引述《Radiomir (Radiomir)》之銘言: : Google 有找到一篇「感光元件規格、像素、畫質 綜合概論與認識」 : http://www.lazybox.com.tw/forum/fancystuff/photodiary/6239-56-- : 三、1.末段提到: : 基本上我們看數位相機最大畫素,只要了解這台相機最大能幫我們輸出多大張的照片而已 : ,與畫質並無完全、單一、直接的關係…… : 三、2.提到: : 在相同構圖比較下,較高畫素面積數位照片,的確是能表現較多細節,此時小畫素照片就 : 顯得十分模糊、不清…… : 四、2.提到: : 若同是記錄 1000 萬像素面積的數位照片,若感光元件越大,每一個像素單位面積也隨之 : 越大,受光面積也越大,品質自然會比較好一些…… : 我的問題是: : 1.畫素是不是單純只與「輸出照片大小」有關?(換句話說: 畫素無關畫質?) : 2.還是「畫素愈高, 表現的細節愈多」?(換句話說: 畫素影響畫質?) : 3.或「每一畫素單位受光面積大小」才是影響畫質的關鍵?(換句話說: 畫素影響畫質?) : 所以畫質: Sony A7S 12M > A7 24M > A7R 36M ? : 那如果出一台 A7? 6M、3M 畫質不是更威惹? : 到底影響畫質的關鍵是什麼? 有高手可以統整一下嗎? : 慧根不夠的小弟實在愈看愈糊塗...@@ 對於所謂的畫質,我覺得可以從成像原理討論起。 ◢◣ ◢██◣ ╔═══╗ ◢████◣ ║ ║ ██ ╔════╣ ║║ 1001100110010 ██ ║ ║ ║←感光元件 0110010101101 ██ ║ ║ ║║ 1001011100100 ██ ╚════╣ ║║ 1010110001100 ██ ║ ║ ██ ╚═══╝ 物體 鏡頭 相機 當光照射到物體之後反射,經過鏡頭之後匯聚在感光元件上面"成像" 然後感光元件再將成像轉換成電子訊號,經過處理之後變成所謂的影像檔 然後放在我們的螢幕上面。 也就是說事實上我們看到的影像是經過很多手續處理後的影像 從 物體→鏡頭→成像→感光元件→相機處理→螢幕 而在這過程當中 每一道的影響都是很重要的 如果好相機配爛鏡頭 或者是好鏡頭配爛相機 都是拍不出好的畫質的 如果我們把拍照的過程分成兩種階段 光學階段跟非光學階段 物體→鏡頭→成像→感光元件→相機處理→螢幕 ~~~~~~~~~~~~~~~~ ~~~~~~~~~~~~~~~~~~~~~~~~ 成像階段 非成像階段 如果我們把畫質定義成最後在螢幕上面的影像能不能好好的 還原物體本身的顏色跟細微結構的話再這一個共識底下去討論 那我想這才是比較有意義的方式 在成像階段主要的任務就是成像,把物體本身所放出的光收集, 並經過鏡頭的匯聚,成像。 我們會遇到很多物理的效應, 1.首先是折射。光必須透過透鏡的折射才會匯聚在同一點上面。 但是我們會遇到很多問題,首先就是你到底能不能把光都匯聚在同一點上面。 有時後經過透鏡之後,不一定來自各方向的同樣頻率光線都能匯聚在 同一點上面,比如說球面鏡在所有方向的平行光都不能匯聚在同一點上面 http://zh.wikipedia.org/wiki/File:Spherical_aberration_2.svg 所以你就會有所謂的球面像差的現象發生 而拋物鏡的形狀就比較好一點了,只有在離軸的方向才比就有像差 而不同頻率的光折射率還會不一樣,就算是同一點發出的光經過透鏡之後 不同頻率的部分還會匯聚在不同點上面,這時候你就要不同折射率組成的 複合鏡片把這些光盡量的拉在同一點上面。 其他的還有成像是不是在同一個平面上面的問題 或者會不會有各種變形等等... 2.反射:我們為了修正大量的像差、色散、變形等等 一定會使用大量的鏡片來修正,這時候你會發現最後的影像會變暗 那是因為光線是電磁波,而波每透過一個介面就會有反射跟折射。 經過了大量鏡片之後大量的反射就會嚴重削弱透射光的強度。 而且在強光源底下還會有眩光的產生,這時候我們就會在鏡片上面鍍膜。 利用鍍膜,甚至是多層鍍膜來干涉掉反射的光,增加透射率。 3.繞射:就算你的鏡頭有非常好的鍍膜跟很強修正像差變形色散能力。 但是你的成像還是會受到所謂繞射極限的限制。在這一個繞射極限底下 遠處的點光源並不會成像成一個點,而是會散開。這取決於鏡頭的直徑大小。 而還有一個縮光圈的例子,當我們再縮光圈的時候我們會發現畫質會先變好 然後又慢慢的變差,變好的原因有很多種,但你大概可以想成縮光圈的時候 只允許接近光軸的光經過,而光軸部份剛好是比較有良好的成像的地方 但是當光圈越縮越小之後,繞射現象就會去抵銷甚至讓成像變差。 那在非成像階段呢?簡單的說就是將成像藉由光電效應轉換成電子訊號的過程。 成像→感光元件→相機處理→螢幕 我們把目前的感光元件用顯微鏡放大來看 你會發現上面有許多的小透鏡和濾鏡 小透鏡把光集中在每一個畫素上面能夠感光的部分 而濾鏡則是作為分光,把光線拆散成紅綠藍的三原光 我們現在用來分光的濾鏡陣列通常是Bayer 陣列 http://upload.wikimedia.org/wikipedia/commons/3/37/Bayer_pattern_on_sensor.svg 大概長這樣 經過這些陣列之後感光元件把不同顏色的光跟資訊吸收 然後再利用每一個畫素周圍的其他畫素去還原這一個畫素所沒有的其他顏色的資訊 但是在這一個過程中容易發生摩爾紋或者僞色等等 所以通常會在感光元件前面加裝一個低通濾鏡把影像稍微模糊一下 再來就是光電效應的過程被小透鏡集合的光要落到每一個畫素的"井"裡面 讓感光的部分產生電子訊號再送到相機的處理器裡面作處理 而這時候我們就要克服各種雜訊的問題了暗電流 熱燥 等等.... 這時候我們會提到一件事情 那就是全片幅跟APS-C的差異點 假設在同樣數目畫素底下全片幅一個畫素的面積大概是APS-C兩倍多一點 同樣的光圈的話 全片幅每一個畫素的受光會比APS-C還要多兩倍 所以能達到更好的收光能力跟噪訊比(只要製程世代別差太多) 所以作一個結論 那就是什麼是畫質 其實影響的因素很多 從鏡頭成像一直到感光元件 低通濾鏡等等甚至處理器的表現都會影響到 當然我們如果有一個好的鏡頭 但是畫素追不上鏡頭 那就是一件很可惜的事情 但是鏡頭的成像能力有極限在那邊 盲目追求畫素是沒有意義的因為你只是把糊掉的部分放大而已 真正決定畫質的極限還是在成像上面 而一台好的相機就是能盡量的把鏡頭的成像還原成接近成像電子訊號 --
changatcmu:大支懶真奇妙~~~08/01 17:11
v7q4: 就看你有沒有住陰道08/01 17:11
Timcanpy:潮是怎麼吹~08/01 17:12
MyFuns: 尿為什麼飄08/01 17:13
beaune: 苞~~為什麼開~~08/01 17:14
hchs31705: 乳~是怎麼搖08/01 17:14
-- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.113.181.124 ※ 文章網址: http://www.ptt.cc/bbs/DSLR/M.1407385130.A.F90.html
youdeserveit:我到底看了什麼!!~~god~~推 08/07 12:25
ds1441:你還是沒有回答到問題,畫素增加是好還是不好 08/07 12:32
在光線充足底下畫素增加到能夠充分表現出鏡頭解析度是好的 但是如果只是純粹增加畫素但是鏡頭成像並不好那就沒有意義
sqr:同片幅 畫素增加 會上每個畫素感光面積變小 噪訊比可能上升 08/07 12:45
sqr:可能會雜訊變多 08/07 12:45
sqr: 會讓 (改錯字) 08/07 13:03
PureTrue:所以一個像素點是四個格(紅藍綠) 還是一個格(其中一色) ? 08/07 13:07
應該是每一格都是一個畫素 但是在demosaicing的過程中 需要旁邊的其他顏色來參考還原這一個格子上面的原色 所以基本上每一格畫素上面的顏色其實有一半是補出來的
Radiomir:所以ll3~大的結論:以目前科技而言,增加畫素無助提升畫質? 08/07 13:14
Radiomir:因鏡頭成像限制未有重大進展, 增加畫素只為照片方便輸出? 08/07 13:16
應該說我們的相機畫素其實只要能夠把成像完整還原就夠了 超過了一定畫素之後就不會再給你更多成像資訊了 ※ 編輯: ll35566 (140.113.181.124), 08/07/2014 13:24:44
atropos:以目前的鏡頭跟CCD/CMOS來說,增加像素解像力還是會上去的 08/07 13:23
atropos:況且鏡頭也一直在更新,實在無需擔心鏡頭不夠力的問題 08/07 13:28
PlayStation3:鏡頭的解像力還沒到底吧? 08/07 13:40
Beanie:推這篇!畫素超過鏡頭解像力,只是放大更多模糊的細節罷了 08/07 13:48
atropos:並不盡然,請看我的回文 08/07 13:55
ds1441:結果樓上的回文只是圖表,那根本就只是一般論 08/07 19:31
wentingliu:ll35566 大請受小弟一拜 08/09 21:05