您的位置: 首页 >学科主页>艺术>资料信息> 详细内容

数码非图像格式之RAW简介( 二 )

来源: 发布时间:2012-05-05 00:00:00 浏览次数: 【字体:
如何通过正确曝光,正确理解后期图片加工工序,实现最大限度发挥相机成像能力,实现最优图像质量。
    当今绝大多数的数码单反相机以及很多高端数码非单反相机都支持一种特有的图片格式:RAW格式的拍摄。很多朋友也在不同的地方了解到了有关RAW格式的种种讯息。但还是有许多朋友对这种格式不了解,产生了种种疑问,例如:1)我对比拍摄了RAW和JPG,可没有看出任何区别啊? 2)RAW太慢了,还占空间,处理也麻烦,真的要拍摄RAW吗? 3)我的相机能拍TIFF,JPG是压缩格式,TIFF是非压缩格式;JPG是8位,TIFF可以有16位,TIFF可以代替RAW吗? 4)RAW到底是什么东西?所谓“数码底片”与“数码照片”到底有多大的区别?

    数码相机感光器是如何工作的?很多朋友都听说过RAW是数码相机的“原始数据格式”,为了让大家了解所谓“原始图片格式”所表达的意义,让我们首先回顾数码相机感光器的工作原理。

        灰白区为Adobe RGB 98色彩空间 , 彩色区为sRGB色彩空间

    几乎所有用数码相机的朋友都听说过:CCD(Charge Coupled Device 电荷耦合器件)和CMOS(Complementary Metal-Oxide-Semiconductor Transistor 互补型金属氧化物半导体),知道它们是两种当前被普遍使用的用于采集明暗信息的电子元件,是数码相机用于成像核心器件。那它们是如何工作的呢?
    为了方便讨论,我们可以暂时把CCD、CMOS设想为矩形的格子框,格子框中横竖排满了小格子,而每一个小格子代表了一个小小的感光器件(光敏二极管)
    简单说来,当这些光敏器件感光时,它们把能量从光波的形式转换为光电子,接收的光越多,所转换出的光电子也就越多。你或许会想“哦,我明白了,数码相机就是通过最终测量所转换的电讯号的强度所生成图像的。”这样的结论接近正确,但别忘了:绝大多数数码相机是可以生成彩色图像的。那色彩是从哪里来的呢?
    到目前为止,大体上说有两种办法可以让数码相机捕捉到色彩,一种是普遍的通过滤镜染色的办法,另一种是Sigma SD9/SD10以及宝丽莱的某款小数码相机(非单反)所采用的三色感光器法。理论上说,三色感光器有更好的效果,但就目前的产品而言,采用三色感光器的数码相机的效果并不突出(注:JVC GC MC500U 以及其他某几款数码摄像机也用三色感光器作为基本感光器件) 。望文生义,滤镜法就是在感光器表层覆盖上一层颜色滤镜。但与一般谈论的滤镜不同,这种滤镜并非通体一色,而是红绿蓝交替变换颜色。可以想象为在每一个极微小的感光器件上覆盖一个极小的滤镜,这样被红色滤镜覆盖住的感光器就只对红色敏感,被绿色覆盖的感光器就只对绿色敏感,被蓝色覆盖的感光器只对蓝色敏感。(RGB是目前用的最多的三色选择,Sony 828用的是四色,也就是多了一种滤镜。但828的效果大家都见到了,所以新的Sony R1又换回红绿蓝三色了)通过滤镜覆盖,被摄物体的大体色彩就大致上捕捉到了。但问题并没有被彻底解决,如果说每一个感光器件对应一个像素,而每一感光器件只能有效生成一种颜色,那这个像素所包含的其他两个通道的色彩是如何得到的呢?通过软件插值。也就是说,依据临近的感光器所传回的不同的色彩信息,“猜测”当前感光器所对应的像素的另两个通道的返回值。举个简单的例子:假设有十六个感光器件如下排列:
 
红 绿 红 绿绿蓝 绿 蓝红 绿 红 绿绿 蓝 绿 蓝
 
而所捕捉到的信息为:
 
0 1 0 1 1 0 1 0 0 1 0 1 1 0 1 0
 
也就是说,被红、蓝滤镜覆盖感光器都没有接受到任何有效信号,而被绿色滤镜覆盖的感光器接受到了很强的信号,那么很容易的,可以猜测被红、蓝滤镜覆盖的感光器也应该收到绿色信号。
    这个例子是被过分简化了的,如何在复杂的色彩排列中“猜测”出“正确”的色彩,看上去是非常困难的工作。也确实如此,色彩插值的算法可以算得上是每一个数码相机生产商的核心机密技术。目前也没有哪一家厂商完全公开自己的插值算法。而通常所说的“佳能相机有佳能色彩、索尼相机有索尼色彩”,在一定程度上也是受插值算法所影响。因为颜色插值就是RAW转换的第一步骤!
 RAW转换包含哪些程序?如前章所言,RAW格式转换的第一步是色彩插值--通过分析临近像素,确定当前像素的两个信息空缺通道的色彩。那是不是完成色彩差值就可以了呢?不是,色彩插值后还有同样重要的第二步骤:亮度转换。

    人的多数感官的反馈方式都不是线性的。两块糖并不比一块糖甜两倍;两倍大小的声音听上去并没有两倍那么响;两倍强度光线看上去并没有两倍那么大。你用一盏六十瓦的灯泡可以照亮你的房间,如果用两盏,你并没觉得房间亮了一倍。即便到了白天,射入你房间的太阳光的强度是六十瓦台灯的十几倍甚至几十倍,可你没觉得你的房间亮了几十倍。人眼对光线的感知是非线性的,对暗部差异远较对亮部差异敏感。整体亮度较低时,些微的对比度差异就能引起注意;而整体亮度较高时,则感觉上都近乎白色,看不出差异了。传统的胶卷的感光模式被设计得与人眼非常类似,能比较良好的区分出暗部的差异,而对亮部的变化相对而言则较为不敏感,这也如一些摄影教程中所写“胶卷有七、八个EV的宽容度,但亮部只有两档”。

      灰白区Canon 20D的raw色彩空间,彩色区Adobe RGB 98色彩空间

    数码相机的工作原理则完全与其相反。每升一个EV,都是严格的一倍的光线强度。假设一个感光器能有效感光7EV的动态范围,采用12位计数,那么与之相对的亮度等级为:64 128 256 512 1024 2048 4096。也就是说,64以下表示1 EV光线强度,64 ~ 128 表示 1 EV到2 EV光线强度...2048 ~ 4096表示6 EV到7 EV的光线强度。这意味什么?意味着对于图中较暗的部分,计算机可以存储的亮度差异只有64档,而对于图中较亮的部分,计算机可以存储的亮度差异有2048档!回顾刚刚所讲到的人眼对暗部变化敏感而对亮度变化不敏感,数码相机的光线亮度存储方式完全称得上是反其道而行了。更为重要的,人眼所认为的“中间调”也是最为要紧的描述整体色调的部分,被压缩在数码相机所采集到的数据的最底部的1/6处。(如果按照刚刚的例子,就是768所表示的位置。这也解释了为什么“18%灰”被定义为中间调:4096/768 约等于 100/18)由此可见,为了让数码相机生成的图像变为常规的人眼所习惯识别的图像,必须“放大”底部的1/6,而“缩小”顶部的5/6。亦即重新分配768以下的部分,使其扩展到2048以下,压缩768到4096的部分,使其压缩到2048到4096的范围内。这个转换就是RAW转换的第二步:色调分配。
    完成了色彩差值与色调分配,基本而言RAW转换就基本完成了,剩余的诸如色彩修改、亮度调整、饱和度、锐化等等都可以认为是细节问题,非主要步骤了。对可以拍摄RAW格式的数码相机而言,何为正确曝光?有了刚刚的理论知识,很明显的可以看出如果在拍摄时采用“保守”的曝光方式:保留亮部的部分,那无可避免的,数码相机大部分的细节捕捉能力就被浪费了。如果顶端的1EV没有用,那么就有一半的捕捉能力被浪费了;如果顶端2EV没有用,那么3/4就被浪费了。
    但到底什么叫做“细节捕捉能力”?同样的景色,分布在1~4096的范围内与分布在1~1024的范围内有什么不同?一幅图定义1为黑,4096为白;另一幅定义1为黑,1024为白。理论上说可以表述的颜色后者比前者少了3072种,但人眼真的可以分辨出区别吗?答案是两可的。不能,如果静态的观看两幅图像;能,如果需要做任何的色彩、色调修改。人眼擅长于区别差异,而短于定量测量;擅长于比较分析,短于孤立观察。把灰色放到白色旁边,灰色显得色彩很深;把灰色放到黑色旁边,灰色则显得很浅。人眼无法分辨1024种色彩与4096种色彩的区别,但可以轻易分辨出40种色彩与200种色彩的区别,一旦色彩变化差异超过一定限度。假设一幅图中某一部分需要增加对比度,原本这一部分为平滑色彩过渡,分布范围为256到384,另一幅图为1024到1536(两幅图看上去一样),为了增加这一部分对比,需要让黑的更黑,白的更白,256变成128,384变成768;1072变成512,1536变成3072,虽然变化后数值不同,但绝对明暗程度仍然是一样的。可这时差异就出来了,对于同一亮度范围(2.5EV),前一幅图只有128种层次,而后一幅图有512种层次。很可能在这2.5EV范围内,人眼对于1/512的变化差异不敏感,认为是平滑过渡,但1/128的差异却达到了人眼的感知范围,被看出有了不自然过渡的“色块”。所谓“色块”就是因为临近区域的色彩变化过大,超过了人眼所能容忍的范围了。
    由此可以看出,用数码相机拍摄RAW格式时,最恰当的方式就应该是发挥相机感光器最大的感光能力,让全图中最亮的部分尽可能的接近感光的极值,这样才能最大限度的利用数码相机的高位亮度采集能力,捕捉到尽可能多的细节。那如何做呢?一般说来相机内置的测光算法目的都是为了得到被拍对象明亮恰当的曝光,而非“发挥CCD最大潜力”的曝光。所以在拍摄高反差景物时,如果主体过暗,相机会采取过曝高光的方式保留主体;二如果主体是高光,那相机会采取让主体正确,而让其他过暗。如果是第一种情况,高光纯白的部分就全丢了,事后软件修改也无济于事;如果第二种情况,相机高位大量的采集能力就被浪费了。如果景物整体对比度相对较低,那么整幅图都会被放置到较为接近18%灰的位置,那么大量的高位采集能力就被浪费了。由此可见,在数码相机拍摄RAW格式时,如果追求发挥相机的最好效果,那么很多时候都需要依据图像的直方图来修正曝光,而修正的原则是把全图最亮部分推到直方图的最右侧--相机感光能力的极值。虽然如此拍摄的图片直接看会觉得太亮或者太暗,但当用RAW转换器处理时,在“色调分配”这个转换步骤中,就可以最大限度的把采集到的细节重新分配到各个色调上了。
    依照以上理论,所有的色调、对比、白平衡、都应该RAW转换器中做。因为这时候修改色掉实际上的操作是色调分配,并没有信息被丢掉;而PS的明暗调整是扩大/压缩某个部分,而非把细节分配到不同部分。扩大就是插值,插值就是“猜测”,“猜测”就意味着不准确;“压缩”就是丢掉信息,损失信息,毁图。RAW转换器中所有的亮度、对比度、曲线、曝光的调整实际上调整的都是一个东西--色调分布的伽玛函数的参数,只是表象不同。

    数码相机拍摄RAW格式时,最恰当的曝光方式为让图片最亮处尽可能接近相机感光能力极限。而为了实现这一操作,拍摄后参照直方图,修正拍摄参数是必要的。在未完成的第五部分中,简单介绍了RAW转换器中修正色调与PS修正色调的区别。最终得到结论:为了发挥相机最好的成像能力,拍摄RAW,尽可能亮的曝光,在RAW转换器中修正色调,是三个不可缺少的环节。

          Canon  20D raw色彩空间与ProPhoto色彩空间,区别很小。

 

 
分享到:
【打印正文】