今天要讨论的是6K或者8K,输出成4K到底有什么意义?HD屏幕看4K影片有差吗?
尽管你的屏幕只有1080p的分辨率,你也可以试试看,到视频网站找出一部4K的影片,播放时在1080p和4K两种画质中间作切换。你会发现,即使你的屏幕只有1080p,切换到4K时,仍可明显感受到锐利度的落差。
信息量不同
简单的来说,原生拍摄的4K和后期再将6K降转至4K,前者的锐利度肯定不及后者。同理,原生拍摄的1080p和后期将4K降转至1080p,结果也是如此。
为了方便说明,以下就使用“6K→4K”与“原生4K”作为主要规格来解释。对于摄影新手来说,这是一个3-2不等于1的奇怪逻辑,明明最后都是一样的像素量,有什么理由看起来不同?
取样
影像从数据被读出感光元件的那一刻起,就开始被“刻意”的丢失数据,这是因为现有的传输频宽速度应付不了现有的高像素需求,所以进行编码储存时,会发生所谓的“取样”。换句话说,影像在编码时,会有“像素共用信息”的情形发生。拍摄时发生了一次,进入到后期剪辑完成输出时可能又会再发生一次,等于像素们的色彩信息量至少折损了两次以上。
常见的取样方式都具破坏性
就拿最常见的取样4:2:0 来说好了:每4个像素为一组,而每个像素本身都有自己独立的“亮度”信息,但只有第1个像素有色彩值信息,其他3个只能跟第1个像素“借色”还魂。而4:2:2 则是每4个像素就会有2个像素具备了自己独立的“色彩”信息,供其余2个像素取样。
碍于频宽和写入速度总是跟不上像素拉升的脚步,4:2:0 仍是现阶段消费级摄像机或相机的主流取样方式,较高阶的摄像机则具备了4:2: 2 的选项,每一组像素多出了一个色彩值,目测之下没有太大的差异,却可以令影像的后期宽容度大了不少,这也是为什么给调色师4:2:0 的素材时人家会对你翻白眼。
常见的Apple ProRes 专业的影片记录格式,至少都采用4:2:2 的取样。当然,如果你可以在拍摄时就达到4:4:4 取样或是RAW 的水准,那就不必担心取样所造成的折损,但这类等级的设备价格昂贵,也造就了理想与现实的差距。
Downscaling
了解了上面说到的取样之后,再回到主题,试想:今天我把6K的影像缩小成4K的影像时,其像素的信息量是原生4K(829万像素)的2.34倍(1940万像素) ,这样的行为称之为”Downscaling”。
放大比较,左为4K缩至1080p,右为原生1080p。
而Downscaling你可想像成“重新拍摄”。在4K的容器中(或屏幕上),来自6K的像素们不会再因为“取样”而牺牲掉色彩信息,反而每个4K像素还可选择2个6K像素的信息来作为自己独立的亮度与色度信息,当每个4K的像素都有完整独立信息时,品质与锐利度相对高了许多,毕竟跳过了原生4K在相机/摄像机上的取样压缩手续。
当然了,你的6K原始影像品质也不能太差,如果也已经被压缩到色彩失真或是有帧间压缩之类的情形,还是会影响到降出的品质。
以上方式也在不少电影取景时采用,在HD盛行的年代不少剧组就会使用2K设备拍摄,在最终输出HD时可获得不错的锐利度。到了4K盛行时期,就会使用5K或6K的设备拍摄。尽可能提升原始素材的品质,才能经得起后期多道繁杂编辑、合成及调光调色的摧残。
结论
下次拍摄时,也许你手边的设备有超高像素的选项,如果没有视角裁切问题,且可满足帧率需求,电脑效能、储存设备也许可的条件下,就给它开最高吧,就算你最终只需要交给业主HD,拍摄4K还是有帮助的。