返回列表页

索尼第二届4K杯培训-4K拍摄与制作技术(一)

时间:2014-10-24

会议地点:冠城大厦8层

主题:索尼4K CUP培训会 索尼第二届4K杯 4K拍摄与制作技术培训

于路:咱们今天时间基本上这么安排,上午先给大家介绍4K的基本概念,我们为什么要做4K。然后是关于F55的操作,操作里面包括一些基本设置,是平常拍摄时需要注意的地方,下午我们会有一些更详细的介绍,并会有一些样片跟大家分享,还有上一届4K杯中一些比较有特点的作品,前期和后期都会兼顾,在高清学院那边有后期设备,关于后期的问题我们会在之后进一步地交流。上午主要是关于前期拍摄方面的介绍,两台设备,一台在前边,一台在后边,前边这台连接了65寸的4K电视,后面通过一台索尼30寸的4K技监进行监看,这是在索尼所有监视器产品线里,唯一一款4K的监视器,一般作为专业调色来使用。待会在课间的时候,如果之前没什么机会接触这些设备的实操,可以借这个机会多实际操作一下,有什么问题咱们可以随时在现场交流。

首先自我介绍一下,我叫于路,在索尼高清学院主要负责3D和4K的培训,还有相关的技术支持。刚才也说了,这已经是第二届4K杯,我们在今年年初的时候已经做了第一届评选,差不多从去年开始,索尼已经在4K拍摄支持方面做了很多的努力,虽然我们国内现在还没有4K的频道,4K片源更多可能是从卖场中才能看到,虽然现在也正在往机顶盒和播放器方向发展,但这些相对来说仍然比较匮乏,而素材积累是4K非常重要的一个过程,因为在未来,如果说4K频道真的开通了,或者可以通过网络方式看到4K,那我们的素材量是需要有保证。那我们还先从4K基本概念说起。

首先从分辨率角度来讲,从标清时代走到高清,从720x576到现在的1920x1080,宽高比从四比三到十六比九,这个是我们比较熟悉的,4K实际上是建立在高清基础之上的,我们称之为超高清,我们的分辨率是在高清的基础之上再增加4倍,标清到高清分辨率增加了5倍,从720x576的40万像素,到高清1920x1080的两千万左右像素。这其中有一个概念叫2K,我们说到4K,其中有一个概念叫2K,2K的概念实际上是来自电影的领域,是基于高清影像这样的一个分辨率的标准,它的宽高比差不多在17:9,是2048x1080,这两个标准在不同的领域,比如电影你做数字中间片的时候,分辨率只有2048x1080,而我们的高清电视只有1920x1080,这是两个不同领域的不同标准而已。到了4K来讲,我们的分辨率在高清基础上上升了4倍,从1920x1080变成了3840x2160,也就是水平是1920x2,垂直是1080x2,分辨率整整上升了4倍,什么没有变呢,就是宽高比没有变,还是16比9,为什么叫QFHD,Q是QUAD,它指的是4倍,F就是FULL,就是全4倍的全高清,是这样的概念,同样的电影领域的4K,4096x2160,同样的我们刚才说了这也是基于之前的高清的,2K的2048X1080,都乘以2,4096x2160,4K的意思是什么,或者是2K的意思是什么,指的是画面水平的分辨率达到、接近或者是超过2000还是4000线,就是我们的电视线,并不是说4K,4指的是高清4倍的意思,指的是水平的分辨率,3840接近4000,4096将将超过4000,都称之为4K,是这样的意思,这是最基本的概念。

为什么要做4K?很多人觉得这4K的影像是更清晰,或者说我们坐在4K电视前面看4K的画面,我们获得的感受应该是更清晰,其实这个概念,我不能说它这个概念是错的,但是它是有一定的误差的,首先我们介绍为什么要做4K,这个图会告诉我们为什么做4K,过去高清的时候,我们追求的是希望我们拍摄出来的影像,在观众观看的时候,影像的分辨率能达到人眼解像力的极限,我们看高清的时候希望关注的影像是将你看到的真实世界所能感受到的所有情节都包含,当时我们做的就是让画面达到最清晰,而高清我们已经达到人眼解像力的极限,如果4K做得再高,人眼其实已经看不出来了,因为在高清的时候已经到极限了,所以说我们首要的目的并不是简单地把分辨率做得更高,因为清晰与否,这里有一个概念,什么样的影像叫清晰?分辨率多高为合适?过去我们的手机在2寸屏,3寸屏的时候,我们的分辨率没那么高,现在到5寸屏了甚至更大的时候,我们手机的分辨率越来越高,现在手机已经到达高清了,那么随着屏幕越大,为了使画面依然看起来清晰,需要更高的分辨率,更多的像素数,这是毫无疑问的,屏幕越大需要更多的像素,那对于电视来说其实道理本质是一样的,因为我们现在的屏幕越来越大了,比如这是65寸,那4K还有70几寸,还有80几寸的屏幕,通常我们不会做很小的屏幕,原因很简单,我们希望大家看4K的时候,是在一个更大屏幕上看,我们需要更多的像素来填充它。

有人会有这么一个概念,就是说我看4K电视的时候,或者说在我准备买电视的时候,你会根据家里的观看距离去选,比如你家里沙发距离屏幕2.5米,可能有人觉得是不是55寸或者65寸甚至是70寸80寸屏幕太大,比如你去卖场的时候,你选电视的时候,人家会问你,你们家客厅距离有多远,你会根据这个思考这个事,通常你选择高清的时候,如果距离2.5米的话,你会选择一个六七十寸的屏幕,可能是还好,如果有一个更大的客厅当然会更好,但是如果你买一个更大的电视,为此你需要坐的离屏幕越远的话,人坐的离屏幕越远,眼睛的清晰度或者解像力会越弱,如果你坐在这看窗外的物体或者看很远的山你是看不清楚,看远处的公交站牌你看不清楚,但是近处能看清楚,人的解像力越远,它的感受就越弱,如果屏幕越来越大,你坐的越来越远,我们可以这么说,你并不需要提高分辨率,高清到55寸上坐这感觉清晰,换65寸你觉得不行,屏幕太大,我要坐得更远,解像力解弱了,刚才我们说了,屏幕越大,你需要更高的分辨率,前提是你的观看距离不变。比如手机5.5寸屏,做成高清分辨率为什么?是为了让你的近距离看得清楚,因为它的分辨率高,或者屏幕太大了,但是使用距离却并没有变,这是合理的。我的意思是,分辨率的提高跟屏幕大小有关,还跟你的观看距离有关。另外一个当屏幕更大的时候,你的观看距离如果没有变,这时候什么改变了?是你的观看视角发生了变化,这是这张图的本质意思。过去高清的时候,我们的清晰度达到了解像力的极限,但这是基于一个前提,我的观看距离屏幕差不多是屏幕高度的3倍,这么一件事,在涉及它的时候,你的最佳观看距离,如果是高清分辨率的话,应该是屏幕高度的3倍,差不多到咱们这第二排的距离,这个时候的清晰度没有问题满足你的人眼的要求,那你的观看视野是多大,差不多是30度视角,而30度视角差不多是人眼在临场的时候,他能看到的绝大部分细节都在视线中心,因为我们双眼是向中心汇聚的,越往中间感受的细节更多,越往两边到余光范围看到的越少,在中间的时候你觉得影像所有的信息都可以看到,高清在当时定义的时候,它就是希望达到视线中心的视角的感觉,就是30度视角,但是咱们现在知道你看电视的时候,跟你去电影院看电影的时候有什么区别?电影院的屏幕非常大,尤其像一些影院的IMAX巨幕,它填充覆盖了你所有的视野范围,这个时候你能完全地投入到影像中,完全沉浸到画面中,但是看电视的时候不行,看电视你面前可能还有很多你们家的东西,灯光是亮的,很多会分散你的注意力,所以我们做影像的时候,我们一直在追求,从标清到高清到4K到未来可能更高的分辨率,我们追求的是什么?我们希望做出的东西让观众全身心投入进去看,我们称之为沉浸感,第一方面来讲如何增加沉浸感?屏幕越大,越能填充你的视野,填充你人整个的视野,沉浸感越强,所以我们现在做4K要把屏幕做得更大,我们希望在你的观看距离不变的时候下,你的视野看屏幕的范围越来越大,为此我们需要更高的分辨率,我这么解释能听明白吗,不是为了把分辨率做的更高而看得更清晰,高清已经很清晰了,但那是因为你坐的比较远,现在我不改变你的观看距离,如果你说未来要看得更清晰,看高清你坐屏幕更近,你的视角也可以更大,但是那样的话分辨率不够,高清如果你希望获得现在4K的视野,更大的视野,你可以坐的离屏幕更近,也可以,但是问题是没有人会在买电视的时候,去看你家沙发的位置,你们家沙发从30寸变到50寸的时候,没有人会把沙发搬得更近,我们现在只能把屏幕做得更大,来满足你视野的增加的要求,分辨率是附加的,是为了屏幕大了以后,清晰度不会下降,核心目的是什么,是增加屏幕的尺寸,增加你的视野范围,增加你观看的临场的感受,这是我们做4K的一个目的。

左边可以看到30度是高清的视角,那么4K我们希望把视角提升一倍,60度的视角,观看的最佳距离是屏幕高度的1.5倍,差不多在这个位置。1.5倍是什么概念,比如说一个84寸的电视,很大,一般家里不会买84寸的电视,我们一般家里可能很多是42寸的电视,在高清下,这是一个合适的尺寸,84寸就是4个42寸那么大,你坐的最佳的合适位置是多远?很多人觉得在家里摆一个84寸的,太大,你坐的是不是太近,84寸的最佳观看距离是距离屏幕的1.6米,这样的视野范围才能增加。为什么这么做,我们有一个分析的基础,日本的NHK,作为一个研究,当你的影像的屏幕视角越来越大的时候,你的影像的震撼力会越大,越来越接近临场的感觉,但是屏幕如果过大的话,你的舒适度会下降,之前可能有人去过一个环幕影城,不知道现在开不开了,它的视野非常的大,120多米,全视野,上下,坐在里面看,虽然它不是3D的,是个2D的,那个影像无限逼真,因为你已经看不到你周边的余光,全都是影像,那个影像经常播的镜头都是模拟第一视角,你坐在船上,前面是瀑布,一下栽一头,是垂直的视角,出来很多人都想吐,很难受,视野达到无限逼真的时候,但是你的舒适度会下降,你是被动去看的,如果这个影像太有冲击力,你又躲不开,不像在家里看鬼片,你可以试着看屏幕外的地方,但那个是全视野,舒适度会下降。我们希望找到一个契合点,当你影像的震撼力达到比较好的时候,你的舒适度不会下降很多或者不会下降,达到人眼最舒适的时候,NHK做了一个研究,它的结果是60度的视角是人眼最舒适的,当震撼力也达到了标准,舒适度没有下降。这个位置其实就是电影院标准放映厅设计观最佳观看位置的时候的考虑,这是美国电影院的一个设计图,它的最佳的观看位置在这张图上是第5排的中央,它距离屏幕差不多是10米,这个屏幕的宽度是12米,跟我们现在国内标准的放映厅一个大的幕是12米宽,最佳的观看位置距离屏幕是10米,它的水平视角是60度,垂直视角是37度,刚才说了4K就是60度,这个距离去观看的话,它距离屏幕的距离刚好是高度的1.5倍,在这种情况下,按照我们刚才的逻辑,如果给这个影像,像现在的电影基本是2K,给它一个2K的分辨率,它是不是就达不到人眼解像力的极限或者达不到我们人为清晰的要求。如果你在电影院看了一个电影,回去买了张蓝光的,在家里看电视的时候用蓝光播放,你会不会觉得在电影院看的细节好像没有在蓝光上看得清楚,这是因为电影院看到屏幕大小用2K支撑是不够的,这是为什么电影院最先做4K的原因。

什么叫解像力的极限?我们人的视觉范围是很大的,想达到解像力的极限,你看一个影像,我们需要到里面填充足够像素点的数量,才可能达到解像力的极限,那么什么叫合适?多大为合适?差不多是在1度的视角,比如说100度或者120度的视角,在1度的视角里面需要包含至少60个像素,你的影像才能感觉足够的清晰;高清,我们观看视角是30度,1度是60个像素,至少是1800的像素点才能满足要求,所以高清水平的分辨率是1920,超过了1800,4K是60度视角,乘一下得到3600个像素。我们现在是3840或者4096,都超过了,也就是说我们影像的1度至少包含60个像素,我们通过这个可以做出一个计算,这个过程我不给大家解释了,比如说1个像素点,这个像素点跟观看距离是相关的,距离远了,人眼感受的最小像素颗粒比较大,坐的越近像素点越细,越密,越小。在电影院来讲,在10米的时候,它能接受的最小的像素点是2.9毫米,很小,到10米外就很细密了,人眼解像力的极限,12米宽的荧幕,12000毫米除以2.9毫米一个像素,你就知道那12米宽的屏幕需要多少像素点才能保持你的清晰度,差不多是4090,这是为什么电影院先做4K的原因,在电影院的最佳观看位置感受影像,并且达到你解像力的极限。什么叫极限?就是你看不见像素,现在你在电影院看电影的时候还能看到颗粒,而在4K的时候,在最佳位置看不见像素。比如我去电影院,我看过两版《归来》,一版是在华星IMAX巨幕,屏幕非常大,22米宽,我看的《归来》是2K的,虽然影像也很细腻,但是你还是能感觉到像素的颗粒,隔了一天后,我们在索尼的一个标准4K的放影厅看《归来》,我直接坐在第一排的正中间,那是12米宽的屏幕,我距离屏幕都不到10米,剧情我看了一遍,我主要看的是影像,我认为那画面确实能达到我的期待或者达到我认为的极致,就是我努力的看画面,能不能看到像素点,粗糙的部分我确实看不到,那影像已经确实达到我人眼无限的聚焦,无限的关注,我也感知不到画面的颗粒,就像看真实世界一样,感受不到颗粒,这就是我们说到的,我希望它能够达到我的解像力的极限。

我们希望4K带来大家的是什么感觉呢?不是说我在这个画面里填充更多的像素,而是在这么大一个画面里,它的单位密度像素点没有增加,你坐的位置不需要改变,屏幕放大4倍,是这样的感受看4K。

接下来我们说另外一个问题,如果仅仅是分辨率增加了4倍,这没什么特别大的挑战或者意义,我们从标清走到高清,从高清到4K,我们可以这么说,直到今天或者几年之前,两三年之前,大画幅开始进来,从电影走到电视领域,大画幅35毫米进来以后,我们影像的质量提升了很多,我们过去基于原有的高清,3片三分之二英寸的时候或者三片二分之一英寸甚至是三分之一、四分之一更小的时候,虽然我们的分辨率从标清到了高清,但是实际上我们影像的质量,质感除了分辨率之外并没有很大的提升,我们从标清到高清,我们的分辨率提升了,但是影像的宽容度,色彩,范围,画面的品质,真正感受到提升是从35毫米进来以后,很多的弱光,很多的高反差都实现了,包括高速拍摄都实现了,大画幅对我们的帮助很大,画幅更大了,像素点没有增加,它的像素大小增加了,影像的品质提升了,何为影像品质提升?我们称之为这5个方向,包括记录,现在我们从高清到4K了,其实我们又上升了一步,还有几个大的方面,包括动态方面和色彩方面,动态范围就是亮度范围,我们从室内和室外,室外的高光宽容度非常大,过去拍很费劲,比如拍一个电视剧或者电影,我们可能会在玻璃上贴绿色的纸,就是ND的纸,把它的光减弱,要不然里面曝光,窗外全曝光,或者窗外曝光,人就成剪影了,这是指宽容度不够,为此你需要打光,有光就有影,除非你打光打到极致的好,不然还得遮那个影。因为你的宽容度不够,给摄像带来了很多的麻烦,使得你拍到的影像达不到在现场观看的效果,这是我们很遗憾的。什么叫影像的极致,是我们希望影像对于摄影师来讲不要有遗憾,对导演来讲不要有遗憾,我看到什么,我光打出一个效果,拍出来就是它,不是因为摄像机宽容度不够,还要去补光,就像我们在剧院看一个歌剧或者舞剧也好,舞台反光非常大,极大的光比,为了突出主题,但是摄像机一拍,全完了,全曝掉或者暗部全死黑,什么都没了,这是摄像机的约束,我们希望影像在未来对于我们拍摄不要再有这种约束,动态范围要提升,过去高清只有8档半光圈,非常小,成现在的影像屏幕上只有6的光圈的光比,曝光全曝掉了,现在我们希望达到的效果是,暗部细节有,亮部的细节也不能丢,我们现在差不多达到14档光圈的宽度甚至更高。

色彩方面,色域,也是受到过去屏幕的约束,过去是荧光粉的方式,现在是电子方式的约束,我们的色彩方面很窄,人眼看到很多颜色,包括很嫩的绿色很翠的绿色在影像中是呈现不出来的,我们看就很难受,我们想把它呈现出来,更大的色彩范围。

这两个加在一起我们希望这个画面看起来更加真实,更加接近人眼看到的真实感受,没有任何技术的约束,不管这是新的体验的方式,就是我们说的3D也好,虚拟也好,这是一个发展方向,并不是我们今天说的主题。最后一个说的是帧率,电影大家知道,是24格,现在高清影像是50Hz。如果你拍过类似电影或者有时候拿相机拍视频,5D你选择24P,摄像机横摇的时候,画面就抖动,因为对于人眼来讲,画面的刷新率是有要求的,24是接近人眼能感知画面流畅度的极限,你再低,低到22格就是极限了,低到15格的时候,影像就像幻灯片一样,一格一格的变化,不是流畅的,24P接近人眼的极限,当影像大范围的一摇,感觉画面是模糊的。而且你要注意的是,当你的影像屏幕越来越大的时候,你过去的拍法使得画面的动态会更强。就像过去你看高清屏幕,看一个足球,快速切换的时候,最多是眼球从左移到右,当你坐在一个84寸屏幕前的时候,你可能头也跟着转,屏幕更大视野更宽了,头也跟着转,这时候画面的稳定性或者是画面的帧频需要更高,需要使画面更加稳定,我们现在的标准是把它再提升一倍。也就是说4K的影像,我们最终的帧屏需要达到现有频率的一倍,对于我们PAL制的国家现在是100帧,N制国家是120帧,索尼的F65就能拍摄8K的电影,最高能拍到120帧,1秒钟,这是我们未来追求的一个方向。整个影像的发展方向要基于这5个方面提升,最终目的是使得影像无限的清晰、真实和流畅,达到我们人眼看世界的感受。

现在我们称为4K,其实是包含了这5个方面的,而不仅仅是分辨率的提升,这是为什么,很多现在国内电视剧、记录片到国外是一样的,它虽然最终的投放源还是高清电视,但是他用4K去拍,用4K去拍然后转的高清分辨率优势基本体现不出来太多,可能有些细节能看到比原来高清更清楚,但是基本的分辨率降下来了,那为什么还用4K来拍,更重要的是它的宽容度和色域,比如说《舌尖上的中国2》,很多现在的电视剧都是用4K拍,但是实际上拿4K摄像机拍的时候,他选择的记录格式就是高清,《舌尖上的中国2》也是这样,包括国内前段时间像《大丈夫》,马上上映的《红高粱》都是拿F55拍的,选择的是高清的层面去拍,并不是4K,它更需要的是动态范围或者色域这些优势。

这是我们在中午12点拍摄的一帧影像,这个效果很正常,我们拍高清经常见这种效果,中午12点蓝天白云的时候,反差非常大,当你的曝光遇到暗部的时候,你的高光就会曝掉,这一帧影像是我们用索尼的F65拍下来以后,直接在监视器上看的,不做任何的处理。F65的宽容度能达到14档光圈,但是你的监视器只能达到6档光圈的宽容度,所以它上面的8档光圈是显不出来的,过去高清只能捕捉到8档半光圈,可能后期还可以压一压,或者前期摄像师采摘的拐点往下压一下,可以获得一丝更多的亮度,但是现在你看到8档半到6档其实差别不大,如果正常高空拍的话,这个影像基本是注定了,没有调的余地。但是现在4K来说,用F65,后期把它高光增益给它压下来,它能把所有的层次和色彩都找回来,这是它拍下来,用监视器把它捕捉到了,录下来了,通过后期把它的色彩和反高光的层次压下来,你就能获得它所有的层次,这些高光的细节包括真实的色彩都可以获得,我们希望4K先达到要求,我们不要再给摄像师造成技术上的局限。

当然这种影像会有一个特点,对于我们来讲,由于你的屏幕上正常观看的时候,只有6档光圈的宽容度,非常窄,电视屏幕,包括监视器都只有6档光圈的宽容度,我们需要在前期拍的时候,对于灯光师也好,对于摄像师也好,他希望能够看到所有的细节和层次,而不是在后期调,在前期就希望能够看到,你需要把这14档的光圈的宽容度压缩,缩小到6档光圈里,否则你看不到,那怎么办呢,我们不能牺牲暗部的细节,我们不能把整个画面的亮度平均除14,除多少把它压到很窄宽容度里面,这样是不合理的。我们需要保留暗部的细节,同时还需要把高光的层次减弱,是不等比例的减弱,就是暗部减的比较少,亮部减的比较多,能看到所有的细节,这就是我们所说的Log曲线,它最早来自柯达的胶片,最早做数字中间片的时候,把柯达胶片拍的影像用阿莱的扫描一扫成数字母版,同样的问题出现在这里,胶片的宽度很大,怎么把它扫,怎么计算它的每个亮度的层次灰阶,用Log,而不是我们刚刚讲的,我们需要不等比例,暗部中灰亮部,用不同的比例关系,把它的亮度层次进行压缩,暗部压的少,中灰压的比较少,亮部压得更多一些,最后获得的影像是这样的,从暗部一些细节到亮度的窗外层次都有,但是影像的反差很弱,画面是灰的,因为你把整个影像的宽度或者是压窄了以后,相当于对比度就下降了,过去这很暗,那边很亮,把它压到整个的对比度减少了,你才能看到所有的细节,画面是灰的,这时候前期的影像不能直接播出,咱们现在拍的高清可以直接播,Log影像是不能直接用的,否则这个画面是灰的,这个影像是Log的影像,这个影像的窗外层次也有,暗部细节也有,比如这个女孩的衣服是黑的,她前面基本没有什么光,都能看到细节,如果我们把它用正常的对比度来看,这个大屏幕里看不出来,我在液晶屏里能看到,你们要看这个可能稍微小点。

这是灰的,但这上面是一个颜色是正常的反差,对于摄像师来讲,有的人比如灯光师来讲,他需要看到我的影像是一个暗部到所有亮部层次都能看到,这说明你定的光圈是准的,影像所有细节都有,后期调色的空间就很大,对于导演来讲,他关心这个问题,他只关心影像肤色曝光是不是准确,人脸看是不是舒服,所以我们可以同时输出两个,就是给导演看到的是一个正常的反差,给摄影师看到的是这样的画面,摄影师更多关心的是技术上的问题,这些细节层次是不是有,导演看到是自然反差的画面,通过后期的调色,一样可以把它调回到正常,就是把它的暗部或中灰调整到合适的亮度,同时我们可以单独处理它的高光,使它的层次保留下来,反差合适,因为前面的影像包含了14档光圈的所有由暗到亮的层次细致,现在我们就希望后期调了以后,不仅反差达到自然,同时这些高光的细节不会丢掉,这是我们现在做的很多的事情,这是为了实现这一点,我前期拍的是这样的,这个画面很灰,颜色很暗淡,但是你可以看到甚至车身上的高光的这些色彩层次,有一些反光的层次都可以拍得到,把它调完色以后,把它达到一个色彩和反差恢复到自然,同时亮部的细节,高光细节依然存在。这是我们拿Log拍摄的一真影像,这个影像人的肤色没法看了,这个画面很灰,调完以后就能获得一个真实的影像,并且高光,暗部细节都可以保留,对于一个大光比的室外,高光的暗部细节怎么还回来,比如中午12点你拍个画面,你担心画面光比太大,我们前几天在九寨沟拍,有时中午拿相机拍,曝光没法曝,画面很费劲,天空的云都看不到,拿相机拍,高光全曝了,比如拍雪山,高光保留层次了,暗部的树林什么都没了,人眼看没问题,但是拍出来就不行了,我们用Log去拍,拍出来的画面是这样的,前期也没谱,昨天调了一下色,颜色成灰蓝,我们看一个画面吧,这就是我们现场在拍,我把我在的最后一天的F55的卡里的素材,这里面有一些不是4K,是做高速拍摄的时候,素材拷回来,昨天我让人帮忙把后期简单的调了下色,时间很仓促,我这里有两个,一个是Log,原始的影像,我先给大家放一下左边的,没有做任何的处理,我们在现场监视器上看到的影像,第二个是我们简单的做了下调色,这里面没有做降噪,所以画面有的地方有造灰的增加,只是把颜色尽量保持真实的效果,我们来看这两个片子,前后的对比,这个就是没有做过任何调色的,这个是接近中午11、12点的时候,光比,它的水面是会反光的,它有白的波浪,很多雪山的曝光,这个影像的对比度很弱,颜色也很暗淡,包括中午12点水的细节,但是其实在现场拍的时候,如果水曝光的合适,树都是黑的,完全死黑的情况,这都是用高清的分辨率拍的高速,这块不是造光,这块是水雾,瀑布朝向我们,我们用摄像机拍了以后,镜头全是水点,身上都是湿的,这是拿25P拍摄150格录制,是用六杯素的方式拍的,这黑的背光面还有雪山高光面的层次都可以看到,包括浪花。

为什么一定要等到中午11、12点的时候拍?要拍高速是需要光的,因为150格的时候,帧屏提升的快,快门也提升了,需要把快门的速度提高很多,可能达到一千分之一,150格的时候,而且天空经常有云,我们只能是赶到云一出来,有光了赶紧拍,云一收回去光圈不够,你要提升那么快,快门提那么高,光圈不够,所以只能是赶到这种情况,这是拿高速拍的一个画面,这些颜色几乎看不出来,如果在现场没干过调色,在监视器直接看到画面也模糊,我们每天晚上看这个片子也模糊,这个画面到底行不行,我们看一下调完以后,这是简单的调过色的,把它的反差还原回来,把它的颜色尽量找回来,正常的反差的质感都找回来。这个影片的反差是比人眼真实看到的要弱一些,还是因为这个问题,你需要保留层次,你虽然后期调了,但是它的反差不能拉的超过这个屏幕的范围。就是这个意思,前期用Log拍,它能把高光全部层次会保留下来,这是在后期调的话有的可调,正常拍了以后,高光,白的时候细节全都没了,这种情况下后期没法调,比如这个雪山,这种反差情况下,如果你保留雪山,那这个瀑布底下的暗部全都是黑的,后期没法抬了,或者保留了暗部,雪山没了,天空看不到了,我在那拍照片的时候,很难取舍,只能用相机,只能用肉眼看,把绿色的还原回来。

我们接着说,色彩范围,目前来讲,我们人眼能看到的色彩范围是很宽的,是一个马蹄形,对于影像来讲,我们有一个标准叫XYZ,最早胶片做胶转磁的时候,有一个最大的扫描的范围,但是实际上胶片没有那么大的色彩范围,红的范围是目前到好莱坞,在国际来讲,它有一个标准,这个标准在未来它不再用现有的Log,这个存储细节的越多,数据量越大,这毫无疑问,你用10比特去存,用16比特去存,数据量肯定不一样,我们存照片也好,或者摄像机存(英)文件,原始的文件,16比特,分辨率非常高,比如说F55能达到1.2个G,2.4个G,F65更大,但是如果你压缩用10比特存,数据量会降低很多,但是降低对于长远,好莱坞考虑的是从长远来讲,它不希望现在很多摄像机索尼也好,阿莱也好,这些摄像机,不同的处理方式,不同的存储的码率,不同的存储格式,压缩率都不一样,它希望的是尽可能小的,无论你拿去拍,我们现在拍电影越来越复杂了,过去可能两片胶片就行,胶片用得差不多,现在恨不得拍高速是一种,拍航拍是一个机器,拍正常的是一个机器,品牌都不一样,当做后期的人发现送过来的素材有用red one拍的,有用5D拍的,我说的是一个片子,不同的接的镜头,5D拍的,后期调色就很头疼,因为宽容度都不一样,色域都不一样,前期的存储压缩率都不一样,后期很麻烦。所以好莱坞就想这个方法,它设一个格式,都用这个,索尼的F65支持这种方式,保存,它用的是16比特,这种方式用的是现行的Log,它宽度和数据量非常大,不需要用SLog,不需要用电视伽马等等去压缩它,都是现行的,你出的什么光比就拍出来就是什么光比,相当于它用一个最大的数据量能保存的影像达到20档光圈以上的宽容度,就是不做任何的亮度压缩,这是ACES的,色域覆盖了人眼看到的范围,这是为未来长远的考虑,再往下会有ITU-R2020,比我们索尼要小一圈,这是未来4K和8K,电视或者制作色彩的标准,这是我们真正的4K色彩的标准,目前没有4K电视能达到,就是索尼在今年会推出X300的升级款,能达到2020的色域,再往下是叫DCI-P3,P3色域就是我们现在电影的色域,电影做数字中间的色域,它做的色域更小,最小的是我们现在的电视ITU709,它的色彩范围,这是绿的范围,整个的色彩是这么大个马蹄,而这个范围很窄,对于红好一些,对于蓝好一些,对于绿缺失了好多,这是为什么最早拍胶片的人,包括照相机拍胶片的人都觉得数字CCD拍出来的影像绿色很差,拍树、草的质感跟我们胶片拍出来的不一样,差很多,说白了是你的显示端显示不一样,电视,放映机显示不出来那么大的色彩范围,未来会把色彩拓展到更大,更多的绿色能够还原回来,这就是说,《舌尖上的中国2》用的是Log曲线来拍摄,它用的是电视的矩阵,说色彩矩阵是709,它在后期主要把层次调回来,它的色彩没有做大的调整,它为了后面的省事,直接用的是电视色域拍,并没有用电影大色域去拍,因为它知道最后呈现端是电视,这个电视剧可以做的更彻底一些,比如《大丈夫》用的是Log的伽马和Log的色域,这是已经调完色了,它之前的画面是很灰的,调色以后就能得到很正常的,同时还能获得很自然的暗部和亮度的反差,它不需要补光完成很多镜头,高清拍光度不够,只是这个影像的画面看起来更自然,更像生活中拍出来的,不像在棚里拍的,曝光还是不错的,还有一个是汪峰的演唱会,电视里转播的,实际上是一个高清的转播,现场有20台F55拍摄。在前期我们就做了这么一件事,在现场我们用Log去拍,不是用电视伽马,这是很新的一个创意,过去我们做电视转播,都是用电视伽马,因为要直播,机内录的就是Log的4K影像,但是我们现场拍也是用Log输出给现场一个电视切换台,导播看的画面实际上是灰的。后面有一个公司用在线的达芬奇,高清信号进去,过了它这个东西再输出,把这个直播,导播切出来的PGM信号的这个Log信号进入它的系统,它在里面预制了几条跟前面存好的不同的饱和度,不同层次,不同色彩表现的曲线,这个在彩排中做好了,根据他的每首歌,设定好一个合适的参数,进去直接套参数,他也不再调了,都存好了,直播这个影像实际在现场做了包装调色,用这个信号做直播,从这个影像做到更偏向电影感,而不是一个纯粹的电视感觉,我觉得这是有价值的一种尝试,在线的调色,实时调色。

最后说一下高帧频,在电影领域,现在很多片子不用24格拍,像这个《霍比特人》用48格拍摄,而《阿凡达2、3、4》用60格拍,影像在推拉摇移的时候不会再有脱尾了,这需要你的放映机来满足,现在索尼的4K放映机已经能够播放60P,今年我们在巴西世界杯做了几场4K的直播,投影就是用60P的4K方式播放,影像的流畅度已经超过了电影的播放效果。HFR,对于高帧屏要求最早是由3D提出来的,我们知道在电影院看3D是戴眼镜,在一个幕上是靠左眼的画面交替来显示的,影像在那一直播,但它是快速的,先播一个左眼,再播一个右眼,再播一个左眼,再播一个右眼,靠眼镜的偏光模糊的快门交替,你知道快门如果闪的太慢,眼镜觉得画面是闪的,不舒服,它需要把帧频提得很高,3D用的是3倍频的感觉,24格左眼,24格右眼,这是最基本的要求,保证流畅度,做3倍频,把24乘3,72,右眼也是一样,24乘3,用3倍的频率来播,左右眼加一块,它一秒钟闪出144个画面,这么快速的交替左右眼,才能使左右眼看到的画面是流畅的,拼在一起是立体的,电视领域也希望能够提升帧屏,使画面在动态过程中看得更流畅。

像欧洲和美国的4K广播发展路线,在目前阶段,第一个阶段,达到的是4K的50P、60P,在下一个阶段,达到100P,最后一个阶段,它的目标是在2020年能够出现8K的120P,或者8K的100P,这是欧洲和美国的一个希望,在目前的阶段我们先达到前两个,4K分辨率,同时适用尽可能高的帧屏,在4K的领域中没有隔行扫描,注意点,你在摄像机拍的时候,你能选择4K,只有25P,24P或者是50P,没有50I一说,没有隔行的扫描一说。这就意味着存储的空间高清是1920,1080,50I,4K是4096或者3840X2160,分辨率乘了4,从隔行到逐行,数据量又增加一倍,过去是50I,50场25P,现在50P。也就是说你的4K的数据量翻了8倍。过去我们高清,比如说摄像机接到监视器上,一根SDI,这个BNC线最多可以传3G信号,现在用高清1.5G就够了,现在的基带信号1.5G,到了4K乘8,12G,如果用BNC线传,就是四根线传。我们现场那个摄像机,用了两根线接到了屏幕上,我调到了25P的方式,相当于分辨率乘了4,但是帧屏25P跟50I其实是一样的,只是数据量乘了4,两根BNC可以了,如果你用50P,得用4根BNC同时传,如果未来8K是16根BNC传一个信号,数量非常大。目前我们这是用来HDMI接,HDMI的传输带宽可以达到10G,但是它距离很短。SDI,目前我们是4K,我们在转播中试过60米还是能满足,但是像高清一般是80米左右,80米再往上指标差不多会下降,3G SDI我们试过,一路的信号拉到60米接近极限,否则影像会有问题,HDMI更短,我们这根线传的是50P的信号,需要基于两个前提,一个是摄像机和这个屏幕的HDMI的接口必须是2.0的,现在3D是1.4,就是10G,但是50P是12G,25P没问题,F55通过软件升级能实现,它的硬件本身是2.0,索尼的电视到目前这两年最新的4K电视,通过软件的升级本身也是2.0的接口,这样连一根HDMI,目前线本身我还没看到更高的版本。它是1.4的可以传。如果咱们自己回去做这个系统,比如你拍一个片子,你用非编输出到咱们的4K电视上或者到4K投影上,线是很重要的,要注意这点,因为码率非常大,你现在在京东上搜一个HDMI有十几块钱的,有几百块钱的,那是不一样的,最早的是几十块钱的,接上以后,放了个片子,到最后声画已经不同步到极致了,这两个画面的声音跟图像差的非常的远,后来就换了一根好点的,几百块的,好一些了。我们称之为高保真的,这种保证视频同步的,都是HDMI的,它差很多。我们要注意这一点,如果你以后想配置的话,你自己放映或者在线的钱上不要太节省,尽量选根好的。前面我们讲了很多是关于4K的概念,这个主要是为了帮助我们更好的了解4K的特点,你要知道你未来做影像,你为什么要做4K,刚才我们反复的说这个问题了,是为了在更大的荧幕上去展现,带来更大的视角和临场感,基于这个目的这是我们做4K的原因。

在你后面去做后期也好,在去拍摄的时候也好,你需要脑子里时刻的想到的是,最终的影像,简单的说就是为了大银幕呈现去表现的,无论是电视,或者是电影,而不是为一个二三十寸的电视三四十寸的电视去展现的,不是为了让你感受一种高大上,不是为了院线播放,你要考虑的是你在拍摄的时候,你的每一个镜头稳定性也好,你画面的每一个细节,如果处理的不好,最终在大银幕上展现他的这种错误,或者的这种不舒服的感觉会更加的明显,就是你在大银幕上看4K,你的视角很宽,细节很丰富,所有的细节都会暴露出来,你的画面如果不稳定,在小银幕上看抖动不明显,在大银幕上看会抖动很明显,你的焦点略微的差一点,在大银幕上看会很明显,你的画面拍出了一些现在没有用的东西,你的层次多了,或者少了,或者不合理,暗部没细节,高光曝掉了,这些问题在大银幕上会看得更明显,这是你在前期拍摄的时候需要注意的,包括你在构图的时候,还要考虑一个问题,屏幕更大了,看高清的时候,眼球动一动左右就可以了,看4K的时候,可能脑袋都要动。在这个情况下,如果画面经常的做大范围的推拉摇移,做大范围的晃动拍摄,比如说4K,有时候咱们记录片排版跟着拍,手就这么提着这么晃,焦点都不一定是实的,画面都是抖动的,你可能为了节省空间,你还用25P拍摄,画面还是有这抖动拖尾了,画面就没法看了。在后期,画面就看的时候非常的难受。稳定性这个影像,刚才看到这个影像,这个九寨沟的影像,大部分影像都是安放在三角架拍的,但是目前在一开始的时候,你尽可能来让影像保证一个稳定的流畅的画面,观众能够很舒服的看下来,这个目前来说很重要,包括在世界杯,当时在巴西的时候,它的镜头一般也不会说给那种大特写,因为特写越强,焦距推的越上,你的动感就会越强烈,这个时候观众看的就会很晕,现在家里看一个42寸屏幕,未来可能是看84寸屏幕,屏幕乘了4倍,相当于是这焦距推上去了一倍,你坐的位置不动,你这个人放大了一倍,等同于你的焦距推了一倍,那好,过去的位置,你看这个人很舒服的一个视角,这个人是这么大,拍4K的时候,你还是用这个焦距拍,屏幕放大了4倍,人一下放大了一倍,过去你看人的体积一下变得那么大,那脑袋是个特写,现在变成一个大特写,你的屏幕视野范围内就是一个大脑袋,你肯定觉得这个画面是很刺激了,我们希望达到的是还是坐在这个位置,这个人并不变大,他的背景变大,这个才叫你视野看开阔了,不是说人也跟着放大一倍,应该想象一下,你在构图的时候,你的松紧度,你的画面的变焦,就不一定非要给大特写,这个慢慢的你自己去拍它,如果你有大的电视,你可以自己感受一下,包括你运动的感觉,包括你给镜头的时候,我相信大家拍的时候还是基于你高清的习惯,这个很正常。当然九寨镜头的焦距也给不出来特写,但是你以后拍的时候,拍一些人的画面,拍大特镜头的时候,拍微距的时候,你要考虑下这个问题,就是你最终的放映端屏幕非常大。

摄像机的特点,大部分人都已经用过F55了或者这一类型的机器,我说一下这个特点,这个说实话,这一块跟我们直接操作的关系可能不是很大。这个机器不算镜头,你拿到手的是一个这个东西,加上前面的这个安装好的是一个接圈,55也好或者可能用过索尼F3,我们称之为这个机叫摄像机,有一个很重要的前提是它可以接电影头,电影镜头是叫PL卡口,电影镜头是接在前面这个接圈,就是我们标配了,有一个接圈了,这个接圈可以摘掉,把银色的轮也卸下来,可以把这个接圈摘掉,将来以后就是我们现在看到的这个,就是这个银色前面没有黑的接圈了,这个口卡称之为FZ卡口,这是索尼原来自己做的卡口,能接极少量的镜头,可能我们有人拿到的镜头是这个18x140的长焦变焦,是这么一个头,这个头确实在市面上也比较少,这个姑且不说,装的这个接圈了以后,能把它变成电影的PL卡口,同理,如果你愿意找一个第三方镜头,比如说佳能,这个在市场上是能买到接圈的,就是叫索尼的FZ转佳能的EF卡口,尼康的卡口都可以,第三方镜头索尼E卡口都可以。在买接圈时候,或者你选用第三方的相机镜头的时候,其实就一个问题,也不是什么问题,当然首先不存在电控数据的传输,相机数据自动光圈这是不可能的,咱们买的接圈是一个纯机械的,只是把什么改变了?就是这个后焦距,装接圈的目的是为了把那的后焦距与相机的镜头匹配在一起,这样前面焦距才能校准,把这距值拉开是10,匹配后焦距,所以索尼把这个距离做的非常短,就是为了装各种接圈使用,PL可以,或者装其它的都可以。

至于说镜头我们的这个板面称之为叫超35mm,就叫super35,这个就是目前的电影的全画幅,但是有人提过这样一个说法,电影的全画幅不是真的全画幅,或者说不是咱们照相机的35mm的全画幅,这个说法是对的,电影的全画幅相当于我们照相机的APS-C,原因很简单,过去的35mm胶片都是基于这个说法来的,电影用35mm胶片是竖着用的,每一格画面占40孔,当然现在也有30孔的,索尼超35是占30孔宽,而相机把这个胶片是横着用,它的一格画面是80孔,就是那个的2倍,刚好相当于全画幅和APS-C的差别,所以无所谓说我们这个是不是全画幅,对于电影来讲,这就叫全画幅,30孔或者40孔宽度的胶片的画幅就是电影的全画幅,而相机的全画幅是胶片横着用80孔的宽度,但都是基于电影胶片宽度,35mm来说的,所以都叫35。分辨率是4K,差不多800万像素,别的我觉得无所谓。

它的感光度我需要说一下,咱们在设摄像机菜单的时候,你肯定避免不了要设置增益,电影是用ISO与相机是同样的道理,电视用的是增益0dB多少多少,这个0dB换算过来就是这个摄像机的基础感光度。比如说我告诉你这个摄像机的ISO是1250,我是这么一说,比如说这个例子,他写的这个摄影机ISO,1250,这个就是0dB的感觉,咱们知道,对于肩扛摄像机,电视摄像机来说,6dB是1档光圈的感光变化,每6dB是一档光圈,比如说高清摄像机增益,从0dB到6dB到12dB,18dB,对于ISO来说就是乘2了,比如说1250,6dB就变成2500了,如果是12dB就变成5000了,就这么一个算法。

为什么要说这个概念?这个增益好理解,电视0dB,6dB这都很好理解,而且你所需要关心的主要是画面的亮度,你到了晚上只能靠光圈提,或者光圈提不上去了,只能开增益提感光度,我觉得这个多少并不重要,但是有一点是你们需要了解,就是比如拿F55来说,它的基础感光度,其实是有两个值,一个是ISO 1250,一个是ISO 500,这两个值是怎么来的,1250,是在用Log模式下的感光度,而500是当你把摄像机设置成电视伽马的感光度是500,如果你要用电视摄像机的拍摄的感光度去说,它就是ISO 500,当你把伽马选成电视伽马是ISO 500,选成Log是1250,说这个什么意思,为什么会这样?这里所说的ISO 500跟ISO 1250跟画面的噪点没有关系,不是说电视是ISO 500,噪点就要比Log的时候1250低很多,那个高,不是这个算法,为什么要这个值,因为这个东西不是胶片,胶片是ISO 800的颗粒比ISO 400、200的要粗很多,咱这就是像素点的概念,其实说白了跟什么有关?跟拍电影的时候测光表有关,因为Log曲线比较灰,如果是一个画面的亮度来表现的只话,这个轴是我们实际呈现的亮度,而这个轴是我们实际的亮度,对于电视伽马曲线来讲,我们是这么一个曲线,这是线性部分,暗部,中灰,亮度是拐点的压缩。

人的皮肤曝光是多少?有谁知道?一般拍人的时候,或者你们拿电视摄像机拍访谈,拍人的时候,你一般会开启摄像机上什么功能来帮助你看人的皮肤曝光是否准确,斑马纹用过吗?斑马纹是做什么用的?70%是什么概念,就是整个宽的亮度是百分之百,从黑到白,白是100%,黑是0,平均咱们的自动光圈是多少?一般,自动光圈在他对主体的时候,一般会把主题暴光成多亮?自动光圈是把所有画面拍成中灰的亮度,比如说有调色了,有一个灰板,一般调白,有时候灰板是50%,有18灰,自动光圈是把所有的物体都曝光成50%的量,但是人的皮肤要比这灰强亮1档光圈,所以斑马纹设定的是70%,斑马纹一开,你把斑马纹覆盖到人的脸上,人的皮肤亮度达到70%,这是人的亮度,这个是在电视伽马的情况下人的亮度,这是电视伽马情况下,50%是中灰的亮度,但是当你把SLog开启了以后,这个曲线会变成斜的,它为了保留了下来更多的高光区,实际画面的暗部,中灰,亮部,电视伽马到这截止了,它就能覆盖600%的动态范围,大概是在8档半光圈,更多的到14档光圈宽度的时候电视伽马没有了,拍不到,数字相机拍到了,但是你还用电视伽马,到这截止了,显示不出来,这时候怎么办呢,把这曲线做的更斜,也就是说,原始的18灰,亮度从这到这了,亮度低了,因为你暗部亮度不减弱,怎么把高光存下来,得把对比度降得更低,把中灰暗部都压下去,把高光才能拉回来,人脸也降下来了,当然我们拿测光表去测亮度,测的肯定是18灰的亮度,然后再加一两光圈是人的皮肤,这个时候,你需要注意的就是在电视的拍摄时候人的亮度是70%左右,而在电影拍摄时候,或者在Log的情况下,人的皮肤大概就会降到30%几的亮度,也就是说在这种情况下,你去测光,如果你用的感光度,比如电视伽马的时候,70所对应的是这个电视,55的电视时候ISO是500,也就是0dB的时候,对于测光表来说,并不知道你这个时候是电视伽马还是电影伽马,只是关心你现场光是多亮,你在测光表设定的是?现在我的摄像机感光度是ISO 500,你得到一个值,在电视的时候;当你用Log的时候,是不是整个画面都变暗了,这种情况下,这个ISO 500,会得到一档光圈值,由于这个感光度低,那你是不是得到的光圈值就很大,比如ISO 2.8,开口很大,这种情况下,这个画面就暗了,一开Log以后,这个画面就变暗了,这个时候,你的测光表测出的这个值是不会变的,还是光差这个2.8,但是这个画面就变暗了,这个时候有一个问题,就是摄影师一看,导演一看,这个皮肤是不是太暗了,你需要把光圈开一点,保证它是亮的,在Log情况下,皮肤变暗是正常的,后期调完就回来了,如果在Log的时候你把人曝成70%,那高光就全完了,全溢出了,在Log期情况下,这个皮肤的亮度是30%几是对的,后期一调再回到70%几,是个概念问题,测光表去测的时候永远是按照一个标准去测的,现在你要告诉测光表,现在我们的18灰不是50%了,我的18灰变成20%几了,怎么告诉测光表这一点?测光表现在不能按50%做曝光了,你需要骗测光表,你告诉测光表现在我们的感光度是1250,当1250的时候,它的光圈值是不是就收回来了,因为感光度提升了,过去的是2.8,感度提升了1倍多,光圈值可能变成F4或者5.6或者4和5.6中间了,这个时候,人的亮度就自然而言变成30%了,就是这么一个问题,就是为了去告诉测光表。现在是用什么方式去拍,测光表就知道,你现在是用Log,我就用1250去测,如果你是电视伽马,我就用500去测,得到的光圈值是不一样的,仅此而已,跟增益其实没有关系。Log的时候,我把Log一开,我这边的摄像机机身会显示感光度ISO的值,但是电视时候,就显示的是500,电影的时候就是1250,仅此而已。

从观测结果去说,监视器观看有两种方式,一种是看Log,灰的画面,一种是看摄像机可以输出一个校正后的画面,就是模拟电视伽马,这样的话你看肤色比较舒服,颜色比较舒服,包括焦距的时候看得比较清楚,灰的画面看不清楚。如果是Log画面的话,比如你要拍一个风光片,你要保证的这个画面的亮部、暗部层次都有,就可以了,后期通过它可以调了。看示波器是最方便的,如果有人没学过看波形,或者他看不懂,如果监视器不跑偏的话,你就是看画面里面,肉眼看的天空最亮,层次能看到,不是曝掉了,暗部有细节就OK了,对风光来说就可以了,因为你的宽度大,后期是足够去调的,其实波形也是一样的,波形是曝光没溢出,没到700以上也可以了,这是第一个,就是你直接去看Log,你只要保证灰度都有就可以了;但如果你不想直接看Log,你用电视伽马匹配它,但是你录的还是Log曲线,在大多数情况下,你就按照你正常的曝光就可以了,正常看皮肤这么亮,你正常拍就可以了,因为他已经校正过来了,在绝大多数情况下,因为你看到的影像已经校正709伽马了,这时候高光可能就有溢出了。一般情况下,如果你录的是Log的话,高光是能找出来的,即使你在709看到溢出了,后期高光也能调过来,大多数情况下是这样,哪怕中午12点这个画面,高光也能找出来,我们拍九寨沟的时候,除非是那种雪山的反光,水面的反光,人眼都看不出来的,灯泡的亮度,那个没办法,但是大多数正常的高光层次是可以找出来,还是用电视画面去看,Log就是只要你保证它的高光层次有就可以了。第三个要说的是果冻效应,我们去九寨沟用了好几个机器,比如说我们有F55,那个组还有,因为他有航拍,用了松下的GH4相机,新出的一个4K的相机,只有55是全域款,这块写的一个词叫全域电子快门,其它的摄像机是正常的CMOS,这个全域快门是个什么概念?咱们可能原来用相机拍是最明显的,摄像机一摇,快速镜头里的画面打进来一看这个是斜的,这就是果冻效应,正常的一个直的东西,当你拍摄一张测试卡,比如说咱们的后焦卡,放射性的后焦卡,把它转起来,摄像机去拍,有的摄像机拍完以后,每条线都是直接的,有的拍完以后,这个线是拧的,或者一张直线的卡,在横向滚平的时候,有的摄像机拍还是直的,有的摄像机拍是斜的,这是F55和艾丽莎,为什么会出现这种情况,简单来说就是,这个如果是一个成像器件的话,这是一块CMOS,简单的说一下,我上面有很多像素点,非常非常多,画一些景色,这个说明一下,每一个坑都是一个像素,向下左右全都是,CCD没有果冻效应的问题,但是CMOS有,窗口没有果冻效应,是因为整个画面,当快门打开,画面就开始进光,感光,然后把光整个画面都输出去,CCD在做的时候,它的每一个像素,像索尼最好的CCD咱们用过数字杯的,索尼DVW,这个用过FITCCD,最好的CCD索尼叫FIT,他在每一个像素点的后面,做了一个寄存器,就是把光进来的以后,快速的保存下来,每一个像素点后面都做了这么一个东西,当快门关上,这一张画面输出了,每一个纵列马上快速的输出出去,输出到底下的一个暗门里,快速的移出去,到这块再保存,为什么要移出去,如果你不移出去,在快门开的过程中,你才能做这个传输,你看的这个画面,比如高光处刚好拍了一盏灯,这个灯是很亮,你这个画面就会出现,移动过程中,一个光一个点就会拉成一个竖线,这个点改成光之后很亮了,传输,就拉成一条线了,这画面就有问题了,早期的CCD有一种拍车灯的时候会出现一个垂直亮线,很早之前,现在因为工艺发展的都没有,早期拍车灯,然后上去出来一条亮线,就是这个灯的点在传输的时候,这个亮没有被盖住,都看到了传输过程,这个肯定不好的。CCD这么出去以后,所以没有任何问题,但是CMOS就不行了,CMOS很便宜,CMOS怎么传,像素从这个点到最底下这个点,它是蛇形的,这么一个一个传,到最后这输出完,这有一个大寄存器,不是每一个点有一个寄存器,而是最后有一个总的寄存器,肯是CCD贵了,每个点都做了一个这东西,区别在于哪?这个点先感光输出,其次是这个点感光输出,这个点一定比这个点记录的时间要早一点,这就是为什么拍一条竖线会拍斜的原因,同样这一排寄存器,这个点要比最底下的点记录时间要早,所以你看到这个线永远是往左上角斜,因为这个点相对录,这个点是最后被记录的,这个叫果冻效应,这就是CMOS的相机拍也好,像GH4,都是一样的,它不是存一块的。会发生什么情况呢?我们看到这个影像,在做横向摇镜头的时候,中间我们拍了一个特别经典的镜头,就跟这个格子有关的,就是藏族房间是瓦砾的,一个一个的瓦片,一拉就看见在拧,不是一个面直着过去了,在拧,有扭曲的感觉,再一个直线的时候就很快,可能一般人看不出来了,就觉得很奇怪这种效果。索尼就是把他的F55 CMOS里的每个像素点后面都加了一个寄存器,相当于把CCD的技术移到CMOS上面,所以它不会出现果冻效应,但是代价就是他的感光度要稍微的低一些,而F5是ISO 2000,F55就是1250,1250的话它需要更大的进光量,2000少一些,因为F5的成像器件不是全域快门的,但是F55是,这是一个区别。

最后一个,有一个模式选择的问题,一会的操作也会告诉大家,这个成像器件的版面是4K,拍4K全版面没有问题,但是如果你要拍高速或者高清,你有两个选择,第一个选择还是用整个版面全画幅,抽出高清四分之一的点,也就是画面构图是一样的,没有问题的。第二个选择是,你可以告诉摄像机,我只用画面中心区域,中心区域也能得到2K的点,这个叫中心模式,那个叫全扫描模式。中心模式只用中心去构图,如果你选这个模式的话,你会发现你的镜头好像推上去了一倍,只用中心了,相当于变聚了一倍。为什么要讲这个,可能你一般考虑,如果版面构图没有变,你觉得肯定是全画幅,因为你要是用中心的话就没有广角了,广角都推上去了。反过来说,如果你只用中心的话,你就相当于画面长焦乘了2,为什么要说这问题?正常拍,你肯定是全板面的,即使下面换一些高清录也是全板面的,但是很多时候,我们会遇到一种尴尬的情况就是电影镜头是没有大背景镜头,没有长焦镜头,电视那种长焦的,电视随便一个标头,18倍的,23倍的,电影镜头5倍的6倍的,6倍的很少,很多都是5倍的,最大倍率的电影接头,安琴有一个13倍左右的,都到头了,跟咱们电视头没法比,推不上去,推不上去的问题在哪?你想拍摄一个高速,你希望这个影像很有冲击力,你希望它很大,比如说拍瀑布,像水珠蹦得很高,没长焦推不上去,用中心就相当于推上去了一倍,只是这个意思。你根据你的需要选,它不是绝对的意义上的,可以去选,你为了拍特写,镜头又推不上去,那你可以用中心去拍,这是只能拍2K或者高速的时候,可以这么去选择;如果你目的就是正常的拍,那正常构图,正常焦端,你可以用全画面去扫描,这个咱们设置的时候再细说。

这条线我说了四个问题,这个银色接圈上面是有触点的,也就是我们的电影镜头有两种,一种是不带触点的,就是现在我们安装的这个镜头是不带触点的,它是一个纯级接头,它的变焦光圈控制只能靠手拧,或者用伺服,跟焦器转,手动控制,简单说它没有自动光圈的概念,也没有原数据的记录;还有一种镜头,现在也新出了很多像富士和佳能都有这种带触点的变焦镜头,装上去以后,跟我们电视头一样,能实现四幅,能实现自动光圈,这个时候就需要触点了,它会把电信号传摄像机上,我们在九寨拍的时候,用了一个富士的1990的变焦头,能实现四幅的变焦,跟电视头用起来没有任何区别,唯一的区别就是焦距不够,推不上去。

记录,这是后面的开关怎么去用,整个摄像机的所有的按键几乎都在这个面上,面对大家的这面,看起来键比较多,但是用起来非常简单,最大的两个轮,一个是记录,这个银色的,记录键。这个轮是菜单的旋钮,这有一个液晶屏窗口,显示了很多参数,这些参数其实上就是一个页面的参数,有四个大类,第一个是摄像机,第二个是文件,第三个是AU\TC,AU就是音频,TC就是时间码,第四个就是回放,我们刚才看到回放的界面,你想做什么设置?比如说我想改一下摄像机的色温,这是白平衡,我想做一下摄像机调白,我想做一下黑平衡,我想开一下增益,我想改变一下电视,就是伽马曲线,或者我想做一下升格,降格,快慢动作,这范畴都是摄像的范畴,有些基本的设置了,按这个CAMERA就可以了。这个里面如果项目很多,它有好几页,每按一次翻一页,每按一次翻一页,现在升级升到最高4.1这个版本,差不多有两页,具体到某一个项目,比如第一页上,左上角的S&Q,这个就是快慢动作,Shutter是快门,Color Temp色温,Sensitivity是感光度,伽马曲线。如果二页的话,比如说这边有黑平衡,白平衡,做的对白卡调白,自动白平衡,第二页分开,想改哪个项目就按上面的银色的这六个,对应的这六个参数,改哪个就按哪个,按下以后,这个菜单会拉出一个下拉菜单,再去转这个波轮调。这不是个触摸屏,按这个银色,打开菜单,转这个去调就可以了就行了,非常简单。这个选大项,你会用到的基本上绝大多数的常用设置全都在这几项去改,这跟经常机器设计不一样,但是用法基本上是一样的,它只不过把尺寸变小了,把它集成到了这里面,大的项目小的项目在这里一项项去选,这是最主要的操作,底下这四个按键,有两个用的比较多,左边是菜单,比如说我们现在把算数关掉,这是菜单开关,我如果把菜单打开,这边有列表,一会咱们说具体的,通过旋转轮转动,可以通过返回,返回到左边,有这么多的大类,比如说我要随便进一个,时间码,再进一步,就是时间码我要设置一些东西,我再按一下波轮,再进一步,设置完了,想返回,当然你也可以把它转到最上边,或者你可以直接按这个波轮,这有键是取消和返回,按它是一样的。菜单旁边这个键叫OPTION,这个键最有用的是干什么用呢?比如说我拍完的文件,我要回看怎么办?按最底下这个VIEW键,就是左边四大的键,我按一下回放,回放第一页这显示的这六个参数就是播放、暂停、快进快退,上一个,下一个,没有缩略图,打不开缩略图,缩略图在第二页,再按一下VIEW,第二页左上角的银色键一按,就是缩略图。比如说我想删掉一个文件,这时候怎么办?就是按一下这个叫OPTION的键,这个在菜单里找不着,你在这个里面打开菜单是没有这个选项的,这里面找不着删除某一个片段呢?就是先把MENU关掉,按一下MENU旁边的OPTION这个键,选项那个键,弹出一个小紫菜单,这里面就有显示片段属性,删除片段,自定义视图。比如说最后这个画面视图起来是黑场,我也不知道是什么东西,自定义视图,所有图标题开始改标题,这个不能改,在电脑里的那个软件可以改缩图的画面,好找,全部都黑了,这只能改标题,删除的话就按OPTION里面的删除片段,按下去以后,它会让你选择片断,再按下去,你就可以在里面划勾够了,你想删哪个,可以把它勾选上,它就这样写了,再按一下OPTION就是执行,就可以把它删了,这是第二个键。第三个键叫做STATUS,这个是状态,你可以看到你的一些常用的设置,可以显示出来,比如说白平衡的这些值,有一些跟大摄像机肩扛有也一个状态,这个可能一般用的比较少,最后一个键亮度,调这个屏幕的亮度,这个一般人也不会去动,这4个键。

基本设置完了以后,说完这个,这还有三个指派键,跟大摄像机一样有一些自定义指派键,你可以根据你的需要来设置这几个的功能,全部设定都设完了,这有一个Log,我觉得这很重要,把这个Log打开以后,所有功能都锁死了,为什么这个功能很重要,我们当时在做一个节目,也是拍的时候,第一天我们看,它在哪拍,拍到下午,前一天把所有的功能设置完了都没有问题,这个片子一开始拍镜头就是正常的标速,4K的,没有快慢动作,结果拍了一会发现,画面没有音频,但是它也不需要音频,但是看音频表,咱们虽然也没接话筒,但是这一块的CH,只不过它是能显示了,但是那天它在上面打了一个斜杠,一旦打了斜杠,最有可能的情况就是现在摄像机设置在了快慢动作的状态,就是在拍升降格的时候,一开始我还没反映过来,因为设置正常情况下是不会有的,后来我把摄像机拿过来看了一眼,这个快慢动作摄像机左边的按钮S&Q是开着的,它也没有设置很大,就设置了一个60格,才50P,它设置成60格、50格、后期处理一下,如果没有声音的情况下,这个画面流动性什么的不是特别明显,50格和60格的差别不明显,只不过没有声音了,很巧的当时不需要同期声,因为一旦是升降格就不会有音频记录了,如果你拍的是别的内容,那这时候的画面就毁了,或者你刚好把快慢动作打开了以后,你设置的还是一个间隔拍摄,这就是为什么这个Lock很重要,后来我问他们,我说你们要上格不拍了,为什么这个开了,不可能,昨天我们检查了以后都是关的,都看过一遍,可能摄像师拍过之后,碰一下哪个位置,点开了,再碰一下波轮,一下转了,这是有可能出现的事,这个Lock很重要,你如果是做工程师,你调了以后为了以防万一,你可以把它这个拨过去,Lock这时候所有的面板的功能都被锁住了,不会出现误操作的情况,尤其拍室外的一时候,或内室内人很多的时候,一定要注意别人过来无意碰,这个一定要注意。

比如刚才我说的,你点开一个参数按下去了,你可能调完了以后,这个参数有没关,别人过来可能误碰了一下,刚好拨了一下转轮,又拨回去了,拨另外一个摄像头,这就麻烦了,这个一定要注意。这边是它的电源开关,没有什么。这边是俩插卡的,跟一般的索尼现在最早的EX系列的机器是一样的,两张卡,一个录完,自动导到第二张,既使是一个文件,录到中间,一张卡满了,它也能导到第二张,最后是两个文件,两张卡里各有一个文件,一直拍下去也没有问题,第二张如果拍完了,可以把第一张直接拔下来,绿灯情况下可以直接拔,如果红灯在记录中就不要动,拔卡的时候是一个物理操作,卡的底下有一个小的方的条,你把这个条按一下,它就弹出来了,你再按一下,卡都弹出来了,再插,按回去就可以了,是个物理操作,理论上说它不像我们光盘的摄像机,录的过程中,你不能弹出来,它不会弹出来,它得录完,把文件封个包弹出来,这个是物理操作。录的过程中,红灯亮了也是可以物理拔出来的,这时候你的卡有可能麻烦,后期再插回去,它会提示你要做封包,这就是运气好的时候。这个要注意,红灯的时候一定不要拔卡。这个卡的记录格式有几种是比较常用,简单来说就是最低的我们可以做高清录制的,高清光盘的MPEG 50兆,跟高清光盘一样,这个卡是录不了RAW文件的,只能录索尼这个叫XAVC,这个编码是索尼比较新的一个编码,它可以拍4K,也可以拍高清,也可以拍高清的升格,就是拍高速的镜头也可以,过去我们的记录格式是录不了高速的,现在可以了,用XAVC的格式,SRSHTP这个格式高清里最高的记录方式,就是过去索尼的高清磁带有一个叫HDCAMSR格式,如果你拍高清,后期了处理能力又比较强,这个格式一般就是过去拍高清电影的时候用,比如我当初拿F35拍的一些电影,张艺谋拍的用索尼的F35,录制它多少SR格式,这是在高清时候最高码率,仅次于基带型号的记录格式。

拿这个记录,现在比较少,因为这个码率比较高,说白了有那个码率,拍4K都高,它是最高到880兆,55能到440兆,咱们录50P的4K,用XAVC才500兆,高清就440兆,码率非常高。一般的高清磁带HDCAM是100兆,光盘是50兆,这一兆440,非常高,过去我们做高清电影抠像,用绿幕蓝幕抠像一个画面,一般才会用到SR格式,它是4比4比4,它可以把背景抠的很干净。用的都这张卡叫SXS,索尼最早是SXS卡,后来是Pro卡,Pro卡的处理能力更强,读取数据率更高,加是一个最新的过去没有加,原则上来说如果你要拍4K的话,这个机器必须要用SXS卡加128G,这个卡目前的应该是最大,不要小看128G,在这个机器录4K50P,就30分钟,不要觉得它很少,你要知道,如果你要把这个机器挂一个RAW的记录单元的话,录RAW,它只有一个规格的卡是512G,这是128G卡,4倍,512G的卡拍4K的RAW,50P也是30分钟。如果F65,索尼最好的,它的卡是1TB的,拍50P的RAW也是30分钟,因为它那个是像素点是8K,最后录制4K的可能跟你是一样,但是它的原始数据量比你大一倍,它是2.4G的一秒,咱们是100兆或者是500兆,所以出现一个结果,北京台有一个F65,拍了几个镜头回来导了一晚上这数据,这就是为什么要说这个,但是更不要说硬件条件了,现在说白了就是能剪RAW的,一般就是宽泰就可以了,不要去考虑用别的去挑战,挑战你自己的耐心,就是说,如果你是拍一般的电视作品的话,4K的就够了,不要去拍RAW的,拍RAW的话后期工作量很惊人。

这个惊人体现在哪?一方面是等待的时间,另外一方面,编辑的时候,你时时播不出来了,比如说我有一个朋友,世界杯之前去巴西,他们拿小机器拍4K,外接出来录的也是RAW文件,然后上了微信,采访了很多葡萄牙人,说的是葡语,要拍字幕,因为播放不能把它流畅的播出来,就对不出口形,声音画面实施不了,然后就先编完,努力的对个大概齐,然后把它渲染生成一本,再回放,检查错误,然后再调,再渲染,一次渲染就是半天,就是这么一个问题,当然你可以用代理数据来做,这个简单很多,但有的像调色这些过程都是用原始的信号挂,这个量是很惊人,所以4K现在最大的负担其实是后面,不是在前面,而且你还要保证你的运气比较好,别在生成的过程中报个差,重来,我遇到过几次,在转的时候,比如说我用Premiere的时候,当第一届4K杯的时候,有的送过来是MOV的文件,他自己都没看一遍那文件,那文件是有错的,我特别惊讶,因为4K杯经常借给客户的机器是借差不多一周左右,还要给其他客户用,他居然能拍出一个剪完以后两个小时的素材,那得是怎么样的工作量,出去做一个直播两个小时,我们当时为了公平起见,有的人录的是RAW,恨不得是4比4比4,HQ的,那边有人送过来是MP4的,几百兆,怎么评,这播放不公平,我们就把它转满,全转成索尼的XAVC,这也不能叫完全公平,但是至少播的时候码率差不多,跟你的原始画面有关,那文件我们就转,我也没看,文件太多了,我扔到时间线上,看它有前几帧画面,有,那就转,剩下XAVC,两个小时,时间基本快1:1了,很慢,从苹果的转到XAVC格式,转着出去吃饭,这样回来一看,显示报错,退出去了,再转,就看这个画面,过了大概也不短的时间。这是其中一个,另外还有一个,两个文件出同样的问题,第二个文件时间短,就10分钟的文件,到99%,提示一个报错,全白干,重来,那10分钟差不多转了30分钟,我说这个文件怎么可能有问题,就发现两个小时的文件,只有前五分钟是有画面的,后面全是黑场,你们自己做的时候,生成文件你们一定要仔细看,这种情况不是一个案例,出现个别几个,后面是黑场,那就把黑场删了,后来一看只有前五分钟,它最后是做了一淡出,比如说字母或者画面做一个淡出,删完再生成,到了99%又报错,不知道什么问题,最后我们就试,第一个画面就不知道什么问题,到第二个画面最后的时候又是这个问题,最后因为一个淡出,这两个共同点是,一个是视频淡出,一个是音频淡出,又是卡到最后淡出那个后面一看,全扔掉了,把后面前删掉,到这看还是报错,最后我们就把淡出抹了,因为他送过来以后,就看不到特技了,只能把画面多砍掉一些,把淡出的整个过程全抹掉,再生成就好了,你没法解释这是为什么。但是我遇到了两个这种情况,而这两个都是最后加了视音频,声音淡出或者音频淡出,出了问题,但是我也不说别人的就没问题,这么做很正常,但是你们要做完以后需要检查一下这情况,有可能是出现了这种错误,这是我遇到过的事情。

需要转码,像现在的后期,Premiere或者用Edius这些的话,它是直接就支持XAVC,索尼这个编码,拖上去就可以直接用,Edius肯定没问题,但是Premiere单说,它有两种,一种是CC,一种是CS6,中国现在大陆正版只有CS6,但是美国用CC多,如果用CC或者装了一个盗版的CC,最新版本是直接支XAVC,拖上去就可以编,但是CS6本身是不支持,你得装一个第三方的解码器,我们买的有一个解码器,把插件装上去以后,就能够用那个来转,就可以生成XAVC。

索尼没有4K的放机,明年一月份才有,现在我们播所有的素材,你编的素材只能用F55接HDMI,跟今天的方式一样,拿它放映器来放,现在还没有这种机,但是你后面编完了片子,往里写是播不出来的,即使你用Premiere,你能用XAVC,CC也能生成XAVC,但那个XAVC是导不进来的,就算能导进来,也播不出来,一播就死机了。所以现在只有Edius可以,Edius能把它写到卡里面,我们今天看到的这些片子都是用Edius写进去的,能播出来了。如果你转MOV就不考虑这个问题,苹果笔记本最新的有4K输出,它的HDMI是五是支持4K输出的,拿播放器播,把它播成MP4的,或者是MOV的,用MOV更流畅一些,直接往上播没有问题,生成就得生成MOV了,但你想生成XAVC的,进到卡里,并且能用卡播出来,现在只有Edius可以,索尼自己的肯定可以,我们经常把这忽略不计,在大陆用的太少了,确实这个难度在哪?这个行业尤其是做小电影的人,绝大多数都是Final 7,而且不愿意换成10,苹果就抓住这一点,所以苹果不给他做7的插件,只能用第三方转码。我看过一个视频就是,国外为此做了一个叫XAVC转Prores的编码器,就是专门为了55来用,他们都是用拿那个转成MOV4K,再上到final7上面,这个比较麻烦了,这么转的话,时间是很长的。

我再把这个稍微说一下,XAVC是基于四个,第一个是4K,第二个是HFR,本身也是高清的,55,现在绝大多数的4K摄像机或者大画幅摄像机,尤其是4K摄像机,拍4K本身最高是到60格,如果你要用是25P播出,60格相当于就是2倍速多一点,凑合可以使。你真想录高速镜头,它这个55是可以做到150P,如果是用RAW的记录单元可以200P,那个数据量非常大了,是到200P,刚才咱们看到的瀑布镜头,高速的都是拿150格录,它是25P来编,这个6倍度的慢放,一般广告可以用,在60P以上的时候是没有4K,150格肯定是高清的,只要升格只能是高清情况下,降格是4K没问题,比如说我们把这回拍的一些镜头,这个卡里没有了,拍雪山的光影,用的间隔拍摄,降格,我们把它设成一秒钟一帧,这个能保住4K,60P以下有4K,60P以上没有4K,绝大多数摄像机是一样的,编码目前解决了,刚才我说了10bit,它基于10bit,所以跟一般的磁带,一般的后端是比较衔接好的,它是基于264,再说一个H265,这东西未来肯定是作为4K或者是高清的一个很正常的平台,但是目前毕竟还没有被普及开,包括我们在世界杯的时候,从巴西把世界杯信号送过来,送到全球各地的时候,也不是用H.265编码,因为它担心很多送的地方没有H.265解码器,那就播不到,看不到,那我们就把4K拆成4个高清信号,把这画面拆成4个角,每个角都是一个高清1920、1080,50P,用4个高清把这4个型信号传回去,还是基于H.264的编码,后端把它解出来以后,它可以把它转成H.265来播出,当时在巴西电视台直播,用4K的平台直播,像索尼在英国的一个剧院做了4K世界杯的直播,之前都转成H.265,信号从巴西送出来到英国、法国,收下来转成H.265再播出去,这样码率降低很多,画面的效率提升很多,但是如果你没有解码期的话,你可以直接把这个4K的4个信号转成SDI,直接接到监视器的后面,就可以出来4K了,当然要锁上相位,就可以了,跟我们那边接法一样,两根线也好,四根线也好,直接就可以输出了,这样的话,不需要第三方面解码器来实行,类似于基带的方式思路去传,不需要你做太多的处理。

分辨率码率都很高,摄像机本身,有一些小的细节的地方,比如说这一块是我挂的一个电池适配器,如果这个摘掉的话,摄像机的本体后面多了一个小节部分,这个小节其实就是摄像机的挂电池的适配器,这个比较简单,如果你把那个拆掉的话,露出的这个是整个F55真正的后屁股,这有一些触点,这有一个12V的接点地方,这是一个标配的,是一个电池适配器可以直接挂V口电池,原来的高清的也可以,现在索尼新出的这种FL75,它其实主要把它做扁了,做宽了,做厚了,其实容量是一样,这个因为跟这个机器不是很完美的能挂长,长度高度都是一样,主要是为了这个考虑,型号用途跟以往的高清电池没有区别,以往高清电池多,第三方的多,直接往上挂,跟这个是一样,都可以挂,没问题。这个适配器是标配的,原来就有,这里面有12V输出,如果你需要接摄像机的灯,或接第三方的东西,可以拿它直接供电。背面这块没有太多的功能,但是这边比如,这有两个音频的立体声的接口,三芯的卡农,有两排BNC口或者SDI的接口,靠里的这四个就是我们的视频输出,那边接两根线或者是四根线的监视器,这一块是要说明一点,摄像机最多只能给出一路SDI,就是4K的输出,如果你是50P 4K,就是1234,一起接4根BNC出去,这是在50P的情况下,对应监视器就是那边1234,有人可能说这个输出到底是个什么东西,比如我接一根线是什么状态?我们的4K摄像机输出有两种,一种叫做Square,一种叫2SI,这是两种不同的方式,这里是可以设定的。

菜单,我们到下午再给大家稍微说一下重点的地方,摄像机视频里面有一个输出的格式,再按下去这里面有两个,这两个叫4096×2160,3840×2160,叫方形,这个叫2SI,当你这个方形的时候,这写的是SDI,就是4个口,选择这个的时候,如果是50P的话,就是这4根线,这4根线每接在监视器上,接第一根的时候,就是左上角有四分之一的画面,第二根是右上角,第三根是左下角,第四根是右下角,四块拼在一起四个画面,这叫做方形,包括世界杯的时候,都该这种方式来输出,这方式的优点逻辑上很好理解,如果线出了问题很好检查,一下缺一角,一眼就看出来了,问题也就在于,如果在转播过程中有一根线坏了,相当于另三根线也没用了,整个画面都费了,所以有了第二种设计,叫2SI,简单来说就是这样,我们把一个画面按照像素点来说,密集的很多像素点,比如说我们这8个像素点作成一组,旁边这边也是8个点,每8个点为一组,前两个像素点来自于第一根线,这两个像素点来自第二根线,这是第三根,这是第四根,这叫做2SI,为什么这么做?道理很简单,这种情况下,如果你有一根线坏了,你只是在每一个小的局部少两个点,这边少两个点,但是整个画面还是全屏,甚至如果你不仔细看都看不出来缺了,是为了最后考虑的,2SI如果线有了问题,你可能在影像中看不出来,但是对于你前端系统排查就会有问题,线坏了你都不知道,所以一般做转播车的时候,我们更喜欢用方形,我们要保证系统不能有问题,这能查出来。这个主要是为了后面监看传输以防万一的时候,2SI即使线路有了一根线的问题,它是不太容易被察觉的,思路都差不多,只是两种模式,如果你后端有一个电视,你需要用HDMI输出的话,跟主输出有关系,必须要把这个选择在,现在如果我选Square模式,前两项已经黑了,只有后两项高清有,如果你想选高清的HDMI,必须选2SI,如果你选4096,那这就是4096,如果选3840,那这就是3840,这需要扎堆,你要是用HDMI接屏幕的话,不用四根RSI,那你只用刚才说的8个点的模式来接,这是一点要注意。