解决沉浸式视频格式的存储要求
Tom Mcdonald
消费者需要更加身临其境的观看体验,设备制造商和内容创作者都将不断地开展工作,以实现和提供这样的体验。近来,围绕沉浸式格式的讨论都集中在虚拟和增强现实(V R/ A R)上,既有创意又有技术性格式探索,包括V R和360度视频都产生了一些惊人的结果。
去年,在里约热内卢举行的夏季运动会上,各类媒体纷纷投入360度视频,为运动员、比赛和场地带来新的视野。 他们在一些比赛中使用环绕图像,重点展示其产品和服务。 2018年平昌冬奥会,更复杂的格式使用计划已经在进行。2017年初, PBS Digital Studios推出了“我的兄弟的守护者”,《我兄弟的这是一部120帧的V R电影。这部影片有很多途径都能看到,几乎所有的V R影视平台,包括Youtube,facebook,htc Viveport,oculus Rift,三星的gear等。这也是电影制作人第一次使用Jaunt设备进行120帧/秒的拍摄。在这部V R电影中,最让人震撼的,就是麦田和战争的长镜头,以及主要演员的特写镜头。
在创作经验中,编辑和艺术家既不依赖于传统的剪裁和溶接,也不依赖特写和广角拍摄来改变观众的观看。 相反,场景由一个完整的360°球体组成,通常集成交互性机制帮助观众转场或呈现运动。 在任何一种情况下,360°视频或真正的V R与每个视频流相关联的大量数据对存储提出了巨大的需求。
大量数据呈现令人生畏的任务
通常用于创建沉浸式体验的摄像机比常规制作中使用的相机多得多,大约6至60台摄像机同时拍摄素材。除了需要更多的摄像机,360度视频拍摄需要更高的帧速率,每秒60帧(f p s)是确保头戴式显示器(HMD)不会丢帧或不引起观看体验不适的最低要求。
在大多数情况下,素材以R A W格式采集,这是一种数据密集型格式,本身需要存储空间,然后经常要求以可编辑格式进一步存储副本。 当为不同的360°视频平台创建片段时,媒体设备还可以对不同显示器的不同色域优化附加副本,执行颜色分级。
虽然低分辨率(2K或4K)视频被用于基于手机的360°V R视频,通常用纸板iphone或android HMD观看,但大多数厂家现在或者将来会定期推出更高分辨率的设备,带高质量头戴设备。 换句话说,仍然没有摆脱大量数据的处理。
协同创作呼唤高带宽、低延迟
考虑P C头戴设备,如O culus Rif t头戴式显示器可以显示4k现场(FOV)360°视频——在每个方向基本上是4K。4K FOV等角图像非常巨大,是12288×6144像素,这意味着即使采用非常保守的P ro Res4:2:2压缩,每个客户端工作站所需数据速率都高达3G B/S。因为V R内容的创建本质上是涉及多个艺术家的协作工作,因此需要每个客户端工作站为保持这种高水平的显示提供专用带宽。
同时访问是至关重要的,因为选择使用的是在工作站之间迁移内 容。如果设备不能与存储区域网络(S A N)配合使用,则通过以太网移动高分辨率流的过程可能会使网络恶化,并且实际上会使所有其他工作都停止。在网络连接存储(N A S)文件服务器环境中,视频帧必须首先被封装在I P中,在大多数以太网中延迟可能会在受到破坏。
事实上,V R/360°视频工作流的协作,高分辨率特质将从光纤通道S A N受益。S A N可以支持更高级别的V R工作流程和同时文件访问持续时间更长,因为多位艺术家和编辑人员协作将来自多个摄像机的镜头拼接在一起,隐藏图像之间的接缝,删除不需要的人员和设备,并将每个镜头稳定和调色。作为专用的共享文件系统,而不是文件服务器(如N A S),S A N可以更容易地向多个工作站提供确定性带宽。
智能增长需要平滑的可扩展性
V R和360°视频内容创作步伐一直在稳步增长。 随着更多的媒体设备进行这样的工作,或者更多的媒体设备,S a n s提供的有保证的带宽和可扩展性,为Vr-ready存储基础架构提供了一种简单的方法。制作方可以从小型配置开始,以较低的成本开始制作。然后,随着制作的增加,可以根据需要增加性能和/或容量,增加更多的控制器和主机来提升性能,并增加更多的客户端来支持更多的用户。
通过强大的可扩展S A N,媒体设备可以承受创建V R/360°视频内容的巨大挑战,最终有助于塑造和增强这些令人兴奋的新沉浸式观看体验。B&P