viewtheard 发表于 2016-3-13 09:11

去掉所有渲染与特效,真正的虚拟现实其实是这样的

文/极客视界V(简书作者)
原文链接:http://www.jianshu.com/p/007f473ae37d
著作权归作者所有,转载请联系作者获得授权,并标注“简书作者”。

其实就在几年前,虚拟现实的还仅限于某个昂贵的学术实验室或是秘密军用设施。

比如像下面这样用来训练战斗机飞行员:
http://upload-images.jianshu.io/upload_images/937450-9c723e39e0ad3a5a.jpg?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240

但伴随着智能手机的普及,屏幕变得更加廉价从而可以被改用于开发高质量的虚拟现实设备。结果便形成了当下这波头戴式显示器、手机 VR 盒子以及各种控制设备的热潮。
http://upload-images.jianshu.io/upload_images/937450-cdc3c486683151ad.jpg?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240

然而,在一款真正可用的VR产品能够上架之前,广大消费者和内容制作商将一直会被持续不断的创新创意、技术规格、言过其实的断言以及产品效果被过度渲染的演示所蒙蔽。
如果你看过这两年 GDC 上虚拟现实方面的多个发布会,特别是最近的 E3 大展,就会知道我想说什么。
http://upload-images.jianshu.io/upload_images/937450-f21ca13475e3404a.jpg?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240

再加上AR领域微软Hololens的各种洗脑,还有最近刷爆朋友圈的Magic leap特效。VR(AR)领域的状况越来越像一场炒作,也愈发让人迷惑了。
http://upload-images.jianshu.io/upload_images/937450-2de0e3218b8e9dc5.gif?imageMogr2/auto-orient/strip

当然,今天我们只说VR(虚拟现实)。
环顾当前整个虚拟现实领域的主要选手、技术及术语,让我们快速梳理出虚拟现实技术上真正有意义的要点,并向大家解决这些要点是如何相互工作在一起从而实现出整个的虚拟现实概念的。
我们将会确定出其中的一些关键词,并从大量虚幻的说法中分离出一些简单的事实。
如果有一天,这些概念产品真的成为了现实,我们希望能帮你更加容易地理解并分辨出其中的的细微之处。
临场感(Presence)
临场感是当前虚拟现实行业的所有人都在努力实现的目标:让你的大脑像感知现实世界一般身临其境地去感受呈现在你面前的那个虚拟环境。
请注意,这里所说的是身临其境地。
http://upload-images.jianshu.io/upload_images/937450-2543a2592200d7ca.gif?imageMogr2/auto-orient/strip

▲黑客帝国片段
想象这样一个场景,当你站在一处虚拟悬崖边上的那一时刻,尽管你在大脑里很清楚“即便真的再往前迈一步也不会有危险”,可一旦你真的迈出那一步,临场感所激发的本能反应依然会让你的身体感受到像是真的掉下了悬崖一般。(对比母体之外真实的尼奥,口中也能被摔出血来。)
视场(Field of View)
http://upload-images.jianshu.io/upload_images/937450-e2556b315477ee2d.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240

可以说消费级虚拟现实领域最大的突破就在于视场(即实际可见区域)。平均而言,人眼天生所能看到视场大约是170度。
在 Oculus Rift 之前,绝大多数像 Vuzix VR920 和 Sony HMZ-T1 这类头戴式显示器只有区区32度、最多45度大小的视场。即便如此,这样的设备常常还是被吹嘘成是可以让你感受到像电影院里的巨幅银幕一般的使用体验,事实则是它们从未能做到过那种程度。
http://upload-images.jianshu.io/upload_images/937450-0414f081e8e8f2df.jpg?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240

相比之下,最新的消费级VR头盔的原型产品都能实现90度到120度的视场,虽然依旧未能达到我们天生所能看到的170度视场,不过一个100度以上的视场也还是能够创造出一些比较令人信服的虚拟现实体验的。这也是即将上市的 Sony Project Morpheus 还有 Oculus CV1 令人期待的地方。
延迟(Latency)
这里的延迟是指,当你转动头部之后,屏幕上物理更新图像相对于你本应看到的图像之间的画面延时。
AMD 的首席游戏科学家 Richard Huddy 认为,11 毫秒或是更低的延迟对于互动性游戏来说是必需的,个别情况下20毫秒的延迟在一个360度的虚拟现实电影中移动也还可以接受。
http://upload-images.jianshu.io/upload_images/937450-c5c29df3489fb62c.gif?imageMogr2/auto-orient/strip

这这方面,Nvidia 在技术文档或媒体采访中所推荐的都是20毫秒。
需要说明的是,延迟并非是作为一个硬件在性能方面的指标,而仅仅是硬件能否实现虚拟现实这种效果的一条基准线。
头部追踪技术(Head Tracking)
头部追踪技术分为两大类:
最基本的头部追踪技术是基于运动方向的头部追踪,它只能检测你头部转动的方向:从左到右、从上到下,顺时针或是逆时针。
http://upload-images.jianshu.io/upload_images/937450-46d8d213290b14bd.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240

目前,大多数VR头盔都只支持这种形式的头部追踪技术。诸如 Samsung 的 Gear VR, ImmersiON-VRelia 的 GO HMD 以及 Google Cardboard 这样的手机 VR 盒子。
当然,Oculus Rift DK1 也是这种。
另一种头部追踪技术被称为位置追踪,除了能追踪头部转动的方向还包括身体位置的移动。更准确地来说,是追踪VR头盔的位置变化及其与身体运动之间的关系——例如,你是在从一侧摇摆向另一侧,还是在以整个躯体下沉重心来缓冲跌落冲击?
想追踪位置,光靠陀螺仪已经不够了。目前的产品有多种不同的实现方式:
http://upload-images.jianshu.io/upload_images/937450-3f08f161654b5efa.jpeg?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240

Oculus Rift DK2 和 Crescent Bay —— 以及现在的 CV1 —— 使用的是结合磁力计与陀螺仪的红外摄像头。摄像头接收头戴式显示器上面的反光器反射回来的红外线,并从反光器的具体位置上推断出相应的位置数据。
Oculus 把这一追踪系统命名为 Constellation(意为星座)。
Sixense 为 Samsung 的 Gear VR 开发出一套实验性的配件,使用磁场来检测某一物品是如何处在其位置上。由于是配件,因此也能用在一款原本不具备该功能的设备上。
http://upload-images.jianshu.io/upload_images/937450-49bd761ee74662e9.jpg?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240

Vrvana 以追踪标记或房间结构为基础,使用摄像头来确定其头戴式显示器的物理位置。当追踪功能需要在没有追踪标记的环境中同样能工作时,我们在 E3 大展上见识过一款基于双摄像头的原型机。
HTC/Valve 的 Vive HMD 使用的是一种名为 "Lighthouse”(灯塔)的技术(稍后会详述)。
当然还有其他类型的技术,但以上这几个是最为主流的例子。
分辨率(Resolution)
分辨率是个长期被厂商拿来偷换概念的技术指标,手机和电视产品是这样,虚拟现实设备也不例外。
广告上的分辨率跟眼睛实际看到的分辨率是不一样的(抓到这个点了吗?)
目前市场上的VR头盔最为常见的是单一屏幕,因此其真实分辨率要从屏幕正中央分开来算(一只眼睛对应一半屏幕)。
因此,当 Sony 宣称其 PlayStation VR (PSVR) 的分辨率是1920x1080,但事实是对于每只眼睛来说其像素只有960x1080。
同样单屏的 Oculus Rift DK1 (1280x800 或是单眼 640x800 ) 和 DK2 (1920x1080 或是单眼 960x1080 ) 也是一样道理。
http://upload-images.jianshu.io/upload_images/937450-f5878aecf7d5bed8.jpg?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240

而其他设备,如 ImmersiON-VRelia 是通过使用两块屏幕来实现一个更大的分辨率,因而这样的一块 1080p 屏幕对于单只眼睛来说确实是1920x1080。Oculus CV1 2160x1200 的分辨率就是这个意思,它是由两块1080x1200的屏幕组合而来的。
Geeker说
关于图像显示部分的内容先到此为止。本文取材自Virtual Reality Basics一文,接下来会继续介绍虚拟交互技术及图形制作技术的内容。
via Tomshardware


viewtheard 发表于 2016-3-13 09:12

                              http://geekview.cn/ueditor/php/upload/image/20151104/1446630926428654.jpg
今天我们来说说输入(Input)技术

想象一下,如果一台电脑只有显示器,没有鼠标和键盘,这台电脑是没办法操作的。过去一段时间虚拟现实的所有注意力都集中在显示技术方面,但这种没有“鼠标”和“键盘”的VR设备只能用来看视频。
不过在今年的 GDC 和 E3 大展上出现了很多“输入”设备。这里所说的“输入”,是指专门为虚拟现实及其交互功能所设计出来的控制设备。
STEM
http://geekview.cn/ueditor/php/upload/image/20151104/1446630096632046.gif
还记得上一篇我们说到 Sixense 为 Samsung 的 Gear VR 开发了基于磁场的位置追踪装置。同样的,其 STEM 无线手柄所使用的也是磁场。这是一种过去几十年来一直被用于 CAVE 虚拟现实系统的老式技术。
CAVE(即 cave automatic virtual environment,意为洞穴式自动化虚拟环境)本质上是一个基于投影的虚拟现实房间,最简单的是两面墙加上地板,也有复杂到上下左右前后全部封闭起来的六面体结构。如果你看过英剧《黑镜》,就可以理解大概是这样的一个东西:

http://geekview.cn/ueditor/php/upload/image/20151104/1446630140633229.png
CAVE 通常都是基于一个巨大的金属框架,其最初的交互方式是通过基于磁力检测的体感设备或控制器来进行的。如同超人对于氪石的厌恶反应一样,磁场对于金属的反应也并不是很好。这就是为什么 CAVE 最终都转向了基于光学摄像头的追踪技术。
根据 Sixense 公司 CEO Amir Rubin 的说法,其全新的 STEM 手柄已经克服了磁场与金属框架交互相关的难题。在每一个 STEM 手柄内部的 IMU(inertial measurement unit,惯性测量单元)协助下,Sixense 通过关联磁场数据和 IMU 的数据来确保最终位置信息的一致性。在所有公开的演示中,我们看到这项技术都工作得很好。
Oculus Touch
http://geekview.cn/ueditor/php/upload/image/20151104/1446630183894271.gif
Oculus VR 所使用的输入设备是一个半月形手柄——Oculus Touch。
他们是基于两种追踪技术交叉而成的:其一是 Oculus CV1 及 Crescent Bay 正在使用的红外追踪技术,其二是传统体感手套那种精准而昂贵的动作追踪技术。不过不同于基于体感手套那种确定用户手指的精确位置与抓握程度的技术,半月形手柄通过检测不同按钮或电容式触控开关的状态来模拟出设备被握持的方式。
尽管起初我使用得比较挣扎,但其他人认为它还是很容易上手的。不论怎样,针对虚拟现实环境的操作来说,这个总比普通的游戏手柄更合适。
Vive Lighthouse
http://geekview.cn/ueditor/php/upload/image/20151104/1446630215885701.gif
HTC 和 Valve 为 Vive HMD 的控制器配备的是一套激光束追踪系统,名为 “Lighthouse”(意为灯塔)。
激光追踪系统听起来很高大上,其实原理倒不复杂。你需要在天花板及房间对面挂载两个激光发射基站,而在VR头盔和手柄上覆盖着许多光子传感器。这些光子传感器也是根据一定的规则来放置的。当激光束闪烁到这些传感器上时,Lighthouse 系统根据激光闪烁的时间来计算出该设备相对于基站的位置和方向。
StarVR
http://geekview.cn/ueditor/php/upload/image/20151104/1446630241210810.gif
Starbreeze Studios 的 StarVR HMD 产品原型在 E3 大展上展示的《行尸走肉》使用的是基于摄像头的追踪技术。StarVR HMD 用的是两块 2.5K 的超高清屏幕,除此之外他们还使用菲涅尔透镜将视场扩大到惊人的210度。位置追踪则通过一种贴在头戴上的识别贴作为标记,然后用一个外置的摄像头来检测这些标记的摆放方式从而推断出该头戴设备或是其他物品的位置。
Starbreeze Studios 的首席技术官 Emmanuel Marquez 表示,他们想要它的 VR 头盔在未来 5 年内分辨率能够达到 8K 的程度。
PlayStation Move
http://geekview.cn/ueditor/php/upload/image/20151104/1446630262392360.gif
Sony 的 Move 平台是由 PlayStation Eye 摄像头和 Move 手柄共同组成。手柄顶端有一个可以动态改变颜色的球体,这种用以区别房间背景的颜色变化更便于摄像头来追踪球体。Move 手柄上的加速度计和角速度传感器可以用来检测手柄的转动。把所有这些元素结合起来,使得该手柄的准确度非常高。
尽管 Move 技术当时只是开发出来用以进行 PS 游戏上一些有趣的互动操作,它反而很容易被转用为 Sony 的 PSVR 里面最为核心的头部追踪技术。因为从技术标准上来看,它的既能满足延迟低,又可以进行头部位置追踪。
Leap Motion
http://geekview.cn/ueditor/php/upload/image/20151104/1446630301278246.gif
当然,还有一种能够捕捉你指尖每一个细微动作的手势控制设备:Leap Motion。
它仅有一块小的巧克力棒大小,拥有两个摄像头和3个红外 LED 灯。摄像头能捕捉任何反射回来的红外光,通过软件模拟,它能够创造出其视场内实时的立体图景。Leap Motion 最新的软件甚至拥有一种补偿技术,当你的一只手覆盖住另一只手时可用于追踪手部骨骼的运动。
http://geekview.cn/ueditor/php/upload/image/20151104/1446630327776329.gif
Leap Motion 可以追踪到设备前面2英尺范围的运动,并且 Razer 已经把它用作其 OSVR 平台的官方配件,为其头戴式显示器追踪手部运动。
FOVE
FOVE 公司的名字源自拉丁文 "fovea”(即视网膜中央凹,主要用于正常光强条件下辨别颜色及其他视觉信息),它正在开发一个基于眼球追踪的设备。根据公开演示,你只需要动动眼球就可以控制虚拟界面,而且还能根据你所看到的场景来调整景深。
http://geekview.cn/ueditor/php/upload/image/20151104/1446630356280596.gif
如前所述,对于虚拟现实而言,你必须要有足够强大的处理能力来实现必需的画面帧率与超低延迟。而想要实现临场感,你必需要有足够大的视场。不过,我们并不需要整个视场的图像都要保持那么高的分辨率。想象一下你在看东西的时候,一般只会注意你聚焦的事物而忽略周围的东西。因此人们并不关心视场边缘区域的细节。所以,眼球追踪技术就开启了一种可称为是“中央凹渲染”的方法:即大部分的图形处理能力都用来增强屏幕上你所关注的那一小块区域的细节,而对于你所无法有效注意起来的边缘区域则分配尽可能少的资源。简而言之,眼球追踪技术所实现的是一种更为有效的渲染方式,因为它只需要渲染好你所需要看到的那部分图像就够了。
在2015 E3 大展上 MTBS 采访 FOVE 的视频中,FOVE 表示等到其 HMD 开发者版套件发货时“中央凹渲染”技术应该就可用了。该公司还同 Valve 在 Lighthouse 追踪方案的使用上建立起了合作。(Valve 正在向符合条件的第三方设备发放其位置追踪技术的使用许可。)
Sulon Cortex
http://geekview.cn/ueditor/php/upload/image/20151104/1446630379766807.gif
值得一提的另外一个解决方案是:Sulon Technologies 正在开发中的混合VR和AR的头戴。它跟 Google 的 Magic Leap 或是 Microsoft 的 HoloLens 差不多,而且宣传视频也非常吊炸天。而且,Sulon 已经开发出足以让大家兴奋的产品原型。
Sulon Cortex 用一对摄像头来扫描整个房间,它的算法会基于你正在看到的东西以及你与之交互的方式来生成一层虚拟界面,其结果是一种混合了你周围的真实环境与数字世界的增强现实体验。
当然,想要达到视频中的效果,现在版本的产品只能算是这一技术的早期阶段,但是像 Sulon Technologies 这样的公司正在朝正确的方向努力。
移动(Locomotion)
http://geekview.cn/ueditor/php/upload/image/20151104/1446630418823675.gif
实现临场感的另一个巨大挑战在于能够体验到令人信服的全方位物理运动。如果你的身体移动了,而看到的内容则是另外一回事,那么我们之前所讲的临场感将不复存在了。HTC/Valve 宣称 Vive 能够让你在15英尺见方的范围内有效的移动,而 Oculus CV1 的演示视频中所展示的范围大约只有 Vive 的三分之一。

Kickstarter 上的 Virtuix Omni 和 Cyberith Virtualizer 是这一问题的两个解决方案。它们的原理是一样的:你都是站在一个滑动的平台上,对于 Cyberith Virtualizer 是由一个摄像头来追踪你脚步的运动,而 Virtuix Omni 则需要你穿上一副植入运动传感器的鞋套来感知你的运动。这两种方案都不是你自然情况下的运动方式,不过一旦你熟悉了它们,这两种技术倒是都可以解决问题。
http://geekview.cn/ueditor/php/upload/image/20151104/1446630447349650.gif
另外一种办法是选择一处开放的空间,然后在那里体验虚拟现实。如果你是在一处足够大的区域使用头戴式显示器,你在虚拟环境中所体验到的运动,事实上可能只不过是哄骗你安全地在原地绕圈子而已。例如,HTC/Valve Vive 所设计的就是支持一块 15x15 英尺的空间。而让设备能感知到房间的具体边界也是可行的,追踪到你具体的物理位置,然后在虚拟环境中设计出一些虚拟的路障以避免你撞到边界。
在 Sulon Cortex 的例子中,整个房间在屋里上会预先被扫描进设备,从而虚拟环境中的墙也会被校准到实体墙的位置。只要地板上没有什么散落的物品,即使看不到周围的实体世界,我们在虚拟环境中也确实会是安全的。
Geeker说
以上就是目前我们所知道的关于虚拟现实交互技术的内容。本文取材自 Virtual Reality Basics 一文,接上一篇关于图像显示部分的内容,接下来我们会继续介绍最后一部分关于图形制作方面的技术。
via Tomshardware
                           

viewtheard 发表于 2016-3-13 09:12

文/极客视界V(简书作者)
原文链接:http://www.jianshu.com/p/e4de3f0be201
著作权归作者所有,转载请联系作者获得授权,并标注“简书作者”。

今天我们要来拽一些专业词汇啦!
虽然下面这些概念看起来好像“不明觉厉”的样子,而且也没人真正向普通消费者认真解释过这些东西,不过这些都是在 VR 圈里经常被提起的概念:
低余辉(Low Persistence)
不论是 Oculus Rift DK1 ,还是“XX魔镜”那种放手机进去的 VR 头盔,从屏幕来看,其实是差别不大的,因为 DK1 用的也是手机那种液晶屏。手机屏幕用在 VR 上有一个最大的问题:动态模糊。或者用 Oculus 的说法,这是一块有“余辉”(Persistence)的显示屏。意思是说,显示过的图像还会留在那里。当你快速转动头部,面前的画面就会模糊不清:你还能看到前一帧本该消失的画面,而你头部当前方向又有一帧新的画面,这种不一致就会造成画面拖影。
http://upload-images.jianshu.io/upload_images/937450-d8f6ef58dd6dfe96.jpg?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240

你可以想办法提高刷新率,比如使用新的 OLED 屏幕,但这还是不够。真正的“低余辉”显示屏不仅要立即呈现出正确播放的那一帧图像,同时立刻关闭该帧后还能显示好下一帧已经准备出来的图像。Oculus 的 DK2 及其他新型号的产品,Sony 的 PSVR,HTC/Valve 的 Vive 等等已能做到完全清除前一帧图像的残留,动态模糊这一问题可以说是已经被解决好了。屏幕的问题是解决了,但你播放的 VR 画面还得达到 75 fps 的帧率,这样才能匹配上屏幕 75 Hz 的刷新率(或是更高,具体数值可取决于屏幕的技术规格)。如果 VR 的画面到不到这一标准,屏幕再好也是白搭。幸运的是,我们还有一个解决方案。
http://upload-images.jianshu.io/upload_images/937450-d1ed992804fc9525.gif?imageMogr2/auto-orient/strip

异步时间扭曲(Asynchronous Timewarp)
如果你经常打游戏或者折腾显卡应该知道,在高分辨率下的 75 fps 的帧率是很难维持的。比如你在玩魔兽世界的时候,站在那里看风景,帧率可能会高达一百多,可是围着一群怪打的时候帧率可能只有十几。对于当前主流显卡,即便是维持住 60 fps 的画面都显得极为勉强。想象一下 VR 头盔还要同时渲染左右两个画面的样子(为了有3D效果,左右的画面其实是不同的)。这么说吧,仅仅是运行演示片段所散发的热量,都有可能让你的屋子好好通风才能呆下去。
http://upload-images.jianshu.io/upload_images/937450-9a05c4463e2af495.jpg?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240

异步时间扭曲(Asynchronous Timewarp简称ATW)是一种生成中间帧的技术,当游戏不能保持足够帧率的时候,ATW能产生中间帧,在 GPU 渲染能力与屏幕显示需求之间寻找一个平衡。这一“扭曲”是一个实际图像调整的进程。时间扭曲其实是通过扭曲一帧已经渲染完成但还未在屏幕上显示的图像,进而生成一个中间帧用以弥补头部运动所造成的画面延迟。中间帧是一种后处理效果,它改变的是已经被渲染好的图像来匹配用户最新的头部位置。
时间扭曲的局限性在于,它要依赖于显卡所渲染好的那一帧图像,因为中间帧的调整是发生在这一帧的渲染完成之后。刚才说到,这一“扭曲”过程是一个额外的进程,如果此刻计算机正在运行着一个进程的话,显示器所显示的画面可能会更加延迟。
http://upload-images.jianshu.io/upload_images/937450-dff9706d4a99a6f0.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240

异步时间扭曲致力于通过一个独立于显卡渲染周期的处理进程来持续追踪头部位置,这个进程和渲染进程平行运行(异步)。在每一次垂直同步前,该异步进程根据渲染进程最新完成的那一帧生成一个新的帧。相比于时间扭曲,这样做能够获取得更低的延迟以及更高的准确度。
然而异步时间扭曲也不完美,因为在处理运动中的画面时容易产生“抖动”,或是轻微的图像重影,如下图所示。因为一个新的图像是只是根据原始图像生成的,原始图像上物体还在原来的位置呢!
http://upload-images.jianshu.io/upload_images/937450-6fe0aa1298e22b30.jpg?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240

以上这些就是我们现在最常听到大家谈论的概念,说完了这几个概念,我们来说说 AMD 和 Nvidia 两大显卡巨头对于 VR 图形技术领域的一些解决方案。
尽管在操作系统层面,我们还有待于来自 DirectX 和 OpenGL 的正式 VR 标准,不过 AMD 和 Nvidia 已经在通过他们专有的技术与 SDK 来提升各自显卡的交互性能了。他们具体的目标还是为用于虚拟现实目的的图像渲染来降低延迟,同时提高帧率。
AMD Liquid VR
根据 AMD 首席游戏科学家 Richard Huddy 的说法,Liquid VR 是运行在 Mantle 平台上的一块独立代码。Mantle 是 AMD 显卡驱动上的专有 API,相比标准的 DirectX 接口,它能提供出更为深层和快速的权限来访问 AMD 的显卡架构。
http://upload-images.jianshu.io/upload_images/937450-73e8472daf2fe2af.gif?imageMogr2/auto-orient/strip

Mantle 和 Liquid VR 所提供的是访问 AMD 异步处理引擎 (asynchronous compute engine, ACE)功能的完全访问权限。GPU 的流处理单元只是用以处理单一命令的指令槽。 在较旧的 GPU 中,这些指令都是循序执行的。尽管 Radeon HD 7970 显卡拥有 2048 个着色器,但即便是在 GPU 全速运转的情况下,它们也极少是全部都能被充分利用起来。而最新的 ACE 架构则可以让你在处理进程中同时插入不同的指令,从而充分利用起这些计算资源。当空闲的流处理单元的指令槽可用时,所需要的命令就可以插入进来执行。这样 GPU 就可以在执行图像渲染工作的同时来处理这些计算任务,而又不必放下宝贵的处理时间。
http://upload-images.jianshu.io/upload_images/937450-1b276fe73a7387c1.gif?imageMogr2/auto-orient/strip

在多重 GPU 的 CrossFire 配置中,可以由两个或多个显卡之间相互交替来渲染每一帧图像。不过,当图像在 VR 头盔中被分割开来显示的时候,这一协同效果表现得并不是很好。而 Liquid VR 则能够有效地为每块显卡分配好任务——一个GPU负责左眼,一个 GPU 负责右眼。
http://upload-images.jianshu.io/upload_images/937450-c1b4635ae4654a47.jpg?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240

AMD 这一 API 还可以让显卡直接跟头戴式显示器进行通信,而不是还要通过 Oculus VR 或者 Razer 的 OSVR 平台这类独立的 SDK 来显示图像。尽管 AMD 所展示的是用 Liquid VR 来支持 Oculus VR 的设备,这一技术却并非只为 AMD 的专有 GPU 所开发的,该公司为所有符合条件的解决方案提供支持。
http://upload-images.jianshu.io/upload_images/937450-6c50d0e0a7511bd9.jpg?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240

尽管 AMD 在 GDC 的演示中所用的是其最新的300系列 GPU,我倒觉得 AMD 较快的上一代显卡也是可以这样运行虚拟现实内容的,因为其新卡很大程度上只不过是旧卡重新包装而成的。
Nvidia GameWorks VR
与其说是一个正式的 API,Nvidia 的 GameWorks VR 更多地是作为一系列的技术和功能来帮助开发者们更为充分地把他们的 GPU 应用于 VR 目的。例如我们先前所说的异步时间扭曲技术,在 Nvidia 的 GameWorks 环境,异步时间扭曲可以运行在驱动器层面。类似于 AMD 的 Liquid VR 平台,Nvidia 也在引入 VR SLI,这意味着拥有多重显卡的计算机将能更好地同时渲染左右视图,从而输出更具效果地虚拟现实体验。
http://upload-images.jianshu.io/upload_images/937450-bcf35c965827e16f.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240

这里要重点说一下“多分辨率着色技术”。像 Oculus Rift 与 HTC Vive 这样的现代 VR 头盔需要把一种椭圆形的双视图发送到它们的屏幕上。虽然看上去很奇怪,但只要透过 HMD 的透镜去看就是正常的图形了。左右视图中心的像素比较密集,外围像素则因图像扭曲在分布上要远为零散。
可是到目前为止,这种像素扭曲都是在图像完成后才进行的。显卡倾尽其所有性能来渲染出全分辨率的图像,然后再交由一个后处理阶段来生成扭曲后的图像。这种扭曲后的图像对于屏幕而言只需要使用更少的像素也能呈现一样的效果,这样的渲染过程基本就是在浪费资源。
http://upload-images.jianshu.io/upload_images/937450-ed36ac92b2fe6e67.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240

Nvidia 的解决办法是把整个图像分割成3x3的视区网格。在这里,我们把视区这个概念简单理解成是屏幕上被分割出来的空间。在中央视区仍保留完整分辨率的情况下,外围视区则用类似于传统后处理阶段的扭曲方式进行渲染。当这一切完成后,同样用户感知效果的图像相比原来的像素数量可减少25%到50%,而像素渲染效率则提升为原来的1.3倍到2倍。以 Oculus CV1 为例,其2160X1200像素的屏幕采用“多像素着色技术”所需要的显卡性能会比原来下降30%到50%。
http://upload-images.jianshu.io/upload_images/937450-3eda3b589838d241.gif?imageMogr2/auto-orient/strip

Nvidia 还在推广的一个概念是高优先级图形上下文。通过传统的 DirectX 接口进行渲染时,当你头部从 A 点转动到 B 点,开发者用一个固定进程来处理画面。Nvidia 放宽了进入渲染路径的窗口,使得头部追踪所带来的不可预估的变化可以被开发者更为迅速地修正。
http://upload-images.jianshu.io/upload_images/937450-cde93a178aebae29.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240

说了这么多 AMD 与 Nvidia 在 VR 图形技术上的大力投入,但他们都还无法代表一个正式的标准。这就意味着游戏及其他内容制作商不得不同时支持两种技术以获取每种显卡架构的最佳性能。没错,正像是现在同时开发的 iOS 与 Android 两种应用那样。
这篇对于图形制作技术的介绍,加上先前的虚拟现实交互与图像显示技术这两部分的内容,就是 Niel Schneider 在Virtual Reality Basics一文所讨论虚拟现实技术与概念的全部内容。下面我想以 Niel Schneider 本人的总结来结束全部内容。
总结:
我一直在参与 VR 行业的发展,特别是它这两年突然火起来之后,这个行业正在发生的事情真的很吸引人。在消费者买到第一个虚拟实现头盔之前,我就已经看到了无数人专注于把为把图形带上 VR 屏幕这一目标所进行的各种创新,而现在越来越多具备核心功能及广泛细节追求的虚拟现实头盔出现。除了那些全新的实验性想法在浮出水面之外,我们更应该注意到那些不幸失败的主意。
然而,我们必须提醒自己的是,这场技术比拼是没有终点的。跟学习曲线有限的传统显示技术不同,虚拟现实领域每一个新增元素的出现都有可能戏剧性地改变我们对于虚拟现实或其他沉浸式体验技术的理解。根据 Sony 沉浸式技术团队总监 Simon Benson 的说法,一项可以把视场大小仅仅增加5度的技术就能改变一切。
亲眼看到 Oculus CV1, Valve/HTC Vice, FOVE, Starbreeze VR, Immersion-VRelia 的 GO 平台及其他数不清的产品的面世,这一切意味着一个多样化的行业正在成型,我始终相信美好的事情即将发生。只要这些平台别把自身限制在单一的品牌上,或是莫名其妙的no zuo no die,这一领域对于消费者和供应商双方来说都有足够的空间来取得双赢。
Geeker 说
与国内科技圈大家都在拼命做着各种毫无新意长得一模一样的手机不同的是,国外科技圈这两年是真正在下功夫去解决虚拟现实技术所面临的一系列技术难题。我实在不想在文章结束了才告诉你我们一直在讨论的东西跟大家所理解的把手机放进“XX魔镜”里看3D视频其实是完全不一样的东西。如果你现在才知道,可以借本文进一步去了解一下“虚拟现实”里面究竟都有些什么。
当消费者拿到最终产品的时候应该很快就能发现真正的 VR 具体是一种怎样的体验,然而在这个过程中已经持续了数年甚至数十年的技术沉淀、以及开发者为了“视场仅仅增加5度”所付出的努力,绝不是每年开数场新品发布会的所谓“良心”公司能够相提并论的。我不知道 VR/AR 还需要多久的技术积累才能够颠覆电影、电视、电脑或手机等各种屏幕,但如果你还记得第一次在电脑上玩起《反恐精英》《魔兽世界》激动心情,或是第一次观看《黑客帝国》《盗梦空间》时的烧脑感受……那么当你拿到真正的 VR 时能够找回过去的那种兴奋感,所有这些团队的努力与投入就会具有真正的意义。


页: [1]
查看完整版本: 去掉所有渲染与特效,真正的虚拟现实其实是这样的