2018-12-03 14:01

我在复制一个1:1的地球

造就第388位讲者 吴小毛 

粒界科技创始人



我是吴小毛。


今天我们看到很多优秀的作品,有的是影视作品,有的是动漫、游戏......但大家是否意识到,在过去的几十年间,我们观看这些媒体作品的方式,几乎没有发生改变:从电视到电脑,再到现在的手机,我们始终依赖着一块或大或小的屏幕。


这种方式是否能得到变革?人们获取娱乐的方式是否能更进一步?带着这些问题,我创办了粒界科技。


我一直以来都在从事游戏的技术工作,此前在Crytek德国法兰克福总部担任项目技术总监。


在Crytek,我从零开始创建了Cinebox团队,带队研发Cryengine游戏引擎,参与制作了次世代游戏《孤岛危机》系列及Xbox one首发大作《罗马之子》。


在制作这些3A级大作的过程中我发现,游戏的品质越来越高,画质甚至已经接近CG级别,那我们是否可以运用这些技术来制作影视作品呢?


在过去的8年时间,我便带着团队把游戏技术应用到了影视行业,试图颠覆动漫和电影的制作方式。虽然这是一个漫长而从未有人开拓过的过程,但我也清楚一个全新的技术对一个行业所意味着的震撼力和革命性。



我也曾带领团队参与制作了《猩球崛起》和《移动迷宫》等好莱坞电影的特效,一般来说,每一帧电影级别的影视特效渲染,短则需要30分钟,长则几小时乃至几天。


接下来我给大家演示的这个视频,就使用了我们的全新技术,是完全使用这种毫秒级的实时渲染实现的。



这个视频,是我们为玄机动画和福煦影视制作的动画作品,今天玄机科技的沈乐平导演也在我们的现场,他是中国乃至全球第一个使用这种技术的导演。


这会是一个历史性的时刻,当我们使用这种全新的技术来制作动漫作品,原先两个月一集的制作周期,将缩短至一到两周。在今年,将会有越来越多的影视制作公司参与进来,一起推动这个进程。


我认为,这个变革将倒逼好莱坞革新其制作流程。


当游戏技术革新了影视制作之后,下一步会发生什么呢?这就是我今天要着重和大家探讨的“人机交互”话题。


假设游戏、影视和VR/AR技术能够更为紧密的结合,假设科研和产业界能更为紧密的结合,有一个兼具行动力和技术前瞻性的企业,能够将顶级的技术有机整合起来,并创造出极高的用户体验感,那我觉得“人机交互”的未来是可以这样的。



这是我们团队用一周时间拍摄制作的一个视频,模拟的是未来当人们不再需要手机的一种社交方式。


大家可以想象,视频中的眼镜其实并不是一个实体,它会是一个电子虚拟眼镜,你可以非常轻易地戴着它去任何地方,你眼前的画面都是以数字叠加的方式呈现:


动一下拇指便可滑出一个可缩放的虚拟显示屏,挪动一下食指便可以复制或切换不同的显示界面,它也可以随着你的头部旋转进行位置同步。



其实我们的脑洞可以再大一点,当手机和屏幕被取代之后,我们还能不能更进一步呢?


这是我对人类与数据交互的一个终极设想:人其实可能就是这样在被模拟着,所以大家在走路、跑步、开车、坐飞机的时候,极有可能不过是在模拟器里的沉浸式体验而已。


更为极端的想法是连皮肤都是模拟的,我们看到的皮肤是一个数字影像,我们看到的和摸到的皮肤都是假的,都是传感器的一个反馈而已。所以我们也许被包围在一个与人形状一样的容器中,里面有我们的器官、骨骼、肌肉、经脉和血液。


更进一步极端的想法是,我们可能连这些器官都没有,而只有一个接受这些刺激的意识而已。


这些都有待于我们进一步探索和验证。我认为在我的有生之年,我们的模拟器起码可以和我们的皮肤接触,并高密度精确地赋予我们新奇的感觉和体验,拓展我们的认知及体验。


所有这些场景的实现,都极度依赖于一个数字模拟的引擎,而目前较为完备的数字模拟引擎便是游戏引擎。


游戏引擎的品质往往受限,支持高分辨率、高品质的同时,还需要保证60—90帧每秒的帧率,是一个巨大的挑战。而我带领团队在过去的10年里在游戏引擎领域也取得了重大的突破。


有了经过游戏技术和影视技术的结合,而且又适合下一代交互显示的数字引擎,我们便可以以毫秒级的速度显示以假乱真的数字内容。


但为了和我们的现实世界无缝融合,还需要把我们的现实世界还原为数字世界。而目前的还原手段都极其缓慢,完全无法适用于实时的人机交互场景。


我们需要的是一个能够在可预测时间内逐渐收敛为现实世界1:1的复制版现实世界,并最好还能够和显示时间保持同步的更新,或者起码延迟的时间不超过1—2秒。


即使用超级计算机来进行并行处理,要达到我们需要的交互模型的质量和数量在10年内都难以完成。有没有解决的方法?有!


“数字重建技术”就是这个课题的核心,举个例子,如果我想把我眼前的观众席编程为一个汪洋大海的话,除了显示技术之外,我还需要检测地面的高度、整个剧场的尺寸等等,这些就需要依靠计算机视觉技术。当所有的这些数据收集完成后,我就可以拉入一个大海的“素材”,通过数字重建技术实时实地地模拟海洋。



通过这一技术,我们制作了一个1:1的数字城市,这个是我们帮广州市制作的100平方公里的东莞市数字模型项目。里面所有的道路、湖泊、树木、车辆、房屋都是按照1:1的比例还原成的数字模型,你可以进行任意的修改,再通过虚拟现实技术进入其中游玩,比如在街道上飙车,或者与你的爱人找一个大厦的天台共进晚餐。



这个是我们和阿里巴巴ET城市大脑合作的一个项目,我们制作的一个杭州中心城区的数字展示,也是1:1还原的。这里是环城东路,行驶在上面的汽车全是通过人工智能技术驾驶的数字汽车,不管是交通信号灯的调配,还是政府的智慧管理,都可以用非常直观的方式实现。


通过刚才的演示,我们可以发现,每一个单点的技术突破都是最前沿的,但是怎么去把这些技术融合起来,使得我们能够往“终极未来”方向推却是非常难的事情。


我们的“终极娱乐”和“生活”是不可分割的。有人问我,吴博士,你为什么不去做一个游戏引擎呢?我说,以后的游戏就是生活,生活就是游戏,生活和游戏是完全无缝对接的,没有任何区别。


我们刚才看到的“数字城市”,当它不断量产、不断由政府推动,再加上数字扫描设备和数字重建技术的普及,我们真的可以创造一个“数字地球”,一个融合和平行于现实世界的数字世界,它叠加在现实世界之上,你可以选择生活在现实世界,也可以选择活在虚拟世界。


那时,我们每个人都会拥有一个“数字身份证”的概念,我们会和AI共存,这就是我所认为的终极人机交互,也是我所期待的“终极娱乐”形态。


对于我这样一个长期奔波于上海、广州、德国的人,我就非常希望有一款设备,让我跟我的团队可以跨国实时地面对面交流,观察他们的表情和说话的语气,一起修改PPT,跟进项目进度。


另外,由于我的父母和我的姐姐很早就去世了,我的爷爷我也没有见到过,我就希望有一个设备,可以根据我亲人的照片重建他们的形象,让我能跟他们进行交流,说说话。


经过一些落地的工作和这些情绪的推动、资本的推动,我相信未来人机交互的可行性。一个真正的革命性的提升终将到来,谢谢大家。

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定