如果坏人像黄仁勋一样造假,世界会不会乱套?
神笔马良,挥洒着他的画笔,植物、动物、食物、美女等等这些,都可以一秒钟从画面上出来,变成真实世界中存在的东西。
真真假假,假假真真,但如今,我们眼睛看到的东西,也不一定是真的。
昨日,英伟达自曝“惊天大秘”,3个月来,公司创始人黄仁勋所做的每一场网上直播的产品都不是他本人参与的,网民在画面中看到黄仁勋、厨房、皮衣,甚至他的头发、皱纹和表情都是合成出来的,AI骗过了所有观众的眼睛,网络上看到和真人一模一样的黄仁勋,其实只是他在虚拟世界的数字孪生版本。
让人不仅唏嘘,当科技巨头们也加入“造假”行业中的时候,黑科技支持下的造假,就算你火眼金睛也不一定辨识出来。
物理与虚拟世界的边界正在被打破
很多人可能好奇到底要通过怎样的方式,才能让数字世界中的人有以假乱真的能力?
首先黄仁勋必须要到拥有360度摄像头环绕的摄影棚里拍上几千张各种角度的照片,并通过一套3D扫描,把他整个人,甚至是脸上的每条皱纹都采集成数据,衣服也需要单独拍摄扫描建模。此后包括动作和面部表情渲染等一切流程,就只需要交给计算机和专业的动作捕捉演员完成。
其次,用采集所得的数据对黄仁勋做3D建模,具体到手指或者眼角的细节,也需要非常仔细地调整。
最后,建模完成好,下一步是让黄仁勋动起来,处理到这的时候,AI就可以派上用场,参与到这一造假的流程中,用上最新的Audio2Face模型,AI可以随着语音播放自动调整模型的面部动作表情,动作采集可以找专业动作捕捉人员采集。
图源英伟达
值得一提的是,英伟达如此强的“造假”能力,虚拟协作平台Omniverse功不可没,从CG到优化技术,从工具包到引擎,Omniverse都有提供。
光看Omniverse所承载的CG技术,其实远不止这次发布会用到的“造假”效果,它从渲染、材质,到光影、照明(光追、路径追踪等)都有涉及,还会不断更新相关技术。
据英伟达表示,Omniverse平台现在可以实时实现电影级别的画质渲染。以渲染中非常重要的光源模拟为例,真实世界的光源多种多样,传统的计算机渲染至少需要将光源迭代30+次,才能达到逼真到毛发的效果,即使用最先进的机器渲染,每一帧也基本都需要几十秒,而用上Neural Radiance Cache等技术后,结合RTX GPU硬件和Omniverse平台,光源渲染直接就能实时进行。
可以看出,凭借英伟达的RTX光线追踪技术与虚拟协作平台的结合,真实与虚拟之间的边界正在被打破。
元宇宙世界来袭,普通人该如何保护自己?
不仅如此,英伟达倾力打造的Omniverse平台,是英伟达打造元宇宙的关键。
从概念上看,元宇宙(Metaverse)是一个虚拟时空间的集合, 由一系列的增强现实(AR), 虚拟现实(VR) 和互联网(Internet)所组成。 Meta表示超越, verse是宇宙universe的意思, 合起来通常表示,互联网的下一个阶段。
这就是被称为“元宇宙”的相互连接的沉浸式共享虚拟世界。在AR、VR和3D技术支持下,虚拟和现实之间的界限正在逐渐模糊,真假难辨。
在“元宇宙”世界里,艺术家可以创造独一无二的数字场景、建筑师可以创造美轮美奂的建筑、工程师可以设计出新的家居产品。这些创作在数字世界中得到完善后可以被带入物理世界。比如通过英伟达的数字孪生技术,将机器人AI放到虚拟环境中训练完成后,便可直接部署到真实环境中。
英伟达正在“将数百万新用户带入元宇宙世界”。Omniverse开发平台副总裁Richard Kerris表示:“我们的虚拟协作平台通过实现元宇宙这一愿景来连接各个世界,从而推动技术的革命性发展,从个人到大型企业,每个人都能建立一个外观、感知和行为都与真实世界无异的神奇虚拟世界。”
现在你还敢拍胸脯保证“耳听为虚,眼见为实”吗?照片可以造假,视频可以造假,声音可以造假...那以后还有什么可以信的东西,而如果坏人掌握了这项技术,普通人又该如何保护自己,是我们需要去深思的事情。