触控笔,在大屏幕上显示的keynote上写写画画。
“具体的技术问题我今天不详细展开,只说一下原理。”
“第一,‘蜃景引擎’的云端架构其实承载了最主要的渲染计算,返回到手机上的,只是渲染后的‘状态’数据,这部分数据量其实很小,每秒只有3左右。”
云端计算?每秒只需要3的数据传输?十年前的半条命渲染一面墙都不够吧?
“不是大家理解的这样。”
听到有人在下面有些疑惑的讨论,方豫摇了摇头:“我们并不是将帧画面流推送到手机,而是将每一帧的场景状态、材质映射信息、光照解算等用定制协议传回,而这一部分协议数据,仅占3/s。”
真的假的?祝一飞嘴唇微动,还没等他追问,就听到方豫继续道:
“第二,之所以这些‘状态’数据能做到这么精简,是因为‘蜃景’独有的‘环境探针阵列’技术。”
环境探针阵列?听到个新名词,所有人都聚精会神的盯着方豫。
“‘环境探针阵列’并非实体探针,而是我们开发的一种基于ai视觉系统的纯软件虚拟概念,是在移动端完成这部分的计算。”
“通过调用gpu的资源重复绑定,在2.5秒内针对视觉内的环境钉入数千枚虚拟探针,这些探针钉入后,云端渲染的素材会固化在这些探针上,从而做到无论摄像头如何移动,都不会延迟脱层的效果,只是这一项,就节约了超过90%的ar重复渲染资源。”
众人听得似懂非懂,他们虽然是游戏开发者,但涉及到这种底层技术是如何达成的,能搞懂的屈指可数。
“第三,就是蜃景引擎最重要的特性——‘模拟现实刷新’,也正是这个特性,能够让蜃景引擎在移动端的gpu算力下,实现刚刚看到的3d画面渲染效果。”
&
本章未完,请点击下一页继续阅读! 第2页 / 共11页