虞晶怡——上海科技大学 教授
看《星球大战》的时候,你们有没有想到一个很有意思问题,这里面的技术非常发达,我有一个死星,能够打一束光,一个地球就没了;我有一把激光剑,可以削铁如泥;R2D2机器人能跟你对话。但是当你想看3D的时候,却只有64个像素。
可见,如果要见到真正的虚拟现实,或者增强现实的这样一个3D全景,他们的技术还不够。什么技术够?就是把我刚刚讲的用光场采集、阵列等技术逆向来用。
我要把这个相机反向运用,制造下一代像人眼一样的VR技术。
怎么做这样一件事情呢?在相机的事例里,我把一个小的棱镜阵列放在我的传感器上,现在我把它反过来,把相机这样一个棱镜阵列,贴到我的显示器上,这样我每一束光打出来,不但能够控制它每一个位置,而且能控制它每一个方向的颜色。
等价于在这个世界里,我能够控制任何一个方向,任何一个位置的光线的颜色,这样我就解决了光场生成的问题。
现在绝大部分的VR公司都在强调做显示端,头盔。但是,大家忽略了很重要的问题,就是头盔上我播什么片子呢?最关键点并不在于头盔,而在于怎么样生成内容。
由于人们的要求越来越高,已经不满足这种传统的,只是拍一下360度环视的效果,因为它跟我的眼睛看出来一点都不一样。慢慢它会过渡到360度3D这样的环拍技术,至少可以解决双目视觉的方案。