苹果在6月的WWDC会议上发布了ARKit 4。新的深度API允许您访问Li Pro上有关LiDAR扫描仪深度(LiDAR)的详细信息。
LiDAR扫描仪内置的高级场景理解功能使Depth API可以利用有关周围环境的每像素深度信息。当与场景几何体生成的三维网格数据结合时,通过启用虚拟对象的即时放置并与物理环境无缝融合,深度信息可以使虚拟对象的遮挡更加逼真。
这可以支持为应用程序部署新功能,例如更精确的测量以及将效果应用到用户环境。苹果公司最近发布了iOS14 Beta 6,根据开发人员的反馈,LiDAR可以实现的遮挡已经到了几乎无法区分真假的地步。
Twitter用户usdzshare最近上传了一个有关iOS14 Beta 6的AR遮挡效果的视频。我们可以看到,虚拟对象实际上可以遮挡真实对象。
相反,真实对象也可以现实地遮挡虚拟对象。此外,为了说明具体效果的改进,usdzshare还上传了iOS 13.6 + iPhone的AR遮挡效果。
经过比较,我们可以看到iOS14 Beta 6极大地改善了光和阴影的处理以及虚拟遮挡和真实遮挡的联合位置,这主要是由于LiDAR所致。值得一提的是,有消息称下一代iPhoe 12 Pro有望配备LiDAR,据信这将大大增强AR应用程序的真实感和沉浸感。