苹果布局AR领域,产品是发展重点
智通财经APP获悉,在本届WWDC上,尽管没有AR眼镜的消息,但苹果推出了多款AR应用。其中包括RealityKit 2、Object Capture以及AR Maps等。
RealityKit是一款为AR打造的3D渲染、物理核空间音频引擎。通过使用真实的和基于物理的材质、环境反射、背景阴影、相机噪点、运动模糊等来将虚拟内容与现实世界高度融合。
RealityKit 2的新增内容包括:Object Capture对象捕捉、自定义着色器、自定义系统、动态asset、角色控制器。
据苹果全球开发者关系副总裁 Susan Prescott介绍,Object Capture使用摄影测量将iPhone或iPad拍摄的一系列2D照片转换成3D模型。
从大会视频演示来看,用户只需要通过iPhone或iPad多维度拍摄物体照片,然后倒入Cinema 4D等即可创建3D模型。当然,通过Reality Composer或其它工具,用户也可以快速获得AR预览。
单从效率来看,相比于花数周时间手动创建3D模型,Object Capture可以将时间成本压缩到数分钟内。
据苹果公司称,这些3D模型可以在 AR Quick Look 中查看或添加到 Reality Composer/ Xcode 中的 AR 场景中,从而帮助开发者更容易构建 AR 应用程序。苹果表示,开发者正在使用Object Capture在一些领先的3D内容创建应用(如Cinema4D和Unity MARS)中解锁全新的3D内容创建方式。
苹果方面还补充道,借助 RealityKit 2 中的新 API,开发人员还可以通过更好的视觉、音频和动画控制(包括自定义渲染通道和动态着色器)为用户打造更逼真、更复杂的 AR 体验。
Loup Ventures创始人、资深苹果分析师吉恩?蒙斯特(Gene Munster)本周在一封电子邮件中写道:“从高层来看,今年,甚至可能是明年的苹果全球开发者大会(WWDC)将成为苹果创新风暴之前的一场平静。”“目前,苹果正在加紧开发围绕增强现实可穿戴设备和交通工具的新产品类别。”
苹果从未确认过发布AR硬件的计划,但据报道,苹果最早可能在今年发布一款AR耳机。Facebook、Snap和微软也在开发头戴式AR设备。
人工智能可以理解手势、人和脸庞。尽管苹果的机器学习和人工智能工具并不直接与AR联系在一起,但它们所代表的能力对于在3D空间中工作的计算机界面来说将是非常重要的。苹果的视觉框架软件可以被应用程序调用,通过iPhone的摄像头来识别人、面孔和姿势。苹果公司的计算机视觉软件现在可以识别图像内部的物体,包括标识上的文字,以及搜索照片内部的东西——比如狗或朋友。
与苹果的其他工具相结合,这些人工智能工具可以应用类似Snap滤镜的效果。在今年的WWDC上,有一场会议甚至讨论了如何识别手的姿势或动作,这为高级手势奠定了基础,这是目前微软全息眼镜(Hololens)等AR头盔界面的重要组成部分。