ARKit 奠定了 Apple 平台上实现 AR 的基石

  • Sergio De Simone
  • Rays

2017 年 6 月 14 日

话题:移动Apple语言 & 开发

WWDC 2017大会上,Apple 公布了ARKit。ARKit 是一种为 iOS 构建增强现实(AR,augmented reality)App 的框架,意在实现将虚拟内容精确且真实地浸入真实世界场景上。

ARKit 的核心是为一些基本的关键功能提供支持,包括运动跟踪、水平面检测,以及尺度和环境光预测。

运动跟踪使用CoreMotion框架实现,Apple 移动设备提供了专用的运动协处理器。该功能采用视像惯性测程(Visual Inertial Odometry),基于镜头捕捉的数据估计设备的三维定位及移动情况。据 Apple 介绍,该技术无需任何额外的标定即可确保很高的精确性。ARKit 具备检测地板、桌子等水平面的能力,可以将虚拟物体精确地置于真实物理场景中,并追踪虚拟物体的移动。环境光预测是对虚拟物体产生真实阴影和光照效果的关键技术。

ARKit API 支持两种主配置,即只追踪设备定位的ARSessionConfiguration,以及进一步追踪设备位置并检测真实世界表面的ARSessionConfiguration。所有被检测到的表面都会关联到一个ARPlaneAnchor对象,并可进一步使用提供物体到镜头的距离、位置和方向的ARHitTestResult进行描述。ARPlaneAnchor 是ARAnchor的一个子类实例,可添加到 AR 场景中,实现在场景中放置虚拟物体。借助于ARSCViewARSKView,ARKit 很容易与 SceneKit 或 SpriteKit 集成以处理三维或二维的虚拟内容。此外,开发人员可以使用在这次 WWDC 大会上新发布的第二版Metal(Metal 2),实现对场景渲染的完全控制。

上面提及的 Metal 2 运行于 Mac 上,新版本中添加了对虚拟现实(VR,Virtual Reality)渲染和外部 GPU 的支持,并提供了新的 API 和更多优化,可帮助开发人员在 App 中使用这些新兴技术。但是在 Metal 的规划中,至 2018 年春季前,都没有规划去提供对用户可用的外部 GPU 支持。

以上快速概览了 Apple ARKit。如需了解更多信息,可阅读 AP 的介绍,以及官方API 参考

Apple 并未关闭对 AP 的未来计划。在 Bloomberg 的 Emily Chang 对 Apple 的 CEO Tim Cook 的一次采访中,Cook 表示,ARKit 奠定了 Apple 未来产品的基石。

目前 ARKit 包括在 Xcode 9 中,仍处于测试阶段。Xcode 早已对注册开发人员可用。Apple 还提供了一个样例项目,其中展示了将物体置于 AR 场景中的基本机制。

查看英文原文: ARKit Sets the Foundations for Augmented Reality on Apple’s Platform

移动Apple语言 & 开发