在此次WWDC 2023期间,苹果将过去向开发者提供的「Object Capture」的API资源带到iOS、iPadOS平台操作系统,将能藉由iPhone、iPad所搭载激光雷达 (LiDAR)系统围绕物体拍摄,即可在短短几分钟内完成被摄物体的3D建模。

实际上,先前已经有不少业者提出类似技术,包含直接通过机器学习方式将2D影像转换为3D模型,或是通过多张照片建构3D模型资料。
而苹果过去就推出的「Object Capture」建模工具,通过多张不同角度平面影像合成3D模型内容,但当时仅能在macOS操作系统环境执行,此次针对iPhone、iPad提供的新工具资源,则是可让使用者更方便藉由手持装置进行建模。
不过,由于需要通过激光雷达捕捉精准距离等信息,因此目前仅限搭载激光雷达的iPhone Pro以上规格机型,以及搭载激光雷达的iPad Pro系列机型才能使用。
至于拍摄之后建立的3D模型将以USDZ通用文件格式呈现,并且能用于兼容此文件格式的专业3D软件进行后续调整。
此次提供此工具资源,自然也是希望开发者能借此更快建立各类3D模型,或是打造可让使用者自行产生3D模型内容的服务,进而可推动Vision Pro虚拟视觉头戴装置应用体验。
当然,先前已经提供的ARKit、RealityKit,以及此次公布的Reality Composer Pro与Unity深度合作,同样也是为了扩展Vision Pro应用作准备。