RealityKit

RealityKit 框架专门为增强现实量身定制,能够提供逼真的图像渲染、相机特效、动画、物理特效等等。借助原生的 Swift API、ARKit 整合、基于物理的超逼真渲染、变换和骨骼动画、空间音频和刚体物理,RealityKit 让你可以比以往更加快速���松地进行 AR 开发。

新功能

利用 RealityKit 4,你可以同时针对 iOS、iPadOS、macOS 和 visionOS 进行构建。

RealityKit 4 丰富的功能集在 iPhone、iPad、Mac 和 Apple Vision Pro 上是保持一致的。而 Reality Composer Pro 是随 Apple Vision Pro 一起发布的新工具,支持在所有这些平台上开发空间 App。你现在可在这四个平台上搭配使用 RealityView 和丰富的功能,包括着色器 (使用 MaterialX 构建)、入口、粒子和许多其他功能。这包括用于添加材质、基于着色器的悬停效果和虚拟光照的 API,以及可扩展角色动画功能的新功能,如混合形状、逆向运动分析、骨骼位姿和动画时间线等。

借助 RealityKit 4,你还可以直接使用新的低级别网格和纹理 API 进行渲染,这些 API 可与 Metal 计算着色器搭配使用。Xcode 视图调试现在还支持 3D 场景内容检查,让检查和调试 RealityKit  内容变得前所未有的轻松。

物体捕捉

利用 macOS 上全新的 Object Capture API,在几分钟内* 即可将 iPhone 或 iPad 中的照片转换为针对 AR 优化的 3D 模型,实现逼真效果。物体捕捉功能使用摄影测量技术将 iPhone 或 iPad 上拍摄的一系列照片转换为 3D 模型,这些模型可以立即在“AR 快速查看”中查看,或整合到你的 Xcode 项目中。


进一步了解

自定着色器

RealityKit 使用基于真实物理特性的材质、环境反射、地面阴影、相机噪点、运动模糊等等,让虚拟内容与现实世界完美融合,与真实内容别无二致。RealityKit 让你能够利用自定渲染目标和材质更好地控制渲染管线,从而精细地调节 AR 物体和场景的外观与质感。

自定系统

打造自己的实体组件系统,在 AR 场景中组织整理素材资源,在系统层中构建更加复杂的功能。

物体遮挡

将激光雷达扫描仪提供的信息与 RealityKit 中的边缘检测功能配合使用,让虚拟物体按照你的预期与现实环境进行交互。虚拟物体可以被放置在桌子下、墙壁后或角落处,你将只能看到虚拟物体的正常可见部分,且现实与虚拟物体之间交界的地方也会非常清晰。

视频纹理

现在,你可以将视频纹理添加到 RealityKit 中场景的任意部分。添加丰富的视频来让虚拟电视屏幕播放电影,或是让虚拟人物微笑,为物体、表面甚至人物添加活力和生机。

Swift API

RealityKit 简单易用,功能强大,它使用 Swift 丰富的语言特性自动提供完整的功能集,让你能够更快速地构建 AR 体验,而无需样板代码。

动态素材资源

支持自定载入素材资源,更加灵活地量身定制基于 RealityKit 的体验 — 例如,以编程方式更改每一帧的图像或网格。

角色控制器

使用这个强大的 Swift API 轻松创建由玩家控制的角色,让用户能够跳转、攀登和探索你创建的 AR 世界和基于 RealityKit 的游戏。

可调节性能

RealityKit 借助最新的 Metal 功能来发挥 GPU 的最大功效,能充分利用 CPU 缓存和多个内核来提供极其流畅的视觉效果和物理模拟效果。你只需要构建一个 AR 体验,它会根据每台 iPhone 或 iPad 自动调节 AR 体验的性能表现。

共享的 AR 体验

RealityKit 能够帮助处理联网方面的复杂工作,例如保持一致的状态、优化网络流量、处理数据包丢失或执行所有权转移,大大简化了构建共享 AR 体验的工作。