行业资讯—AR/XR开发者软件
目前虚拟现实技术正处在高速发展的历史时期,国内外已经涌现了很多知名平台厂商和制作团队。今天小编就给大家介绍3款最新的开发工具。
01
Niantic Opens Lightship Platform
世界上第一个也是唯一一个缩放式AR平台的开发商Niantic发布Lightship
11月8日Niantic宣布Niantic Lightship平台的第一套增强现实工具全面上市,使世界各地的开发者能够实现他们对增强现实和真实世界Metaverse的愿景。
Niantic Lightship增强现实开发者工具包,简称ARDK,现在可以在Lightship.dev 站上向全世界的AR开发者提供。为了庆祝这一发布,Niantic将分享来自全球品牌合作伙伴和世界各地的开发者工作室最早的AR应用和演示体验。
The lightship Platform是Niantic公司产品的基础,它建立在多年开发和运行从《Ingress》到《Pokémon GO》和《Pikmin Bloom》等游戏的经验之上。
作为Lightship平台的一部分,ARDK是一个跨平台的软件开发工具包,在全球数十亿的安卓和iOS设备上无缝运行。它汇集了支持三大AR功能–实时地图、理解和分享–的工具和技术,因此开发者可以创建独特的AR体验,无缝利用部分或全部ARDK工具。随着时间的推移,Niantic计划将更多的Lightship平台功能提供给开发者。
有了Lightship,世界上的任何公共环境都可以成为人们探索、聚集和联系的新去处。使之成为可能的一个关键原因是映射现实的能力。
依靠Niantic在使用智能手机摄像头传感器建立深度理解方面的进展,ARDK中的Meshing APIs可以创建实时的3D 格地图,了解用户周围的地形和表面。 格在整个应用会话中持续存在,随着用户的移动而扩大和改善。
通过Occlusion APIs,虚拟物体以相对于现实世界物体的正确深度顺序出现,因此,如果你将你的虚拟球踢过树篱,你会继续看到树篱,但不再看到球。
在多年研究的基础上,Niantic的深度技术能够自动适应任何安卓或iOS设备的摄像头,从标准的RGB传感器到最新的LiDAR驱动的设备。其结果是一个动态的3D 状地图,使开发人员能够创建更多视觉上真实的AR层,同时考虑到AR应用程序中任何用户周围的独特空间的位置和背景理解。
语义分割API确保数字对象与现实世界中的不同表面正确互动,并出现或不出现在它们实际应该出现的地方。
ARDK中的语义分割API使用基于计算机视觉的能力来即时识别真实世界环境的不同元素,如地面、天空、水、建筑物等。这些元素告知虚拟内容在真实空间中的反应方式。
语义分割使开发人员能够专注于他们想要创造的体验,而ARDK则完成动态理解环境的艰巨工作,将创作逼真地呈现出来。
分享是使所有这些AR体验感觉真实的关键组成部分。ARDK的多玩家API使开发者能够轻松地创建AR会话,支持多达五个玩家同时进行。这使得更多的互动和协作应用感到真实和无缝,使虚拟内容、玩家和他们的互动保持同步,而且都是实时的。
为了保持共享体验的快速性,ARDK得到了P2P 络堆栈和管理服务器的支持,因此开发者不需要编写代码来支持多人体验。此外,ARDK还提供了一些轻量级的多人游戏功能,包括一个玩家大厅系统、一个同步时钟和会话持久化存储。
我们的VPS使人们能够将虚拟物体放置在一个特定的位置,这样这些物体就可以持续地被使用相同应用程序的其他人发现。通过使用实时生产代码,我们已经绘制了数以千计的地点,我们的计划是在明年在选定的城市全面推出之前,向一组选定的开发者开放VPS访问。
02
Snapdragon Spaces XR Platform
高通公司推出Snapdragon Spaces? XR开发者平台,这是一款头戴式增强现实(AR)开发者套件,能够创造沉浸式体验,无缝地模糊我们物理和数字现实之间的界限。凭借成熟的技术和一个开放的、跨设备的水平平台和生态系统,Snapdragon Spaces提供的工具能够将开发者的想法变为现实,并彻底改变头戴式AR的可能性。Snapdragon Spaces正在与部分开发者进行早期访问,预计将于2022年春季全面推出
高通技术公司是增强现实技术的先驱,在AR领域有十多年的研究和开发经验。利用这些年的创新和专业知识,Snapdragon Spaces提供了强大的机器感知技术,为下一代AR眼镜进行了性能和低功耗的优化。
骁龙空间平台提供了环境和用户理解能力,为开发者提供了创建头戴式AR体验的工具,这些体验能够感知并智能地与用户互动,并适应他们的物理室内空间。一些重要的环境理解功能包括空间映射和 格划分、遮挡、平面检测、物体和图像识别与跟踪、局部锚点和持久性以及场景理解。用户理解机器感知功能包括位置跟踪和手部跟踪。
该平台采取直接面向消费者的方式,使开发者能够为AR眼镜构建沉浸式应用,并利用全球现有的智能手机数字分销商店向终端用户提供这些应用。骁龙空间包括适用于领先3D引擎的软件开发者工具包(SDK),包括Epic Games的虚幻引擎,因此开发者可以使用熟悉的3D工具和工作流程来创建体验,如虚幻的实时3D创建工具,实现逼真的视觉效果和沉浸式体验。
Niantic公司本周推出的Lightship开发者平台将与Snapdragon Spaces整合,使开发者能够创建星球规模的AR体验。Lightship平台将把触角扩大到户外头戴式用例,激发人们在户外探索,并通过多人游戏功能与他人实时联系和游戏。
这是在正在进行的合作的基础上,为AR头盔创建参考设计,以加快AR软件和硬件的开发。骁龙空间平台还支持应用的可移植性以及与Unity AR Foundation和Unity MARS的统一工作流程,使该平台上的开发者能够创造与现实世界完全融合的体验。Snapdragon Spaces基于Khronos? OpenXR?规范,实现了应用的可移植性,是第一个为AR眼镜与智能手机相连而优化的头戴式AR平台,具有符合OpenXR的运行时间。
03
8th Wall Reality Engine
8th Wall Reality Engine,这是一个强大的平台,让你可以一次性建立一个基于 络的增强现实项目,并将其部署在任何地方:iOS和Android智能手机、平板电脑、台式机和笔记本电脑以及虚拟现实和增强现实头戴式设备。
全新的现实引擎被设计用来使你的WebAR体验在无数设备上自动可用。为了做到这一点,它提供了以下五个核心能力。
8th Wall完全使用WebAssembly和WebGL开发,其Javascript API已被完全重建,以便在运行时适应每种独特的设备类型。我们强大的现实引擎继续使用我们的相机应用框架提供一流的移动WebAR体验,但现在也能优雅地与WebXR API整合,提供一个智能封装器,将你的WebAR项目优化到非移动设备上–比如AR或VR头盔,或者计算机。
虽然3D内容对于任何AR体验都是必不可少的,但大多数WebAR项目也包括一些2D UI元素。2D元素,如按钮或字体,是促进互动、用户选择和转达用户参与所需的重要信息的关键。而这些元素是智能手机、平板电脑和PC等平面屏幕的理想选择,但在AR和VR头盔中使用时需要特别注意,因为那里的体验变成了具有空间感的。
对于在微软HoloLens和Oculus Quest/Meta Quest等设备上登录,Reality Engine会自动将你的2D UI元素转换到一个叫DOM Tablet的空间控制面板。DOM Tablet的行为就像你所期望的平板电脑在现实世界中的行为一样,用户可以与DOM上的UI进行互动,就像平时使用手机一样。DOM Tablet可以让用户很容易地自定义,或者在不需要的时候在他们的手腕上最小化,这样它就不会妨碍你的沉浸式体验。
为了在移动设备上使用AR,用户经常会执行一些手势,如在屏幕上点击、捏住和滑动。随着Metaversal部署,使你的体验在非移动设备上可用,对我们来说,处理这些新设备类别的交互映射是关键。为了做到这一点,公司将最常见的移动WebAR触摸输入映射到电脑、AR和VR头戴式设备的众多输入选项中,包括键盘、触摸板、鼠标、控制器和手部追踪。
在手机和AR头戴式设备上访问的WebAR体验将用户周围的真实世界作为体验的画布。软件需要一个环境,以便给你的3D内容提供背景。当在电脑和虚拟现实设备上体验时,Reality Engine会在需要时立即添加一个虚拟环境,将你的3D内容置于空间中。可以将背景设定成与真实世界无关的虚拟世界,这也让添加你自己的自定义环境变得更加容易,而且可以增强整体体验。
随着WebAR现在可以在无数的设备上使用,现在重要的是不仅要考虑设备,而且要考虑用户在体验应用时的位置,例如他们在虚拟现实中是站着还是坐着。现实引擎考虑到了这些信息,并动态地调整摄像头的高度,以确保所有的内容都是舒适的,无论他们使用的是什么设备。该引擎在做到这一点的同时,还尊重你的原始设想,这样你就可以确信用户是按照你的设想来观看你的内容的。
虽然现实引擎的创建是为了尽可能地减少跨平台开发的工作量,但开发者也将强大的机制作为平台的一部分,以帮助你按设备类别定制体验。
声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!