您的位置:首页 >互联网 >

iOS 14悄悄地向Apple Glasses迈出了一大步

苹果在2020年全球开发者大会(WWDC)上宣布了各种操作系统的大量更新,但没有提及任何新硬件。但是,已经关注WWDC一段时间的人们会知道,隐藏在软件公告中的小技巧几乎可以揭示设备的下一步发展。
iOS 14悄悄地向Apple Glasses迈出了一大步

从表面上看,这完全是关于iOS 14的,苹果转向了ARM和自己的硅芯片等,但在此之下,所有迹象都清楚表明您可能会错过苹果眼镜。

苹果在谈论iOS 14或iPadOS时几乎没有提到增强现实(AR),但是如果将一些单独的声明放在一起,那么就会出现更清晰的画面。例如-AirPods Pro上的空间音频,面向开发人员的基于位置的AR工具,应用程序剪辑,Apple Vision和3D图标的“手势”检测。
iOS 14悄悄地向Apple Glasses迈出了一大步

有了这么多的小提示和线索,您所需要的只是那些智能眼镜,以使它们融合在一起。

首先,ARKit4。ARKit是面向AR应用程序开发人员的一组工具,苹果公司表示,它为全球最大的AR平台-iOS提供动力。您不会将iOS视为AR平台,因为该技术仍非常非常新生。但是,ARKit演示之一显示了新的“定位锚”,该定位锚指向iOS 14和iPadO 14的情况将如何变化。

这些位置锚使应用程序可以在现实世界中的特定位置放置AR创建物,例如路标,雕像,甚至游戏角色。这是苹果公司迈出的第一步,在所有这些地方,戴着苹果眼镜的人都可以看到这些虚拟的路标和物体。

除了Pokemon Go这样的游戏外,我们还没有真正看到AR在现实世界中迈出一步。宜家只是在您的客厅里移动虚拟家具。苹果已经将LiDAR技术用于其新iPad中。
iOS 14悄悄地向Apple Glasses迈出了一大步

在iOS 14和iPadOS 14设备上,ARKit 4可以将来自Apple Maps的地理坐标和高分辨率地图数据放在一起。ARKit工程师Quinton Petty称之为“可视化本地化”,这意味着您将能够比仅使用GPS数据更精确地相对于周围环境精确定位设备。这对于AR体验是有意义的。苹果还表示,其所有基于位置的AR均使用在您的设备上运行的先进的机器学习技术,并且云中没有任何处理,苹果也不会向自己或其他任何人发送任何图像。

除了这些“定位锚”之外,AR主题还有一个微妙的点头,因此,智能眼镜是AirPods Pro的空间音频功能。此更新为您的耳塞带来了3D声音。除非您带着AirPods观看许多杜比全景声(Dolby Atmos)轻弹,否则为什么耳塞需要3D声音。

此更新的真正好处可能是手机附带了AR,可让您向地图上的音频点头,从而在Apple Glasses眼镜上为您提供路线或AR。

就App Clip而言,这完全是直接的好处,例如无需实际下载完整的应用程序就付款,但最终目的似乎是帮助您通过扫描实际对象来启动AR体验。然后在Apple的Vision框架中实现了手势控制的“手势”识别,在ARKit 4中使用“ LiDAR”对不同对象和材料进行分类的“场景几何”。

相关推荐

猜你喜欢

特别关注