在 2017 WWDC 大会上,苹果宣布 iOS 11 中全新的增强现实组件 ARKit,到现在,App Store 上已经有了大量基于 ARKit 打造的各种应用和应用内部的 AR demo 功能。
在 2017 WWDC 大会上,苹果宣布 iOS 11 中全新的增强现实组件 ARKit,到现在,App Store 上已经有了大量基于 ARKit
打造的各种应用和应用内部的 AR demo 功能。
今年 7 月份的时候,ARKit 平台加大对地图导航的支持度,很快就有开发者演示基于 ARKit 的实景增强导航,引发了大家对 ARKit
导航功能上的关注。现在,将苹果 AR 与导航结合在一起的应用正式落地,由第三方利用 ARKit 套件制作的 AR 导航—— ARCity 上架 iOS。
ARCity 的基础功能是导航,和平时使用地图一样,用户拿着手机定位,搜索目的地,随后出现导航路线,此时只需要将摄像头开启进入 AR
导航模式,就可以实时在画面中看到各种箭头标识,用户直接跟着箭头走就可以了。类似的功能在别的地图 App 里也结合 ARKit 有所体现。
根据开发方 Blippar 介绍,AR City 使用了 ARkit 中的 VIO(visual inertial odometry
视觉惯性里程计)功能,通过摄像头移动的画面来计算移动距离,能实现比 GPS 更精准的定位功能。
而 ARCity 和 AR
的结合更为深入,它可以实时在画面上显示你所在的街道的名字,你离拐弯处的距离变化等等,这些信息都是“贴”着画面中的现实场景,所以即便你是一个路痴,也知道该怎么走。比传统的导航更为先进了。
重要的是 ARCity 可以通过 ARKit
调用更丰富的地图信息,在界面中为用户标示出周围建筑物和商店的名称、信息、评价、价格等等。例如,用户可以用摄像头对准街边的饭店,画面即可显示出该饭店的名字,订餐电话以及评级等信息。
不过目前这个功能只在伦敦市中心、加州山景城和旧金山三个地区可用,想要真的派上大用场,还得等它支持更多城市才行。
ARCity 应用现在处在 BETA 阶段,还需要不断完善。先不说功能上,它在使用性上面临着目前所有 AR
应用都存在的尴尬,第一是极度耗电,第二是必须举着手机。由于导航 App
的性质,成熟的产品基本需要解决适应户外(使用便捷)、长时间启用(不耗电)、不妨碍步行或交通(语音模式)等问题。ARCity 等类似的 AR
导航显然还达不到理想。
我们多次和大家讨论过,现阶段的 AR 技术处于 AR 发展的最初级阶段,ARKit
也是最初级阶段的其中组成部分,它还需要很长的发展时间才能接近我们想象的那样子。但这个平台的出现,以及 AR 的进步,绝对会让导航应用也迎来变革。
在 iOS 系统下,ARKit 在导航层面主要是使用摄像头和运动数据来绘制用户移动时本地的地图。而平常所用
CoreLocation(定位服务)的工作是使用 WiFi 和 GPS 数据来确定位置,精度比较低。
ARKit + CoreLocation 的解决方案,即是将高精度的 AR 与 GPS 数据相结合,它允许使用真实世界的坐标将元素放置在 AR
世界中,利用最近的位置数据点,并结合有关 AR
世界运动的知识,极大地提高了定位精度。虽然位置精度的改进目前还处于实验阶段,但在未来可能是最重要的组成部分。这些技术结合起来的潜力是巨大的,在许多不同的领域有着很多的应用。
就比如 ARCity,只要它能解决一些技术上的限制,将成为很多人出行的好帮手,甚至驾车出行也可以看着它导航。不过,前提或许得是苹果先把 AR
眼镜做出来。所以其实 AR 眼镜的推出也是呼之欲出的,因为 AR
的进化要求交互方式的进化(一直举着手机左晃又摆的看太蠢了),所以必须跳出这方小小的手势触摸屏,催生交互平台也就是硬件设备的更新。
在苹果 ARKit 之前,已经有不少企业在 AR 的地图应用上进行了大量摸索。今年的谷歌开发者大会上,谷歌推出的 Google Lens
就提供了类似的功能,在摄像头画面标示相关信息,你要知道,它已经是个完成品。而 Blippar 的 AR City 可以说在 iPhone 上完美的“复制”了
Google Lens 的功能,不过将其用在了导航这个方向。
类似的导航在国内也有,号称解决最后一公里的“随便走”就是以增强实景导航为卖点。但我们得说,类似的功能在得到最重要的摄像头+系统级支持——比如苹果的深度摄像头
+ ARKit,谷歌的 Google Lens + AR Core,将能得到更好的发展空间,更利于开发者往更深度、更细致的体验去做设计。