Apple总算在今年的WWDC上推出了增强现实(augmented reality,AR)的开发者平台,这对开发者而言是个好消息。
ARKit,就如这套工具的名字一样,让app开发者可以利用相机、传感器的详细数据,将数字对象投映到3D空间中,这使得它们远远超过了阳春的2D相机,这将使开发者们不需要使用重型的工程软件,如Snapchat的AR滤镜World Lenses。
ARKit很有可能成为苹果公司与Google在AR领域一较高下的关键开发平台。Google最近的AR产品才为基于智能手机的AR技术设立了极高的标准,而ARKit的加入,除了成为Google强劲的竞争对手之外,也将打开AR眼镜以及虚拟现实(virtual reality,VR)的大门。
为在真实世界与虚空间之间创立对应关系,ARKit使用一种称为“视觉惯性测距”(visual-inertial odometry)的技术,将来自iOS设备如iPhone、iPad的运动传感器的数据与设备相机可见的场景相结合,ARKit得以识别场景图像中的特征,并在用户移动装置时,追踪相机里这些特征在位置的变化。
这种技术不在空间中创建3D模型,而是将对象“钉”在某一个点上,在现实中改变其比例与视角,它也可以找出那些易于放置数字(虚拟)对象的平坦表面。
这听起来有点像是Google的Tango技术,它同样也是利用摄影镜头实现位置探测、动作追踪,之后再透过算法来实现空间定位,将现实世界、虚拟图像相结合。
不过,相对于Tango,ARKit还有一项优势,那就是苹果已经拥有庞大的苹果设备作为基础,而Google却需要每个Android手机制造商都在手机中放入Tango硬件。
Facebook与苹果各自的优势
提到对AR的野心,总不能忘了Facebook。Facebook近来致力于推动AR发展,不过开发者却只能相当有限地利用Facebook自家的相机app来开发,而苹果却拥有众多独立的iOS app,这也就是为什么,苹果会说“有了ARKit,iOS将成为世界最大的AR开发平台”。
不过,从另外一发面来说,ARKit的运作方式还是与Google的Tango技术有些许不同,Tango拥有更多的摄影镜头,提供更广角的图像与深度数据,而且Google过去几年累积起来的经验,让它拥有更精准的追踪技术,Tango让开发者可以扫描整个房间、并立即建立起一个相同的3D模型,比起ARKit,Tango更加容易。
ARKit可以改善现有AR app的各项元素,苹果公司指出,ARKit只使用了手机CPU的一小部分,因此可以使AR消耗较少的资源,但仍拥有iPhone和iPad的基本追踪功能,让开发者不用去建构、开发自己的追踪和影像系统。
开发人员可以用苹果的新机器学习框架来识别场景中的对象,但苹果想做的,却不是像Facebook在F8上运用的方法来识别葡萄酒;或者Google在I/O上让Google Assistant翻译标语,这些都不是苹果真正想做的。
ARKit是苹果AR产品的垫脚石,亦是通往VR的大门
苹果正在开发AR眼镜的消息已经越来越明确,而这间公司理所当然地需要更多的AR app,推出ARKit之后,开发人员会开始思考将AR技术纳入软件开发中,亦是希望可以得到一些有效的策略,让苹果免于落入和Google Glass一样的结局之中。
而若是手机可以追踪某人正在虚拟对象旁走动,那么在理论上,人们也可以将VR眼镜与iPhone结合起来,让用户戴着VR眼镜在虚拟世界中走动,这也是为什么Google会将Tango技术用于其VR眼镜。
在所有对AR的狂热之中,还没有人推出以AR为主要卖点的app,Pokémon Go只是AR应用中的一小部分,且多数人在游玩Pokémon Go时,大部分会选择「关闭AR」模式,让宝贝球变得更容易捉到宝可梦,在Snapchat、Facebook上,AR也变得可有可无。
让AR变得更加容易、更亲民可以改变这点,而iPhone将可以使AR技术普及。Tim Cook已经不只一次表达他对AR、VR技术的兴趣,而在今年的WWDC上,新的iMac功能之中,也不断强调创建VR内容已经变得轻而易举,向开发者们提出了共同开发VR的邀约,种种迹象都显示出苹果对于相关技术在未来发展的野心,其他竞争者可能要更加注意苹果的脚步了。
评论 (0)