[导读] 笔者一直想把近近几年在AR方面的学习、思考写成文字与各位看官分享,但又一直找不到好的切入点,思考良久觉得还是走技术流路线比较合适,于是将相对成熟的AR产品的资料梳理了一下,一一进行剖析,望能抛砖引玉。本篇选择的是国内的一款AR眼镜产品,厂商就不说了,下面开始进入正题:
HiAR Glasses
一、 硬件
1、cpu:
由于官方仅公布了cpu采供四核结构,gpu为mali双核结构,笔者估计应该选用的联发科的MTK6732 ,【参数为:4核A53 CPU, L2 Cache为512k,整合gpu为ARM MALI-T760 MP2 图形处理器运行频率为500MHz】综合性能上应该跟高通的骁龙600差不多,假如猜测成立,HiAR Glasses运算能力是稍弱的,AR显示方面的运算姑且够用,基考虑到设备还需通过深度传感器来实现交互功能,这款cpu所提供的运算能力就显得有些单薄了。(当然笔者也不排除采用类似微软那样的协处理的方式【虽然这个可能性极小】降低整个平台对CPU的负担。)
2、显示模组:
官方一样没有公布具体型号,仅公布了分辨率指标为1024*768(读者请自动忽视下方广告语),从sony公布的信息看其选用的型号应该是ECX331A(由于该型号发布较早,不排除厂商专门定制了改进型),在这里笔者关注的是亮度指标,通过X度大发笔者了解到这个模块的亮度大约为200cd/m²,GALAXY S6 edge的屏幕亮度约为550cd/m²,基于这个基础笔者认为该型号显示模块用于AR的亮度有些低,为提升虚拟画面的显示效果,只能通过采取增加滤光镜片以阻挡更多的外界光线射入的方式来提高效果。
3、光学部件:
从宣传图上看光学结构一体成型,笔者估计看应该采取的是全反射或折射原理来实现近视距成像,这种结构对显示模块产生的光利用率较高(较谷歌眼镜的半反射方式而言),但棱镜显示方案都无法回避以下两个问题,即:棱镜对显示的虚拟画面产生的色散问题,及真实画面因折射造成的画面变形问题。笔者没试戴过不知道厂商优化的效果怎么,这里不做评价。对于另一个指标FOV,厂商号称能到到GoogleGlass的三倍,也就是说大约能实现36度左右的视角,这指标与HoloLens提供视角差别不大,根据网上公开的数据看大致效果如下图,用来玩游戏肯定是不行的了。
4、输入部分:
从宣称片公布的资料了解到厂商采取了4套方案:
1、外置触控板;
2、9轴陀螺仪传感器;
3、深度摄像头;
4、视觉AR技术。
首先厂商在外置设备上配备了“疑似触控板”装置,笔者揣测该设备在系统层面采取的是2d模式,AR主要是应用的方式运行,所以厂商按照安卓系统操作习惯提供触控板的输入设备;9轴陀螺仪应该是用于头部姿态的实时定位,作为AR姿态追踪的补偿方案(AR姿态追踪笔者将在软件部分详细阐述);深度摄像头、核心AR视觉技术在厂商的宣传片中是以硬件方式介绍的,笔者理解应当是一套软硬件结合的解决方案,但遗憾的是厂商未提供任何技术细节,笔者揣测这应该是厂商的技术升级接口,目前应该还不成熟(估计厂商自己也不清楚)从以下新闻图片不难看出还是依靠触控板来操作设备。
5、外滤光镜
对于双曲面漫反射镜片,笔者深思很久也无法理解怎么个双曲面?还有是针对什么漫反射?姑且认为是厂商基于宣称需要的修饰广告词吧,在笔者看来这个镜片的作用就是降低外界光线穿透率,减小显示组件环境间亮度差异,以达到提高视觉体验的目的。
5、镜腿
工业设计方面各有所爱,各位看官各自发挥吧!笔者这里疑惑的是:这种一股脑的把全部元器件件都集中在镜框上,整个眼镜的平衡问题是如何解决的?厂商在空间利用上过于集中,镜腿的空间基本没有利用。另外作为原型机型谈论工艺什么的、科技与艺术是不是有些着急?
二、 软件:
1、 系统:
基于Android ,从保留触控板的设计来看厂商对单独开发3d交互界面的可能不大,笔者在上文也阐述了该设备在系统层面的操作还是基于触控板方式的2d模式,笔者曾经尝试过将手机连接头戴显示器,即便打开安卓的触控点显示功能,操作也很怪异。
2、 sdk:
官网提供的资料供提供4种版本的sdk,目前仅unity推出申请试用,其他均未上线,【这里笔者一直感到困惑:ios版sdk怎么使用?毕竟产品的系统是基于安卓(难道后期会出基于IOS的眼镜?)】,言归正传,从官网公开的几段开发视频看,目前能实现类似Qualcomm Vuforia的功能,即通过特征图片的识别来实现增强现实的功能,严格的说该SDK能提供的功能还仅仅局限于噱头的层面【详见下图】。
总结
产品无论是硬件还是软件成熟度不高,很难将其列入原型机,宣称中提到的功能大多停留在讲故事的层面,有过渡宣称的嫌疑,笔者揣测该团队的工作重心还是融资,最后笔者给开发者的建议是:初代产品(假如有的话)不建议入手,但可继续关注。
评论 (0)