随着现在的生活水准越来越高,大家购买苹果的产品也是越来越多了,那么苹果的产品当中有很多的功能大家是未必知道如何去使用的,当然也包括要去多了解苹果新出的新功能之类的,那么今天小编就收集了一些关于苹果透过LiDAR开启扩增实境领域大门AR眼镜随后就到的一些信息来分享给大家,欢迎大家接着往下看哦。 苹果在2020年首波新品中,率先替新款iPadPro加入双镜头与全新LiDAR(光学雷达扫描仪),在外型依旧延续採用前一代外观和萤幕,处理器A12Z也仅针对GPU提升,反而不少人被新款巧控键盘给吸引住,从里面也让我们看见苹果对于iPadPro定位与未来方向有了重大改变,iPadPro将会是第一款拓展AR扩增实境设备。 几乎每一代苹果产品都会有个最亮眼功能,今年2020款iPadPro最重要和主打功能就是LiDAR,也许这块镜头模组就像是iPhone11Pro造型,苹果在多年AR布局后,在2019年WWDC上替ARKit更新至3。5,今年先是替iPadPro加入ToF(TimeofFlight,飞时测距),随后iPhone12Pro系列也会加入,软硬体都到位后,那么相信AR领域方向也就从今年开始拓展。 两大阵营ToF差异性 我们所知道苹果不会贸然使用一个不成熟技术,也许有人会认为安卓手机早已经有ToF相机,苹果到现在才加入,也许又会被不少人认为那有什么好得意? 到现在安卓阵营多数还无法确定未来发展,甚至小米集团副总裁兼红米品牌经理卢伟冰认为:ToF小米技术预研早就ready认为是个噱头、没啥用,骗用户瞎花钱。,但荣耀产品副总裁熊军民反驳认为:这是你解决不了问题,也不能认为别人也没能力,一个公司可以没有自己的技术,做整合也不可耻,但是要指责别人的努力和进展,变成反技术公司就不太合适。 实际上小米是因为ToF传感器分辨率低、功耗大、不成熟最终导致无法量产;连同GoogleTango系列也早已经加入结构光(Structuredlight)和ToF技术用于AR功能,不过因为体验不佳和生态过早,最后表现不佳。 然而其实Google阵营手机与Apple手机所用的ToF模组也不太样,Android多数都是採用iToF模组,而iPadPro这次搭载的是dToF模组,两者差异可透过下方表格了解:iToFvsdToF模组模组iToF indirecttimeofflightdToF directtimeofflight原理间接飞行时间法直接飞行时间法优势原理简单 系统设计难度低速度快功耗低 抗干扰能力强(光源) 无需模数转换 时间採样在皮秒、纳秒级缺点精準度与解析度低 精準度会随距离明显下降 功耗随距离会明显增加 容易受到外部光源干扰 模拟电路价格 标定相对複杂晶片和系统设计难度高 如今在三星、华为、OPPO、荣耀、vivi厂商也都替Android手机加入ToF镜头,但目前面临最大的问题解析度低、功耗高、容易受干扰,多数只用于人脸特效、美颜、散景和暗部对焦,在3D建模和AR功能则是还没有广泛被利用,也不太明显,最主要是因为GoogleARCore发展比较缓慢、硬体需求高,最后造成大家各自研发,对于一般用户没有高度使用需求,比起AppleARKit差异极大。 iPadPro搭载LiDAR开启AR大门 在苹果替推出2020款iPadPro后,可能感受不出来有明显改进,镜头额外加上一颗超广角镜,双镜头规格其实就与iPhone11完全类似,处理器升级至A12Z反而被认为是在挤牙膏,导致这次升级确实不明显,导致受到普通用户重点变成巧控键盘设计上。 如今苹果不管是在新闻稿或是官网iPadPro介绍,在LiDAR功能介绍就佔了不少页面,开头更写着它的专业级相机,可转变真实世界的实境。暗示将透过镜头实现AR实境,那么可以确定AR虚拟实境是未来几年最重要的发展方向。 比较令人感到兴奋的是今年开始有大动作,从WWDC2019发表会上公布ARKit升级后,率先替iPadPro新加入一颗全新ToF模组,并称之为LiDAR(光学雷达),不论在室内或室外,都能利用直线飞行时间,来测量最远达5公尺的光线反射,替AR扩增实境带来更不一样体验,整体在软硬体都全到位后,那么AR也将会全速发展。 不过LiDAR到现在可能大家还有点模糊,不太懂这玩意到底是怎么运做,底下告诉大家: 可以将ToF视为蝙蝠,能够在一个看不见的环境中,利用超音波回声侦测环境和猎物,其实原理就像是LiDAR技术。 但是ToF并不是透过超音波,而是利用光线射出后计算反射时间,我们知道光线射出到不同物体上,深度都会不同,回来的时间也就会不一样,这样就可以準确得知深度,当然苹果的LiDAR比起安卓dToF相机更为複杂和先进技术,相对在深度上就会获得更準确资讯。 苹果还特别强调光学雷达扫描仪可以光子等级运作,以奈秒(1秒的10亿分之1)的速度从光子层运行扫描,甚至被NASA运用在接下来火星登陆任务上,意思为即时测距系统已经设计到非常完善。 AR到底能用在哪些地方? 那么LiDAR真的可以改善AR体验吗?或许大家可以透过iPhone玩看看现有内建的AR应用测距仪App,如果有使用过会发现到,在量测空间、家具等物体的长宽高数值时,会发现有时候定位的线会跑掉,那在搭载LiDAR扫描仪后,就不会出现这类情况。 主要是因为LiDAR(光学雷达扫描仪)与镜头、动作感测是和iPadOS架构同时实现软硬体运算,能够快速测量深度,如画面有人遮住或动作时,就不会导致人与背景之间出现明显白边或马赛克情况,AR体验效果就会更加明显。 同时苹果也已经预告测距仪App还会加入尺标显示方式,可进行更精细的测量,并可让使用者储存所有测量的列表并搭配截图,以供日后使用。 苹果已经在AR深耕多年,甚至还特别规划一个独立页面来介绍AR(扩增实境),在官方提到一句话:扩增实境(AR)是一种运用科技的全新方式,改变你工作、学习、游戏以及与周围一切联繫的方式。而这,还只是个开端。一个全新世界,欢迎你加入。 看完这句话,非常确定苹果已经定下AR领域发展方向,将会运用于工作、学习、游戏、生活四个层面上,并不像是Android只是单纯用来美肌让人感觉摸不着前方的路。 看完以上官方影片后,可以让我们清楚AR非常适合应用于室内设计,影片中更展示透过《Shapr3D》测量深度技术,可以将画面拍摄起来后立即转成3D场景模型,大量减少建模时间也能依照客户要求做及时修改。 甚至还可以透过《IKEAPlace》先挑选家俱,可以藉由AR来摆放合适的沙发、桌子、地毯、檯灯等,能避免买错家具。 在游戏运用上,也是能够让游戏场景与实际场景叠合,让画面看起来就更逼真,在这部分则是可以看见《HotLava》游戏可以将热岩浆与真实场景进一步结合,就感觉真实环境有热岩浆。 iPadPro和iPhone先开路,AR眼镜随后就到 也许iPadPro早该在去年就推出,不过被延迟到了今年才发表,至于延迟原因不太确定是什么造成,但苹果为什么会选择iPadPro当成首款LiDAR机种? 根据疯先生的理解,iPadPro运算、GPU速度非常适合用来生产测试AR应用工具,也就是这款产品是目前让开发者研发AR最佳产品,毕竟目前AR市场最需要的就是要有大量的厂商投入开发应用和游戏。 接下来下半年iPhone12Pro系列也在iOS14代码中,被证实会搭载LiDAR扫描仪,从这些步调来看,iPadPro和iPhone12Pro算AR开路先锋,据传苹果也已经布局好未来三年新品,将于2021年至2022年也将会推AR穿戴式头盔,直到2023年才会额外推出一款轻型AR眼镜。 实际上看起来也非常合理,毕竟这颗LiDAR扫描仪直接嵌入至头盔和眼镜内,运算则是由iPhone处理,搭配AirPods当成耳机,即可够让用户不需要透过iPad或iPhone萤幕,藉由眼睛看见虚拟实境世界,精準判断周围3D深度、精準计算画面、物体位置,更能打造完整AR体验。 那么你觉得哪个新技术能够改变现在手机产业?是以弯曲萤幕吗?还是AR眼镜会比较有机会? 两年~三年后,如果再回来看这篇与这句你的下一部电脑,非电脑。和它的专业级相机,可转变真实世界的实境。相信会更有感。如喜欢这篇文章教学的话,后续也想了解更多Apple资讯、iPhone、Mac隐藏3C技巧,欢迎追蹤疯先生FB粉丝团、Telegram、MeWe、Instagram以及订阅YouTube频道,将会有更多非常实用的技巧教学分享给大家。