上海公关公司:苹果秋季新品发布会:有失望,也有亮点

2023-04-21
    期待已久的苹果新品发布会终于来了,传说中的iPhone8和iPhoneX一起亮相,脑极体的老伙伴们决定也跟个风解读一下。
    关于发布会的情况相信大家已经在其他地方了解到了,这里我们就不再赘述。不过本熊作为忠实的苹果用户(因为安卓系统太复杂我不会用),一定要吐槽一下!!齐刘海难看我忍了,iPhone8翻新iPhone7我忍了,取消home键手势操作我也忍了!为什么要取消TouchID??有了指纹解锁之后我把所有密码都忘了你跟我说换成FaceID?
    脱粉了!毕竟买不起!
    当然啦,iPhone8和iPhoneX还是有很多亮点的,今天就为大家简单介绍一下。
    意料之中的AR
    首先就是AR,果不其然ARkit成了今年新iPhone的重点。发布会上,苹果全球营销高级副总裁PhilSchiller介绍了4款AR应用,还宣布了和乐高、宜家等等多家合作方的合作计划。
    虽然相比Facebook的开发者大会,苹果的ARkit来的似乎晚了一点,但也能看出苹果在AR上下了不少功夫,尤其是在硬件上。
    iPhone8有专为AR校准的摄像头、全新的陀螺仪、加速器。摄像头一直是AR硬件的重头戏,之前说过镜头成像一直存在于像素、感光这些二维层面,想要感知周围环境,通常需要LBS系统的配合。这也导致了大多AR应用只是图像识别+边缘融合,把图像(视频)和图像简单结合,加上LBS自身的限制,系统常常无法“感知”自己的位置,造成卡顿、丢失对象等等情况。
    其实苹果在发布会上提出的陀螺仪和加速器都是存在很久的硬件,最大作用是感知动作和位置的变化,也就是演示中《战争机器》游戏操作的部分,让手游也有了点体感游戏的味道。至于低光线帧数60fps的、为AR校准摄像头,会中没有较详细的解读,但结合讲解可以判断,苹果应该是通过大量图像识别技术来补充镜头成像不能感知周围环境的缺陷,以往AR的图像识别只是识别人脸、或者“福字”这种简单的对象,而iPhone8则可以一起识别周围环境。
    期待已久的深度传感器
    出现在了FaceID上?
    其实这一点是很令人意外的,因为在解决镜头二维成像不能感知环境和位置这一问题上,大多数人认知里是增加一个深度传感器作为补充,苹果也早被爆出收购了以色列传感器公司PrimeSense。本以为会在iPhone8上见到,没想到苹果把这项技术用在了iPhoneX的FaceID上。
    没错,就是发布会上提到的用红外线扫描脸部,这也是iPhoneX的人脸识别和很多竞品最大的差别。我们目前接触到大多数的人脸识别,提前还是拍下一张照片,识别时通过摄像头对脸部成像,以二维图像和二维图像进行对比,这就很容易造成在不同光线下鲁棒性高、戴眼镜帽子难以识别、容易被其他手段欺骗等等问题。
    可iPhoneX应用的深度传感器技术,具体是哪一种计算方式我们尚不清楚,但从演示来看,很有可能是TOF(Timeofflight),直译过来是飞行时间,原理是给目标续发送光脉冲,然后用传感器接收从物体返回的光,通过光脉冲往返的时间计算传感器和目标物体的距离,从和获得物体之间的位置关系。
    也就是说,和普通人脸识别的二维成像不同,iPhoneX扫描人脸时生成的不是2D图片而是3D模型,或者说,生成的是一种人脸部对光线的反射关系。如果真的像发布会上说的那样,误差率降低到1/100000,那iPhoneX的深度传感器技术精度可以说是非常之高了。所以那些卸妆了不能识别、网红会解锁彼此的手机等说法,也就当个段子娱乐一下。这一技术也让iPhoneX前置摄像头的AR成像非常之精准,虽然自拍滤镜已经是AR里最烂大街的一项,但发布会上的演示效果依然惊艳。
    让人疑惑的是,苹果没有把这一技术放到iPhone8里,甚至也没有放到iPhoneX的后置摄像头中。原因到底是什么?也许是成本太高,也可能利用深度传感器识别环境的计算量太大,又或者是不想因为硬件增加ARkit生态的入门门槛吧。
    A11芯片,也许是你
    不得不买肾8的理由
   

推荐阅读

  • 活动策划案例CASE