iPhone 的“第四颗摄像头”位置,为什么给了激光雷达?
2020-10-19 07:28

iPhone 的“第四颗摄像头”位置,为什么给了激光雷达?

本文来自微信公众号:爱范儿(ID:ifanr),作者:朱海,题图来自:视觉中国


一个,两个,三个,四个……旗舰手机摄像头从 2016 年开始,以大约每年 1 个摄像头的数量在增长,有人调侃说麻将“八筒”将是所有智能手机摄像头的终极归宿。


今年全新一代 iPhone 发布前,不少人推测 iPhone 12 Pro Max 会配备第四颗摄像头,没想到 iPhone 12 Pro 系列在宝贵的“第四颗摄像头”位置,放置了一颗 LiDAR(激光雷达)


不按“常理”出牌,一直是苹果的“常理”。


一、LiDAR 是什么


竖着看,iPhone 12 Pro 系列手机摄像头模组右下方圆形黑色区域即为 LiDAR


LiDAR 的全称是Light Detection And Ranging,中文名激光雷达,是以发射激光束探测目标的位置、速度等特征量的雷达系统,由激光发射机、光学接收机、转台和信息处理系统等组成,可获得目标的距离、方位、高度、速度、姿态、甚至形状等参数,从而进行探测、跟踪和识别。


抛开专业术语,通俗理解 iPhone 12 上的 LiDAR,它就是一个能探测物体距离和记录深度信息的微型装置,和手机摄像头差不多大小。


工作的时候,LiDAR 可以实现两个重要功能。


第一,测算物体离手机的大致距离。


通过发射肉眼不可见的激光束来测算距离


第二,记录投射范围内事物的深度信息。



目前苹果给出的 LiDAR 范围是最远五米,也就是说,搭载 LiDAR 的 iPhone 12 Pro 系列手机,理论上可以测算和记录 5 米范围左右的距离和深度信息。


二、LiDAR 和 ToF 区别在哪里?


说到估算物体距离和记录深度信息,不少安卓厂商早在部分机型上搭载了 ToF(Time-of-Flight,飞行时间)传感器来实现这两个功能。


例如 P40 Pro 有一颗 3D 深感摄像头(ToF),可以深度感知物体深度信息,实现大片般的景深效果。



目前部分手机厂商大多采用 iToF(间接飞行时间传感器),而 LiDAR 属于 dTof(直接飞行时间传感器)


iToF 和 LiDAR 虽说都是 ToF,但区别不小。


第一,发出的“信号”不同。


iToF 发出的是经过正弦波调制,明暗强度呈规律变换的光信号。LiDAR 发出的是激光束。


dToF 原理


第二,估算距离的原理不同。


iToF 靠感知正弦波光信号的差异来“估算”其从发射到反射回来的距离。LiDAR 是激光直接测算距离。


iToF 原理


第三,精度范围、测算速率和抗干扰能力不同。


iToF 的信号很容易被干扰,测算精度随着距离变远而下降,测算也相对较慢,比较适合用于厘米范围内的测距。


LiDAR 的激光束抗干扰能力强,理论上测算精度不随距离变远而下降,测算更快,更适合远距离测距。


最后, iToF 更易小型化,dToF 集成小型化难度更高,所以两者有较为明显的商用场景差异,iToF 大多数用在手机上,dToF 比较常用在汽车和无人机等大型装置上。


汽车雷达


LiDAR 比 iToF 快、准、远,但集成难度更大,成本更高。苹果能把 LiDAR 集成在 iPhone 12 摄像头模组里,想必是花了一番心思的。


三、为什么苹果选 LiDAR


或许 iPhone 有一天会变成四五六摄手机,但在被人讨论“iPhone 拍照掉队了吗”的紧要关头,选择把宝贵的“第四颗摄像头”位置给 LiDAR,足以可见苹果对未来的布局多么重视。


苹果究竟想干嘛?


iPad Pro 2020 的官方网页上,苹果直截了当给出了答案,LiDAR 现阶段主要就是为 AR(Augmented Reality 增强现实)服务的。



在手机摄影几乎到天花板的时刻,苹果选择了一条和其它厂商不一样的路,没有选择上高像素和多倍光学变焦,而是加了 LiDAR,让用户记录“深度信息”。


用户能记录深度信息的好处非常明显,我把它总结为“双向融合”。


一个是现实虚拟化,也就是 AR,可以用摄像系统和 LiDAR 把现实事物的各种信息记录下来,再虚拟展示在屏幕上,从任意角度近距离观察,也打破了时间和空间的限制。


没有 iPhone 12 的深度信息,也就不可能使用 AR 观看虚拟 iPhone


另一个是虚拟现实化,也就是 VR,可以给虚拟的事物增加现实维度的信息,让虚拟事物在网络里“活”出现实事物的特征。


有了深度信息,照片不再是一个平面



动态 emoji 可以看做简化版的 VR,虚拟人物有了真实人物的面部深度信息数据


这两种融合都离不开深度信息,深度信息也是 AR 和 VR 打通的桥梁。比如老师用可以记录深度信息的 AR 设备自拍直播教学,学生戴上 VR 眼镜听课,每个学生看到的老师都是虚拟形象,但虚拟形象的表情和动作细节特征都是一样的,很难再单纯用 AR 或 VR 简单描述。


电影《头号玩家》展现了现实和虚拟的融合,推荐配合本文“食用”


四、再来说说手机


手机对于人类社会来说是什么?


这个问题很难回答。往小了说,它不过就是一台便捷的通讯工具,往大了说,它对人类社会的影响可以说无比深远。


回顾手机出现之后的人类历史,用户对信息处理交换的共性需求一直是去中心化。


一开始用户的共性需求是提升信息交流效率,所以手机的核心功能是打电话发短信。信息交流的中心节点 —— 被线绑住的固定电话、邮件、传真、邮电等被彻底边缘化,如今只是一种特殊场景下的补充工具。


接下来用户的共性需求是打破信息不平衡,进一步去中心化,每个人都想要有自己的声音,所以手机的核心功能变成了社交,大量社交 app 异军突起。


正是由于苹果的全触屏形态产品 iPhone,在恰当的时机精准高效地解决了用户在第二阶段的共性需求痛点,苹果才能打败诺基亚,一跃成为市场综合第一名。


现在,用户的共性需求会是什么呢?


用户需要进一步去中心化,不仅要发声,还要把自己的个体文明尽可能记录并传递下去,让自己的个体文明在人类文明史上留下记录。


iPhone 广告片展示 iPhone 的生活记录功能


很久以前,芸芸众生是没有历史存在感的,更不能掌握记录自身的工具。手机的出现,让存储在服务器上的数据变成了“个人史书”,这些渺小如蝼蚁的“个人史书”又发挥着无与伦比的影响力,共同组成了一部人类“大史书”—— 人类社会共同的大数据库,个体不再是历史里可以直接忽略的“无名”,也不是可以大笔一挥一笔勾销的某某,而是在人类共同“大史书”里一个个有血有肉的鲜活存在。


现在,LiDAR 给了我们更高维度的“书写”能力,在声音、平面图像、行为习惯等维度之上,增加了深度信息,突破了平面限制。


五、永生,从深度信息开始


对于普通用户而言,目前 LiDAR 带来的直观帮助还不是很明显,更多属于“有更好,没有也没多大影响”的程度。


它带来的潜藏益处却是非常明显的,如果条件和相机 app 允许,每个人一生中经历的每个场景,每个瞬间,遇到的每个人,看过的每朵花,摸过的每件餐具,每张自拍,都可以被 LiDAR 记录下深度信息,只要时机和技术成熟,数据量足够大,再配合以声音、图像、行为习惯等数据,完全可以在服务器中创造出一个虚拟的世界和虚拟的自己,和真实的世界和真实的自己一模一样,甚至等待科技水平足够高的那天,可以在现实世界中造出一个自己。


如果《西部世界》里的机器人都有一个对应的真实人类,那么拿到真人的深度信息则是制作机器人的第一步


如果哪天科技更加发达,可以赋予这个虚拟的自己一套“人性的算法”,百年之后,有人想我们了,只

需要进入虚拟世界,就能看到一个“活着”的我们,何尝不是做到了另一种形式的永生?


本文来自微信公众号:爱范儿(ID:ifanr),作者:朱海

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定