据彭博社报道,苹果目前正在与英飞凌,索尼,意大利和松下等制造商进行磋商,并希望在2019年在iphone上使用tof技术来创建3d后置传感器。苹果计划将iphone x前置truedepth传感器保留在使用中,当后面的3d传感器做完后,拥有一对3d感应前后苹果iphone将成为现有技术条件下的最佳ar设备,直接领导android阵营数年。iphone x的face id的原因是,前置3d传感器可以生成准确的3d图像,并完成人脸识别和人脸识别功能。但前置传感器主要使用人脸或自拍以取得进一步的ar效果,具体取决于后置镜头和后置传感器。
所以现在苹果的眼睛固定在传感器发展的后面,据介绍,苹果后面的三维传感器正在使用飞行时间(time of flight / tof)技术,即由近红外光传感器调制问题,物体反射后,传感器通过计算透射光与反射光或相位差,转换成拍摄场景的距离,创建深度信息,并结合传统相机,可以在物体的三维轮廓不同的颜色表示地形图的不同距离方式。
尽管目前使用的iphone x前端传感器结构轻(结构化光源)技术不同,但是前后两个传感器,都是服务于ar,而后端3d传感器在ar中的应用更为频繁和更为常用。现在手机ar的效果,主要是利用普通的手机相机结合惯性测量,陀螺仪传感器来实现,也许大家发现,在玩ar app的时候会提醒你必须在水平面发生成像增强。例如,如果您想玩ar游戏,则必须将相机指向桌面,然后在桌面上生成虚拟对象。而且,生成的图像也是水平放置的,很多时候,这个对象不能形成其他形状,比如垂直或者靠在其他物体上。
镜头发生移动,或者镜头对准的位置不符合“水平”这个条件的时候,ar 效果就会丢失。当然,生成 ar 对象也必然存在立体透视问题。这就是现下普通手机摄像头的 ar 效果,也是未来后置 3d 传感器正好解决的问题。用上了 3d 传感器之后,iphone 就可以获取深度环境信息,从而生成更具有立体感,和周围环境契合度更高的 ar 效果。直接了当的说,就是我们玩 ar 的时候,ar 画面变得更逼真,更有立体感,有纵深感。而且重要的是,不用弓着腰扎着马步在那寻找“最佳角度”,传感器 软件能够自己分析 ar 出现的最佳位置。
上一篇:传感器发展的聚集与整合
下一篇:传感器是工业机器人的重要组成部分