哈佛教授从蜘蛛身上找到启发,自动驾驶或许有
现在的自动驾驶汽车配备的视觉传感器,比较主流的有激光雷达和高清摄像头两种技术。对于未来趋势,很多人会猜测:究竟哪种技术会胜出?
激光雷达和高清摄像头的特点是:激光雷达技术更优,对驾驶安全性更有保证,但成本更高;摄像头主要通过算法进行图像识别,劣势比较明显,但是成本更低。
就价格来看,摄像头系统价格普遍在200美元以下;而激光雷达由于成本原因,迟迟未能普及,以Velodyne为例,他们的16线激光雷达售价虽然已经降至3999美元,但车载标配的64线激光雷达仍然高达50万元,128线更是天价。特斯拉的CEO马斯克曾经在公开演讲的场合声称激光雷达没有用,认为用视觉的摄像头就可以解决自动驾驶问题。但是在视觉摄像头技术还未完全成熟的情况下,还不能证明它的安全性能达到激光雷达的水平,因此完全不用激光雷达目前来看是不可能的。
所以,一种价格高,性能优;一种价格低,性能相对劣势。两种技术之间的竞争,是否有普遍的发展规律呢?
技术产业化的一个普遍的规律是,随着技术的大量应用,性能好的更贵的硬件(比如激光雷达)会随着产量增加,价格急剧下降,最后被市场接受。但是在之前的过渡阶段,就自动驾驶来说,很有可能出现两种技术融合的趋势,比较一辆汽车同时配备激光雷达和高清摄像头,进行优势互补。
但是要注意了,也有另外一种可能:更加便宜的第三条技术路线会脱颖而出。
全球科技创新产业专家、海银资本创始合伙人王煜全说过,虽然科技创新没有办法预测,但是科技创新进入社会对市场形成影响是可以预测的。意味着如果你从高校的科研成果就有系统的监督和跟踪,那么你对科技趋势的判断也会有一个准确的把握。
就自动驾驶的视觉传感器技术来说,哈佛大学的一项科研成果:利用超透镜(超薄的纳米光子组件)的深度传感器,有可能成为继激光雷达和高清摄像头之后的第三种技术路线。
为什么它非常有价值?因为它实现了深度视觉,也就是说光学镜头不仅仅能依靠算法来判断物体,它也能够像激光雷达一样来测量距离了。
在得到知识城邦上,王煜全介绍了这项前沿的科技成果。经过深入的分析后我们发现,这项技术的应用可不仅仅是自动驾驶那么简单,其发展潜力远远超乎了我们的想象。
技术的原理是从蜘蛛身上受到的启发。我们人类的眼睛获得距离信息的方法,是将左眼和右眼同时获取到的两幅略有差异的图像进行搜索对比(你可以把手指放在面前,交替睁开左右眼,这时你就有体会了吧),但是,这种方法不够精确,而且处理繁琐。人类有一个强大的大脑可以处理这些任务,但是蜘蛛却没有。
其实,蜘蛛已经进化出了一个比我们人类更为先进的深度感知系统。蜘蛛捕获猎物(比如苍蝇)之前,用主眼注视苍蝇,这时只有主眼视网膜的图像是清晰的,而其他眼睛视网膜上的图像会显得模糊,这种模糊变化的背后则直接隐藏着距离的信息。确定好距离后,蜘蛛能够准确地跳跃到离自己身躯好几倍远的地方,对猎物发起致命的攻击。
在哈佛大学的实验中,研究小组模仿蜘蛛的原理,将两个具有不同深度焦距的透镜共同放到一个光圈中,构建出一个“超透镜深度传感器”。在下方我们放了一张实验中的拍摄图片,可以看到在不同距离下拍摄到的物体模糊程度的变化,包括果蝇、水柱,还有半透明的蜡烛(这类物体往往无法通过激光雷达或ToF测量)。
那么哈佛大学的这项研究成果未来会不会取代激光雷达呢?王煜全认为,虽然现在判断还为时尚早,但至少这项研究成果为我们提供了另一种可能性。未来激光雷达和具有深度视觉的摄像头进行互补,发挥各自优势的可能性会更大。
这项技术还有一些优化的空间:一个是传感器体积。目前,用现代设备也可以实现这种方法,但是需要非常大型的光学摄像头和电动机械组件,这种摄像头可以拍摄不同焦点的照片,但是由于体积庞大而笨重,限制了传感器的速度和实际应用场景。而哈佛大学在实验中的“超透镜深度传感器”,体积只有4×4×10cm。虽然这个体积还不算小,但这只是一个实验室里的原型,其中超透镜材料(也就是超薄的纳米光子组件)直径仅有3mm,未来传感器的尺寸还有很大的缩小空间。
另外,实验中的计算机采用了英特尔i5-8500K处理器和NVIDIA Titan V显卡,通过优化代码和硬件,还可以进一步提升速度。基于以上两点,未来还可以用于微型机器人、侵入式医疗设备、小型穿戴设备、轻便型AR眼镜/VR眼镜、甚至手机等产品的传感器上。
顺便说一句,手机的要求也极大推动了摄像头的进步,苹果的iPhone 11的三摄像头设计被称为浴霸,但华为随后就推出了四摄像头手机。摄像头越做越小,光学透镜已经难以满足需求了,更小的金属透镜是未来的方向,如果能在手机上叠加超透镜传感器,是否会增强手机的3D建模能力,也是我们希望看到的。