1700045389
数码相机
1700045390
1700045391
数字地图存储静态数据,帮助识别汽车位置,而数码相机则类似人眼,在实时数据流中捕捉车外环境。随着数码相机技术的高速发展,拍照速度越来越快,图片也越来越清晰,机器人专家迫不及待地应用这些先进技术来提升中层控制软件的性能。
1700045392
1700045393
二十年前的1994年,苹果公司和柯达公司联合生产的QuickTake 100堪称当时最前沿的数码相机。当时的QuickTake以小巧便携和储存量大而著称,一次能拍摄八张640×480(30万像素)的彩页照片、重量是16盎司(450克左右)。今天,消费级数码相机平均每秒就能拍摄超过30张高分辨率的照片。
1700045394
1700045395
弄清数码相机的工作原理非常重要,因为数码相片的结构会直接反馈至深度学习软件中。数码相机通过镜头以光子的形式采光。每个光子具有一定的能量。光子流通过相机镜头后,最终落在布满感光像素点的硅传感器上。感光像素点吸收光子的能量后转化成电能,储存为电荷。光线越强、光子的数量越多,电量就越高。光子击打在每个单元格的感光像素点上,随后被转化成计算机可读取的格式:一系列呈现每一个单独“图像元素”位置的数字合集,图像元素就是我们通常说的像素(pixel)。JPEGs、GIFs以及其他图像文件类型都是不同的储存途径。
1700045396
1700045397
数码相机借鉴了哺乳动物眼睛的一些概念。硅传感器在某种程度上与视网膜相似:两者的视觉数据都被拆分成几个小的视觉单位进行处理。视网膜上有数百万的生理感光细胞:视杆和视锥,吸收光子并把光能转化成神经信号,传输给大脑处理视觉信息。人眼内的视杆细胞和视锥细胞是不规则排列的,视网膜中部排列密集,边缘部分较为稀疏。而在数码相机里的硅传感器,每个像素在一定间距内呈矩形排列。100万像素的相机包含1000×1000个感光细胞,总共构成100万个像素。
1700045398
1700045399
一些适用于无人驾驶领域的专业数码相机功能,远远不止记录像素值。它并非从硅传感器的感光像素网格里直接输出光束的原始数字,先进的自动相机能自动分析图片数据。这样一来,图片的处理速度就能进一步加快了:相机先排除不相关的信息之后,再将数据输送给中层控制软件。
1700045400
1700045401
高级无人驾驶摄像机的处理得更到位:它首先处理图片包含的内容,把检测到的物体列成清单,并把结果制成表格。例如,这种相机描述的一个场景是:
1700045402
1700045403
1. 在左上方的角落有一个行人,以每秒1.23米的速度向左移动。
1700045404
1700045405
2. 最右边,消防栓,静止物体。
1700045406
1700045407
3. 左车道,一辆卡车以每秒5米的速度靠近。
1700045408
1700045409
4. 东南方向,不明物体,静止。
1700045410
1700045411
1700045412
1700045413
1700045414
图8.2 图片拍摄于曼哈顿第十四大街,从第五大道往西看。左图为人眼所见,右图为相机所见。你能通过只观察数据,分辨出图片上的人和背景有何不同吗?
1700045415
1700045416
来源:维基百科
1700045417
1700045418
自然生物有两只或两只以上对等排列的眼睛,能够适应物体的深度感知,生物学家又把这称为“立体视觉(Stereo Vision)”。然而,数码相机是没有立体视觉的,这是限制数码相机在无人驾驶领域应用的最大问题之一。数码相机根据像素网格里的光线强度来捕捉信息,把三维数据世界转化成简洁的二维格式。但捕捉过程中,会遗漏一则深度感知的关键信息:物体与相机之间的距离。
1700045419
1700045420
科学家研究了多项不同技术来克服这固有的限制。解决方案一是在同一辆车内放置多台数码相机。在一辆无人驾驶汽车里,精心布置多台摄像机来捕捉同一个镜头,每台机器的角度有细微的差别。这样能帮助计算机重建3D场景,对周围环境有更清楚的认识。
1700045421
1700045422
另一个可能方案是结构光相机(Structured-Light Camera)。使用拥有投影功能的数码相机,使图片数据拥有其深度信息。为了达到深度感知的仿真效果,结构光相机将光线投射到场景上并测量其失真度。通过失真度的测量,结构光相机能从中计算出深度。
1700045423
1700045424
结构光相机对无人驾驶汽车,就像Xbox Kinect外设对于交互式电子游戏等室内应用程序一样影响巨大,只是现在还不能确定结构光相机是否能为无人驾驶汽车找到一个稳定的“家”——结构光相机最大弱点之一是其投射的光线在日光充足的白天时段运行不畅,而且被投射出的光线会受到自然光的干扰。另外,当物体距离超过10米时,这种感知方案也不可行,这一点很可能成为结构光相机应用在快速移动的车辆上的致命缺陷。由于以上种种限制的掣肘,结构光相机最好的应用是在室内环境中,比如指引无人驾驶汽车出入停车场或车库,以及感应乘客的靠近车辆的移动。
1700045425
1700045426
数码相机持续呈现飞跃式发展,然而让人哭笑不得的是它还有一个低技术含量的弱点:污垢。即便是最好的自动数码相机,只要沾上一抹污泥,就不能正常工作。路边扬尘、沙土、鸟粪、虫子以及其他户外驾驶可能遇到的任一情况,都能妨碍最精密的数码相机和机器软件的正常工作。于是,我们能得出低技术含量的对应解决方案——给车载相机安装清洁器,好比普通汽车的挡风玻璃上装有雨刷,也像人类的眼睛少不了眼泪的清洁和眼睑的保护。
1700045427
1700045428
许多针对数码相机弱点的解决方案,最终安装在汽车操作系统上。为了确保车载相机的洁净干燥,每一辆无人驾驶汽车都要配备周期性自我检测的软件工具,它能对数码相机产生的数据质量进行定时自我检测。人工智能软件不断升级,为无人驾驶汽车提供的指引也越来越完备。将来的某一天,它能自动修正视觉数据错误,帮助无人驾驶汽车超越人类司机,在浓雾、暴雨和炫目的阳光下也能看清楚路况。
1700045429
1700045431
光检测与测距(激光雷达)
1700045432
1700045433
除了数码相机之外,另一类主流的传感器就是激光雷达,全称是“光检测与测距(light detection and ranging)”,亦称“激光雷达(Lidar)”。数码相机的工作原理是把三维视觉空间拆分为二维像素矩阵。激光雷达设备则不同,它向周围散射出强烈的脉冲激光,测算出光束反射回来所用的时间,然后根据激光测距原理计算出周围环境的三维数字模型。
1700045434
1700045435
和数码相机一样,激光雷达传感器的发展也遵循摩尔定律的轨迹,从20世纪60年代体积庞大、造价昂贵的固态设备转变至今天价格稳定的便携式设备。然而与数码相机不同的是,激光雷达的价格仍然高于人均消费水平。尽管每年的价格都在下降,2016年,Velpdyne公司生产的重600克的16线激光雷达测距精确到厘米,售价高达8000美元。
1700045436
1700045437
几十年来激光雷达一直被勘测人员应用于获取详细的地形信息。相比之下,“安装这种设备,把激光光束射入移动车辆的环境”的想法,比它的整个发展过程晚得多。早期的现代自动驾驶机器人比数码相机出现得还要早,为当时的无人驾驶汽车提供视觉数据的最经典传感器就是激光雷达。纵观三届DARPA挑战赛,激光雷达在获取车外路况方面扮演了极其重要的角色。堪称无人驾驶标杆的第一代谷歌无人驾驶汽车,改装过的普锐斯使用的就是激光雷达。
[
上一页 ]
[ :1.700045388e+09 ]
[
下一页 ]