打字猴:1.700045374e+09
1700045374
1700045375 高清地图的精确度区别于标准数字地图。高清地图既能反映大型地理特征,像是高山湖泊,也能反应诸如树木和人行道的分布等微观地形细部。应用在无人驾驶汽车领域的高清地图,重点呈现的是道路或十字路口的表层静态数据,比如车道线、路口交叉点、施工地段以及道路标志。
1700045376
1700045377
1700045378
1700045379
1700045380 图8.1  覆盖着传感器数据的十字路口高清地图
1700045381
1700045382 来源:HERE地图
1700045383
1700045384 为人类肉眼设计的传统地图是二维图形成像,用静态标记表示某个地方的著名地标。而高清地图有着强大的封闭式后端,高清地图所呈现的某个区域的图像,其背后是存储着数百万个地形细部的庞大数据库,每个数据还包含着地理位置、大小、方位等其他相关信息。
1700045385
1700045386 人类的大脑都储存着一幅高清的本地地图。事实上,我们的大脑拥有惊人的“自动更新”“自动修正”能力,让任何软件工程师和制图员都嫉妒不已。更新一幅高清地图是一个艰苦的过程,需要载着摄像机和激光雷达走遍区域中的每个地方。这个过程我们将在本章后面详细讨论。
1700045387
1700045388 无人驾驶:人工智能将从颠覆驾驶开始,全面重构人类生活 [:1700043810]
1700045389 数码相机
1700045390
1700045391 数字地图存储静态数据,帮助识别汽车位置,而数码相机则类似人眼,在实时数据流中捕捉车外环境。随着数码相机技术的高速发展,拍照速度越来越快,图片也越来越清晰,机器人专家迫不及待地应用这些先进技术来提升中层控制软件的性能。
1700045392
1700045393 二十年前的1994年,苹果公司和柯达公司联合生产的QuickTake 100堪称当时最前沿的数码相机。当时的QuickTake以小巧便携和储存量大而著称,一次能拍摄八张640×480(30万像素)的彩页照片、重量是16盎司(450克左右)。今天,消费级数码相机平均每秒就能拍摄超过30张高分辨率的照片。
1700045394
1700045395 弄清数码相机的工作原理非常重要,因为数码相片的结构会直接反馈至深度学习软件中。数码相机通过镜头以光子的形式采光。每个光子具有一定的能量。光子流通过相机镜头后,最终落在布满感光像素点的硅传感器上。感光像素点吸收光子的能量后转化成电能,储存为电荷。光线越强、光子的数量越多,电量就越高。光子击打在每个单元格的感光像素点上,随后被转化成计算机可读取的格式:一系列呈现每一个单独“图像元素”位置的数字合集,图像元素就是我们通常说的像素(pixel)。JPEGs、GIFs以及其他图像文件类型都是不同的储存途径。
1700045396
1700045397 数码相机借鉴了哺乳动物眼睛的一些概念。硅传感器在某种程度上与视网膜相似:两者的视觉数据都被拆分成几个小的视觉单位进行处理。视网膜上有数百万的生理感光细胞:视杆和视锥,吸收光子并把光能转化成神经信号,传输给大脑处理视觉信息。人眼内的视杆细胞和视锥细胞是不规则排列的,视网膜中部排列密集,边缘部分较为稀疏。而在数码相机里的硅传感器,每个像素在一定间距内呈矩形排列。100万像素的相机包含1000×1000个感光细胞,总共构成100万个像素。
1700045398
1700045399 一些适用于无人驾驶领域的专业数码相机功能,远远不止记录像素值。它并非从硅传感器的感光像素网格里直接输出光束的原始数字,先进的自动相机能自动分析图片数据。这样一来,图片的处理速度就能进一步加快了:相机先排除不相关的信息之后,再将数据输送给中层控制软件。
1700045400
1700045401 高级无人驾驶摄像机的处理得更到位:它首先处理图片包含的内容,把检测到的物体列成清单,并把结果制成表格。例如,这种相机描述的一个场景是:
1700045402
1700045403 1. 在左上方的角落有一个行人,以每秒1.23米的速度向左移动。
1700045404
1700045405 2. 最右边,消防栓,静止物体。
1700045406
1700045407 3. 左车道,一辆卡车以每秒5米的速度靠近。
1700045408
1700045409 4. 东南方向,不明物体,静止。
1700045410
1700045411
1700045412
1700045413
1700045414 图8.2  图片拍摄于曼哈顿第十四大街,从第五大道往西看。左图为人眼所见,右图为相机所见。你能通过只观察数据,分辨出图片上的人和背景有何不同吗?
1700045415
1700045416 来源:维基百科
1700045417
1700045418 自然生物有两只或两只以上对等排列的眼睛,能够适应物体的深度感知,生物学家又把这称为“立体视觉(Stereo Vision)”。然而,数码相机是没有立体视觉的,这是限制数码相机在无人驾驶领域应用的最大问题之一。数码相机根据像素网格里的光线强度来捕捉信息,把三维数据世界转化成简洁的二维格式。但捕捉过程中,会遗漏一则深度感知的关键信息:物体与相机之间的距离。
1700045419
1700045420 科学家研究了多项不同技术来克服这固有的限制。解决方案一是在同一辆车内放置多台数码相机。在一辆无人驾驶汽车里,精心布置多台摄像机来捕捉同一个镜头,每台机器的角度有细微的差别。这样能帮助计算机重建3D场景,对周围环境有更清楚的认识。
1700045421
1700045422 另一个可能方案是结构光相机(Structured-Light Camera)。使用拥有投影功能的数码相机,使图片数据拥有其深度信息。为了达到深度感知的仿真效果,结构光相机将光线投射到场景上并测量其失真度。通过失真度的测量,结构光相机能从中计算出深度。
1700045423
[ 上一页 ]  [ :1.700045374e+09 ]  [ 下一页 ]