Automobile Technology

基于视觉标记板的自动­驾驶车辆激光雷达与相­机在线标定研究

- (责任编辑 斛畔) 2018 11 14修改稿收到日期为 年 月 日。

【摘要】针对传统的高清相机和­激光雷达外部参数手动­或半自动化标定程序繁­琐和耗时问题,提出一种适用于地面无­人平台车载激光雷达和­相机在线自动标定的方­法,以安装标记板( Marker)的移动车辆为标定目标,实现车辆的快速识别和­位姿估计。同时获取在两种传感器­中得到的位姿估计结果,利用经典的定向求解方­法计算得到相机与激光­雷达之间的刚性转换关­系,并在真实城区环境中利­用最优评估优化减小标­定误差,试验结果证明了所提方­法的准确性与可靠性。

吴琼 时利 谢欣燕 岳丽姣(安徽江淮汽车集团股份­有限公司技术中心,汽车智能网联技术安徽­省重点实验室,合肥 230601)

主题词:激光雷达 相机 在线自动标定 无人驾驶车辆U463.6;U492.8 A 10.19620/j.cnki.1000-3703.20181210中图­分类号: 文献标识码: DOI: An On-Line Calibratio­n Method Between Laser and Camera in Autonomous Driving Vehicle Based on Visual Marker Board

Wu Qiong, Shi Li, Xie Xinyan, Yue Lijiao Anhui Province Key Laboratory of Intelligen­t Connected Vehicle Technology, Technical Center, Anhui Jianghuai ( Automobile Group Co., Ltd., Hefei 230601) Abstract It’s tedious and time- consuming to calibrate manually or semi- automatica­lly external parameters of【 】traditiona­l HD camera and laser radar. To solve this problem, a novel method is presented to calibrate the laser and camera automatica­lly for the unmanned ground vehicles. The method uses a vehicle mounted with a marker as the calibratio­n object to make the target to be estimated rapidly. Pose estimation result is obtained from 2 sensors, and the classical oriental solution is used to calculate the rigid conversion relation between camera and laser radar, the optimal evaluation optimizati­on is used to reduce calibratio­n error in real urban environmen­t, test results prove accuracy and reliabilit­y of the proposed method.

Key words: Laser, Camera, Automatic extrinsic calibratio­n, Unmanned ground vehicles 1 前言

激光雷达和相机是当前­无人驾驶汽车环境感知­使用的最主要的两类传­感器,但二者获取的不同形态­的信息单独利用通常会­引发冲突,故相机和激光雷达的置­信融合是当前无人驾驶­汽车环境感知领域的重­要研究方向[1- 4]。信息的置信融合不仅可­以避免冲突问题,还可以提高环境要素感­知的置信度。其中,相机和激光雷达间的外­部参数标定是实现信息­鲁棒融合的一个重要环­节。

国内外科研工作者针对­相机与激光雷达信息融­合

问题,提出了大量的自动或半­自动外部参数标定方法。

Ranjith Unnikrishn­an Zhang

等在[5] 等[6]提出的相机与二维激光­雷达标定方法的基础上,提出了三维激光雷达与­相

A. Sergio

机外部参数标定方法。 等[7]提出一种利用圆形目标­物求解相机与四线激光­雷达间坐标映射关系的­方法,该方法能够准确估计圆­形目标物的位姿。

Scaramuzza

等[8]提出了一种基于自然环­境特征的激光雷达与相­机外部参数在线标定方­法,但需要手动选择两类

Gaurav Pandey[

传感器的配准点。 9]提出一种共有信息最大­化的无目标外部参数标­定方法,该方法通过场景反射

Cramer率使共有­区域最大化,并通过克拉美罗下界(

Rao Lower Bound,CRLB)

消除标定误差,但是该方法过度依赖反­射率信息。

目前,相机与激光雷达外部参­数标定方法大都为手动­或半自动化标定,不仅过程繁琐,而且人为因素对标定误­差的影响较大。针对上述问题,本文提出一种面向无人­驾驶汽车车载激光雷达­与相机的在线快速自动­标定方法,以安装视觉标定板的试­验车为标定目标,从图形和三维激光雷达­数据中快速识别试验车,进而求解相机与激光雷­达之间的外部参数矩阵。

2 问题描述

相机和激光雷达之间的­外部参数标定问题实际­上是相机坐标系与激光­雷达坐标系之间的刚性­转换问题。在无人驾驶平台上,相机以一定的倾斜角度­安装在

64

前部,将前方的三维物体映射­到二维图像中, 线激光雷达水平安装在­平台顶端,二者相对位置和姿态关­系固定不变,故在相机和激光雷达的­视场公共区域内,每个三维激光点在图像­中始终存在一个像素点­与之对应。因此,相机和激光雷达之间的­外部参数标定问题即三­维激光点与二维图像像­素点之间的映射矩阵求­解问题:

[ 1] T= T[ 1] 1) uv xyz T (

( x,y,z) ( u,v)

式中, 为三维激光点的坐标; 为三维激光点对

3×4

应的二维图像像素坐标; T为 矩阵,即所求的映射关系矩阵。

根据相机的小孔成像原­理可知:

é f γ c ù x x [

T = R t] 2)

0 f c (

y 1 y

ë 0 0 û

( cx,cy)式中,、fx fy分别为相机在x方­向和y方向的焦距; 为相机的主点位置; γ为相机的畸变参数,可以通过

MATLAB

相机标定工具标定得到; R为世界坐标系到相机­坐标系的旋转矩阵;为世界坐标系原点在相­机坐标t系中的位置矩­阵。因此,可认为相机的内部参数­为已知条件,三维激光点和图像像素­之间的映射关系求解问­题可以转换为相机与激­光雷达之间的旋转和平­移关系求解问题。通过对若干对一致点构­成的线性方程进行求解,可以获得其最小二乘解。

3 标定3.1 标定方法

考虑到在线标定的动态­性和目标的唯一性要求,本文利用视觉标记板代­替传统标定中的棋盘格,以便于视觉识别。同时,相机和激光雷达采集数­据存在异步性,所以对t1时刻采集的­图像数据和t2时刻采­集的激光点云

Marker)

数据分开进行处理。当试验车辆和标记板( 均成功识别后,输出标记板相对于相机­坐标系的位姿和试验车­辆相对于激光雷达的位­姿,可认为这两个位姿在世­界坐标系中是等价的,因此提取一致点构成线­性方程组,求解后通过评价函数判­断是否满足收敛条件,若满足,则终止,否则将一致点带入方程­组迭代求解,直至满

1

足最优条件。算法流程如图 所示。

3.2 基于视觉标记板的车辆­位姿识别

4

受虚拟现实技术启发,已知几何尺寸的共面 个点可以确定该面在相­机坐标系中的位置和姿­态[6]。本文通过识别标记板,利用坐标转换快速获取­试验车辆在相机坐标系­下的位姿关系,避免了基于深度学习方­法的车辆识别在时间上­的消耗问题与传统双面­测量的误检问题。以标记板中心为坐标原­点,标记板平面为X- 4

Y面,则标记板 个顶点在标记板坐标系­中的坐标分( l/ 2, l/ 2,0) (- l/ 2, l/ 2,0) ( l/ 2,- l/ 2,0) (- l/ 2,- l/ 2,0)

别为 、 、 、 。其中,为标记板的物理边长。标记板坐标系与相机坐­标l 2

系之间的坐标转换关系­如图 所示。根据小孔成像原理,空间坐标和图像坐标之­间的映射关系为: [ xc yc 1] T= AMTcm[ xm ym zm 1] T ( 3)

( xc,yc)

式中, 为标记板顶点在图像坐­标系中的坐标; ( xm,ym,zm) zm= 0;

为顶点在标记板坐标系­中的坐标,通常取A为相机的内部­参数矩阵; M为透视投影变换矩阵; Tcm为相机坐标系到­标记板坐标系的转换矩­阵,可以OpenCV solvePnP

通过 开源库[10]中的 函数求解得到; r11= cosβcosθ; r12= cosβsinθ; r13=- sinβ; r21=- cosαsinθ + sinφsinβco­sθ; r22= cosφcosθ+ sinαsinβsi­nθ; r23= sinφcosβ; r31= sinφsinθ + cosαsinβco­sθ; r32=- sinαcosθ + cosφsinβsi­nθ; r33= cosαcosβ; φβθ、、分别为相机坐标系与标­记板坐标系之间的偏航­角、俯仰角和翻滚角; tx、ty、tz分别为相机在标记­板坐标系中x轴、y轴及z轴的空间坐标。

3.3 基于激光雷达的车辆位­姿识别

激光雷达能否正确识别­试验车辆的位姿是标定­试验成败的关键因素,以最小外包立方体中的­姿态表示,主要通过分割、聚类、车辆识别、试验车辆跟踪等几个关­键步骤实现。

3.3.1

分割由于标定试验在城­区结构化环境下进行,本文采用[11]

文献 中提出的基于线段拟合­的快速路面分割算法,建立了三维点云数据的­极坐标栅格图,将数据点从三维

( x,y,z) ( +

空间 映射到二维空间 x2 v2 , z),

然后在每个栅格中选择­高度最低的点作为地面­候选点,对同属于一个扇区的所­有栅格的候选点进行线­段拟合,将拟合线段作为候选地­面,计算所有数据点到拟合­线段的距离,根据距离大小和线段斜­率区分障碍物点与地面­点。

3.3.2

聚类

K-means[

得到当前场景的路面信­息之后,本文通过 12]

聚类算法对滤除地面激­光点后的三维点云数据­进行聚类。

3.3.3

车辆识别车辆目标识别­主要是在激光雷达点云­数据中将其区别开来,以提高相机与激光雷达­的识别一致性,

3 1

如图所示。得到聚类结果后,利用个面与地面重合的­外接立方体近似车辆,该立方体的姿态即为当­前聚类的姿态。车辆识别过程遵从以下­原则:由于小型车辆的几何尺­寸可视为已知,故外接立方体的高度应­1.4~2.0 m 2.0 m,

在 范围内,宽度应小于 长度不大于

5.0 m;

车辆在激光雷达的侧前­方,其三维点云数据投

L影到二维地面,通常都呈现 型[13]。3.3.4

试验车辆跟踪在得到当­前场景中的车辆目标信­息后,创建车辆目标动态状态­列表来存储识别到的信­息[13- 14]。车辆状态

s={ , , , , , }

用六元组 编号位置时间姿态加速­度置信度 表示,并且根据识别结果实时­更新状态列表。由于标定试验车的状态­在上一时刻已知,故可以利用最大关联法­将上一帧的试验车状态­信息与当前识别的车辆­状态列表进行关联匹配,从而在包含众多车辆目­标的雷达数据中精准聚­类。在关联匹配的过程中需­要考虑试验车辆本身的­运动学特性:

Kmax = 1 = tanφmax 6) ( rmin L

≤ Kmax ì k

≤ φmax φ

7)

í - ≤ vmaxΔt cosθ ( x x

t t -1

- ≤ vmaxΔt sinθ y y

î -1 t t

式中, Kmax为最大曲率; φmax为最大转向角; rmin为最小转弯半­径; L为车辆轴距; k为车辆当前运行轨迹­曲率; φ为标定对象车辆的当­前转角; xt、yt分别为t时刻前方­车辆在试验本车坐标系­中的横向坐标和纵向坐­标; vmax为车辆允许的­最大行驶速度;为试验本车识别的时间­间隔; t θ为标定对象车辆的航­向角。

3.4最优解评价

为实现平移和转换矩阵­最优化,即标记板和试验车三维­激光雷达聚类外包立方­体的后部共面,通过评估函数[1]实现外部参数的优化评­价:

ΣΣ æ ( j) ′ ö 2

( x, y, = argmin - · 8)

z)* OpiT( qi, ni ( x, y, z) ( x, y, z) i j式中, pi为第i个标记板在­相机坐标系中的位置; O为选择矩阵; T( 为平移矩阵; qi, 为第i个位置的标记板­中心x,y,z) j点在第j帧激光雷达­数据中的坐标; ni为第i个标记板位­置的标记板面法向量。

4 试验验证

采用自主研发的“智能先锋”系列无人驾驶汽车平台,以正后方配置视觉标记­板的车辆为标定对象,试验

Velodyne HDL 64E

本车上安装有 激光雷达与映美精高

4

清相机,即为待标定的两类传感­器,如图 所示。

标定试验在开放式的城­区道路环境中进行,首先将

Autoware[本文提出的方法与开源­软件 4]库中基于棋盘格的激光­雷达与相机静态手动标­定方法进行对比分析,结

1 1

果如表 所示。表 中, αβγ、、分别为相机与雷达之间­的俯仰角、侧倾角及横摆角,、、分别为相机与激光雷x­yz

达之间的空间位移关系。从表中可以看出,本文方法产

Autoware

生结果与 中标定方法的标定结果­非常接近,平

Autoware

均误差虽然略大于 中方法,但对最终信息融合结果­影响不大,且本文方法的主要优势­在于自动化和节约时间。为了直观地验证和显示­标定结果,选择不同位

5

置的三维激光点云数据­映射到高清相机图像中,如图

5

所示。从图 中可以看出,车辆及其边缘得到了较­好匹配,虽然周围存在少数误差­点,但不影响整体的融合效­果,可见,标定结果能够较好地满­足无人车激光雷达与相­机之间的信息融合要求。

5 结束语

本文提出了一种面向无­人驾驶汽车车载激光雷­达与相机的外部参数快­速自动标定方法。以配置有视觉标记板的­车辆为标定目标,本车上相机与激光雷达­之间的外部参数可以通­过本文提出的标定算法­自动完成。试验结果表明,本文提出的标定方法可­靠,但是车辆在行驶过程中,受颠簸等因素影响,可能会增大标定误差。如何克服或补偿颠簸或­检测精度等因素导致的­标定误差累积问题是下­一步研究的重点内容。

参考文献

[1] GONG X, LIN Y, LIU J. Extrinsic Calibratio­n of a 3D LIDAR and a Camera using a Trihedron[J]. Optics & Lasers in Engineerin­g, 2013, 51(4): 394-401. [2] PANDEY G, MCBRIDE J, SAVARESE S, et al. Extrinsic Calibratio­n of a 3D Laser Scanner and an Omnidirect­ional Camera[J]. IFAC Proceeding­s Volumes, 2010, 43(16): 336341. [3] SERGIO A R F, FREMONT V, BONNIFAIT P. Extrinsic Calibratio­n Between a Multi- Layer Lidar and a Camera[C]// IEEE Internatio­nal Conference on Multisenso­r Fusion and Integratio­n for Intelligen­t Systems. IEEE, 2008: 214-219. [4] KATO S, TAKEUCHI E, ISHIGURO Y, et al. An Open Approach to Autonomous Vehicles[J]. IEEE Micro, 2015, 35 (6): 60-68. [5] UNNIKRISHN­AN R, HEBERT M. Fast Extrinsic Calibratio­n of a Laser Rangefinde­r to a Camera[D]. Pittsburgh: Carnegie Mellon University, 2005. [6] ZHANG Q, PLESS R. Extrinsic Calibratio­n of a Camera and

Laser Range Finder[C]// Internatio­nal Conference on Intelligen­t Robots and Systems. IEEE, 2003: 2301-2306. [7] SERGIO A R F, FREMONT V, BONNIFAIT P. Extrinsic Calibratio­n Between a Multi- Layer Lidar and a Camera[C]// IEEE Internatio­nal Conference on Multisenso­r Fusion and Integratio­n for Intelligen­t Systems. IEEE, 2008: 214-219. [8] SCARAMUZZA D, HARATI A, SIEGWART R. Extrinsic Self Calibratio­n of a Camera and a 3D Laser Range Finder from Natural Scenes[C]// IEEE Internatio­nal Conference on Intelligen­t Robots and Systems. 2013: 4164-4169. [9] PANDEY G, MCBRIDE J R, SAVARESE S, et al. Automatic Targetless Extrinsic Calibratio­n of a 3D Lidar and Camera by Maximizing Mutual Informatio­n[C]// Twenty- Sixth AAAI Conference on Artificial Intelligen­ce. AAAI Press, 2012: 2053-2059. [10] BRADSKI G, KAEHLER A. Learning OpenCV: Computer Vision in C ++ with the OpenCV Library[M]. O'Reilly Media Inc., 2013. [11] HIMMELSBAC­H M, HUNDELSHAU­SEN F V, WUENSCHE H J. Fast Segmentati­on of 3D Point Clouds for Ground Vehicles[C]// Intelligen­t Vehicles Symposium. IEEE, 2010: 560-565. [12] TANG B, ZHOU Y, YU Y, et al. Higher- Order ClassSpeci­fic Priors for Semantic Segmentati­on of 3D Outdoor Scenes[C]// IEEE Winter Conference on Applicatio­ns of Computer Vision. IEEE, 2016: 1-9. [13] , , .苏致远 徐友春 李永乐 基于三维激光雷达的车­辆目标[J]. , 2017, 19(1): 45-49.检测方法 军事交通学院学报[14] , , , .辛煜 梁华为 梅涛 等 基于激光传感器的无人­驾驶汽[J]. , 2014, 36(6):车动态障碍物检测及表­示方法 机器人654-661.

 ??  ?? 图 标记板坐标系与相机坐­标系的转换关系
图 标记板坐标系与相机坐­标系的转换关系
 ??  ?? 图 在线标定算法流程
图 在线标定算法流程
 ??  ??
 ??  ?? 图 前方的车辆目标识别
图 前方的车辆目标识别
 ??  ??
 ??  ?? ( 远处图 激光雷达数据与图像映­射结果
( 远处图 激光雷达数据与图像映­射结果
 ??  ?? ( 标定试验本车图 试验平台
( 标定试验本车图 试验平台
 ??  ?? ( 掉头转弯处
( 掉头转弯处
 ??  ?? ( 近处
( 近处
 ??  ?? ( 标定对象
( 标定对象

Newspapers in Chinese (Simplified)

Newspapers from China