文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

自动驾驶汽车中的激光雷达和摄像头传感器融合

2024-12-02 15:13

关注

自动驾驶汽车通过4个关键技术工作:感知、定位、规划和控制。

传感器融合是感知模块的一部分。我们希望融合来自视觉传感器的数据,以增加冗余、确定性或利用多个传感器的优势。

传感器数据和融合

在感知步骤中,使用激光雷达、雷达和摄像头的组合来理解环境是很常见的。这3个传感器各有优缺点,使用它们可以帮助您拥有所有优点。

如上图所示:

在本文中,我们将学习融合激光雷达和摄像头,从而利用摄像头的分辨率、理解上下文和对物体进行分类的能力以及激光雷达技术来估计距离并查看3D世界。

摄像头:2d传感器

相机是一种众所周知的传感器,用于输出边界框、车道线位置、交通灯颜色、交通标志和许多其他东西。在任何自动驾驶汽车中,摄像头从来都不是问题。

如何使用这种2D传感器,并将其与3D传感器(如:激光雷达)一起应用于3D世界?

激光雷达:3d传感器

激光雷达代表光检测和测距。它是一个3D传感器,输出一组点云;每个都有一个(X,Y,Z)坐标。可以在3D数据上执行许多应用:包括运行机器学习模型和神经网络。下面是一个输出示例。

如何将此3D传感器与相机等2D传感器配合使用?

今天,我们介绍融合激光雷达和相机之间的数据。

传感器融合算法

传感器融合算法非常多。许多不同的方法都是可能的。“我们想要哪种类型的融合?”至关重要。

如文章所属,有3种方式来对融合算法分类:

“什么”很清楚:我们的目标是竞争和冗余。“在哪里”并不重要,很多解决方案都可以解决。剩下“何时”...

在传感器融合中,有两种可能的过程:

在本文中,我们将研究这两种方法。

We then check whether or not the point clouds belong to 2D bounding boxes detected with the camera.

This 3-step process looks like this:

我们从早期融合开始。

早期传感器融合:融合原始数据

早期融合是融合来自传感器的原始数据的。因此,一旦插入传感器,该过程就会很快的发生。

最简单和最常见的方法是将点云(3D)投影到2D图像上。然后检查点云和相机检测到的2D边界框的重合度。

这个3步过程如下所示:

此过程已在此文中归类为低级别传感器融合。

1.点云投影到2D

第一个想法是将激光雷达帧中的3D点云转换为相机帧中的2D投影。为此,需要应用几何原理如下:

(输入点云在激光雷达帧/欧几里得坐标中。)

(1)将每个3D激光雷达点转换为齐次坐标。

输出:激光雷达帧/齐次坐标

(2)应用该转换点的投影方程(平移和旋转)将该点从激光雷达帧转换为相机帧。

输出:相机帧/齐次坐标

(3)最后,将点转换回欧几里得坐标。

输出:相机帧/欧几里得坐标

如果不熟悉投影、旋转和齐次坐标,可以学习立体视觉课程。

这是第1步的结果。

2.2D对象检测

下一部分是用相机检测物体。这部分不过多描述,像YOLOv4这样的算法可以执行对象检测。有关它的更多信息,可以阅读YOLOv4研究评论。

3.ROI匹配

最后一部分称为感兴趣区域匹配。我们将简单地融合每个边界框内的数据。

输出是什么?

➡️ 因此,我们得到了准确测量和分类的物体。

可能会出现一个问题:我们选择哪一点作为距离?

使用2D障碍物检测时,会遇到如下问题。如果我们选择的点属于另一个边界框怎么办?或者属于背景?这是一个棘手的过程。分割方法可能会更好,因为将点与像素精确匹配。

下面是结果的样子,箭头显示融合可能失败的点。

后期传感器融合:融合结果

后期融合是在独立检测后融合结果。

我们可以想到的一种方法是运行独立检测,在两端获得3D边界框,然后融合结果。

另一种方法是运行独立检测,得到两端的2D边界框,然后融合结果。

因此我们有两种可能;在2D或3D中进行融合。

下面是一个2D示例:

在本文中,我将介绍3D过程,因为它更难。相同的原则适用于2D。

过程如下所示:

1.3D障碍物检测(激光雷达)

使用激光雷达在3D中寻找障碍物的过程是众所周知的。有两种方法:

朴素的方法,使用无监督的3D机器学习。

深度学习方法,使用RANDLA-NET等算法。

激光雷达课程这两种方法都有讲。

2.3D障碍物检测(相机)

这个过程要困难得多,尤其是在使用单目相机时。在3D中寻找障碍物需要我们准确地知道我们的投影值(内在和外在校准)并使用深度学习。如果我们想获得正确的边界框,了解车辆的大小和方向也至关重要。

本文是关于融合的文章,不介绍检测部分。可以查看文章。

最后,关注一下匹配。

Here's an example coming from the paper 3D Iou-Net (2020) .

3.IOU匹配

空间中的IOU匹配

匹配背后的过程非常简单:如果来自摄像头和激光雷达的边界框在2D或3D中重叠,我们认为障碍是相同的。

下面是来自论文3D Iou-Net(2020)的示例。

利用这个想法,我们可以将空间中的物体关联起来,从而在不同的传感器之间进行关联。

此过程在文章中归类为中级别传感器融合。

中级传感器融合和高级传感器融合的区别在于高级传感器的融合包括跟踪。

要添加时间跟踪,我们需要一个称为时间关联的类似过程。

时间上的IOU匹配

在障碍物追踪 课程中,讲了一种使用卡尔曼滤波器和匈牙利算法从帧到帧在时间上关联对象的技术。结果使我们能够在帧之间跟踪对象,甚至预测它们的下一个位置。

如下所示:

IOU匹配的原理完全一样:如果从第一帧到第二帧的边界框重叠,我们认为这个障碍物是相同的。

此处,我们跟踪边界框位置并使用IOU(Intersection Over Union)作为指标。我们还可以使用深度卷积特征来确保边界框中的对象是相同的--我们将此过程称为SORT(简单在线实时跟踪),如果使用卷积特征,则称为深度SORT。

由于我们可以在空间和时间中跟踪对象,因此我们还可以在这种方法中使用完全相同的算法进行高级传感器融合。

总结

我们现在已经研究了激光雷达和相机融合的两种方法。

让我们总结一下我们学到的东西:

传感器融合过程是关于融合来自不同传感器的数据,此处是激光雷达和摄像头。

可以有早期或后期融合--早期融合(低级传感器融合)是关于融合原始数据。后期融合是关于融合对象(中级传感器融合)或轨迹(高级传感器融合)

在做早期传感器融合时,要做点云和像素或者框的关联。

在进行后期传感器融合时,我们想要做结果(边界框)之间的关联,因此有诸如匈牙利算法和卡尔曼滤波器之类的算法来解决它。

 

来源:汽车电子与软件内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯