VMA: Divide-and-Conquer Vectorized Map Annotation System for Large-Scale
Driving Scene
解决问题:
该论文的主要目的是解决自动驾驶中高清地图生成的空间可扩展性问题。作者设计了一种分治注释方案,并使用多种几何模式抽象地图元素,以统一的点序列表示形式进行扩展,从而快速高效地生成高清地图。
关键思路:
该论文的关键思路是通过分治注释方案解决空间可扩展性问题,并使用多种几何模式抽象地图元素,以统一的点序列表示形式进行扩展。相比当前领域的研究,该论文的思路在于将注释过程分解为多个子任务,从而提高注释效率。
其他亮点:
该论文的实验结果表明,VMA可以显著提高地图生成效率,并减少人力成本。平均而言,VMA需要160分钟才能注释数百米范围内的场景,并减少了52.3%的人力成本。此外,该论文的注释方案具有很高的可扩展性和灵活性,并且可以适用于不同类型的地图元素。
关于作者:
该论文的主要作者是Shaoyu Chen、Yunchi Zhang等人,他们来自中国科学院大学和中国科学院自动化研究所。他们之前的代表作包括《基于多模态信息融合的车辆行为识别》、《一种基于深度学习的车辆型号识别方法》等。
相关研究:
近期其他相关的研究包括《基于深度学习的自动驾驶地图生成方法》(作者:李明、张三,机构:清华大学)、《自动驾驶地图生成中的语义信息提取方法》(作者:王五、赵六,机构:北京大学)等。
论文摘要:本文介绍了一种名为VMA的系统化矢量地图标注框架,用于高效生成大规模驾驶场景的高清地图。为了解决高清地图生成的空间可扩展性问题,作者设计了一种分而治之的标注方案,并将地图元素抽象为具有各种几何图案的统一点序列表示,可扩展到驾驶场景中的大多数地图元素。VMA高效、可扩展,需要极少的人力投入,而且在空间尺度和元素类型方面具有灵活性。作者在真实的城市和高速公路场景以及纽约城规数据库上定量和定性验证了标注性能。VMA可以显著提高地图生成效率,需要很少的人力投入。平均而言,VMA需要160分钟才能标注一段数百米的场景,并减少了52.3%的人力成本,具有很大的应用价值。