Transformer大模型在自动驾驶中应用趋势明确。Transformer基于Attention机制,凭借优秀的长序列处理能力和更高的并行计算效率,2021年由特斯拉引入自动驾驶领域。Transformer与CNN相比最大的优势在于其泛化性更强。CNN只能对标注过的物体进行相似度的比对,通过不断学习完成对该物体识别的任务;而Transformer可以通过注意力层的结构找到更基本的元素与元素间之间多个维度的相关信息进而找到一种更泛化的相似规律,进而提高自动驾驶的泛化能力。同时,不同于RNN存在存储时间长度有限以及顺序依赖的问题,Transformer模型具有更高的并行计算效率并且可以学习到长时间距离的依赖关系。目前,Transformer主要应用在自动驾驶感知模块中从2D特征图向BEV鸟瞰图的视角转换。

  城市领航辅助驾驶落地在即,AI大模型助力实现“脱高精度地图”。目前,主机厂正逐步从高速场景向城市场景拓展,2023年有望成为城市领航辅助驾驶的大规模落地的元年。相比于高速场景,城市场景所面临的Cornercase大幅提升,要求自动驾驶系统具备更强的泛化能力。目前已落地城市NGP主要基于高精度地图方案,高精地图能够提供超视距、厘米级相对定位及导航信息,在数据和算法尚未成

download

声明:本站所有报告及文章,如无特殊说明或标注,均为本站用户发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。