课程价格 :
¥999.00
剩余名额
0
-
学习时长
8周/建议每周至少10小时
-
答疑服务
专属微信答疑群/讲师助教均参与
-
作业批改
课程配有作业/助教1V1讲评
-
课程有效期
一年/告别拖延,温故知新
课程价格:
¥999.00
预约下一期 *课程已报满,可预约下一期
支持花呗分期
*课程已报满,可预约下一期
- 1:开课仪式
- 2:【附件】课程所需数据集
- 第1章: 环境感知介绍
- 3:【课件】L1 课程介绍
- 第1节: 课程简介
- 4:【视频】这节课我们讲什么
- 5-1:【视频】 如何获得免费的GPU服务器资源
- 5-2:【资料】环境感知助教分享
- 5-3:【资料】自动驾驶环境感知开课仪式
- 6-1:【视频】 如何获得免费的GPU服务器资源
- 6-2:【资料】环境感知助教分享
- 6-3:【资料】自动驾驶环境感知开课仪式
- 第2节: 概念:自动驾驶与环境感知
- 7-1:【视频】自动驾驶是什么
- 7-2:【视频】环境感知系统都由哪些传感器组成
- 7-3:【视频】激光雷达与毫米波雷达必有一战
- 第3节: 技术:传感器感知算法
- 8:【视频】深度学习算法是否一统江湖了
- 第4节: 行业:感知系统案例
- 9:【视频】3种典型的环境感知方案
- 第5节: 课程:传感器+算法+实践
- 10-1:【视频】这门课程讲什么,怎么讲
- 10-2:【视频】这门课程你会收获到什么
- 第2章: 2D感知算法
- 11:【课件】基于相机的2D视觉感知
- 第1节: 2D感知任务
- 12:【视频】2D感知任务
- 第2节: 数据库和基准测试
- 13:【视频】数据库和基准测试
- 第3节: 物体检测算法
- 14-1:【视频】R-CNN & SSD & YOLO
- 14-2:【视频】CenterNet算法原理
- 14-3:【视频】FCOS & CornerNet
- 14-4:【视频】CenterNet定性分析
- 第4节: 物体跟踪算法
- 15:【视频】物体跟踪算法
- 第5节: 语义分割算法
- 16:【视频】语义分割算法
- 第6节: 实践:基于CenterNet的车辆和行人检测代码解析
- 17-1:【课件】CenterNet实践说明
- 17-2:【作业】第二章
- 17-3:【代码】第二章实践代码 CenterNet-master
- 17-4:【视频】CenterNet Code Review
- 17-5:【资料】CenterNet网络细节梳理
- 18-1:环境感知训练平台使用指南
- 18-2:【资料】预训练模型
- 18-3:第二章作业思路讲解
- 第3章: 3D感知算法
- 19:【课件】L3 视觉感知3D
- 第1节: 基于单目的方法
- 20:【视频】3D感知任务
- 第2节: 基于单目的3D感知
- 21:【视频】单目3D感知
- 第3节: 基于双目的3D感知及PSMNet深度估计方法
- 22:【视频】双目3D感知
- 第4节: 多目3D感知
- 23:【视频】多目3D感知
- 第5节: 实践:基于PSMNet的双目深度估计代码解析
- 24-1:【说明】PSMNet实践说明
- 24-2:【视频】PSMNet代码讲解
- 24-3:【作业】第三章
- 24-4:第三章作业思路
- 第4章: 激光雷达物体检测
- 25:【课件】激光雷达物体检测
- 第1节: 基本概念
- 26:【视频】基本概念
- 第2节: 点云数据库
- 27:【视频】点云数据库
- 第3节: 基于点视图的物体检测
- 28:【视频】基于点视图的物体检测
- 第4节: 基于俯视图的物体检测
- 29:【视频】基于俯视图的物体检测
- 第5节: 基于前视图的物体检测
- 30:【视频】基于前视图的物体检测
- 第6节: 基于多视图融合的物体检测
- 31-1:【视频】为什么需要多视图融合
- 31-2: 【视频】基于俯视图与点视图融合的3D物体检测
- 31-3:【视频】基于俯视图与前视图融合的3D物体检测
- 31-4:【视频】 总结
- 第7节: 实践:基于PointPillar的3D物体检测代码解析
- 32-1:【实践代码】OpenPCDet-master
- 32-2:【作业】第四章
- 32-3:第四章作业思路提示
- 32-4:【仅供参考】PointPillar
- 第5章: 激光雷达语义分割
- 33:【课件】激光雷达语义分割
- 第1节: 基本概念
- 34:【视频】基本概念
- 第2节: 数据库和性能指标
- 35:【视频】数据库和性能指标
- 第3节: 基于点云的语义分割
- 36-1:【视频】基于点云的语义分割:点视图的方法RandLA-Net
- 36-2:【视频】基于点云的语义分割:俯视图和前视图的方法
- 36-3:【视频】RandLA-Net代码讲解
- 第4节: 基于点云的实例分割
- 37:【视频】基于点云的实例分割
- 第5节: 基于点云的全景分割
- 38:【视频】基于点云的全景分割
- 第6节: 实践:基于RandLA-Net的点云语义分割代码解析
- 39-1:【作业】第五章
- 39-2:第五章作业思路提示
- 第6章: 毫米波雷达感知算法:传统方法
- 40:【课件】毫米波雷达传统方法
- 第1节: 雷达的概念和分类
- 41:【视频】雷达的概念和分类
- 第2节: FMCW雷达信号解析
- 42-1:【视频】目标距离与速度估计
- 42-2:【视频】角度估计
- 42-3:【视频】4D成像雷达
- 第3节: FMCW雷达数据形式
- 43:【视频】FMCW雷达数据形式
- 第4节: 物体检测和跟踪
- 44:【视频】物体检测和跟踪
- 第5节: 实践:FMCW雷达数据模拟及运动目标解析
- 45-1:【视频】FMCW Radar Code Review
- 45-2:【信号设计参考论文】Suleymanov_MA_EWI
- 45-3:【作业】第六章
- 45-4:第六章作业思路提示
- 第7章: 毫米波雷达感知算法:深度学习方法
- 46:【课件】基于深度学习的毫米波雷达感知方法
- 第1节: 数据表示和公开数据库
- 47:【视频】数据表示和公开数据库
- 第2节: 稀疏点云+深度学习
- 48:【视频】稀疏点云+深度学习
- 第3节: 稠密数据块+深度学习
- 49-1:【视频】RAD与RAMP-CNN方法
- 49-2:【视频】RODNet方法
- 49-3:【视频】章节内容总结
- 第4节: 实践:底层数据的可视化和分析代码讲解
- 50-1:【作业】第七章
- 50-2:第七章作业思路提示
- 第8章: 【补充】Apollo感知预测模块仿真实验
- 51:【操作手册】Apollo感知预测仿真
- 第1节: 激光雷达感知
- 52-1:【视频】CNNSeg感知实验
- 52-2:【视频】PointPillars检测
- 第2节: 相机感知
- 53-1:【视频】红绿灯识别
- 53-2:【视频】车道线检测
- 53-3:【视频】相机障碍物检测
- 第3节: 融合感知
- 54:【视频】融合感知
理由三:理论结合实践,扎实所学
项目一
基于CenterNet的车辆和行人检测
项目二
基于PSMNet的双目深度估计
项目三
基于PointPillar的3D物体检测
项目四
基于RandLA-Net的点云语义分割
项目五
FMCW雷达数据模拟以及运动目标解析
项目六
毫米波雷达物体检测算法RODNet