北洋机甲战队2024雷达站
本框架需配合视觉算法库 OpenRM 食用
1.利用官方提供的场地图纸得到场地点云
2.对单目相机进行与场地的外参标定(大范围PnP、人工、四点)
3.通过2得到的外参将场地点云投影到图像上,即可获得装甲板对应的3D坐标!
0.激光雷达和RGB相机的联合标定(人工粗标定+hku-mars精标定)
1.利用官方提供的场地图纸得到场地点云
2.对单目相机进行与场地的外参标定(大范围PnP、人工、四点)
3.通过2得到的外参以及0得到的联合标定参数将激光雷达采集到的点云投影到图像上,即可获得装甲板对应的潜在的3D坐标集合!
4.对潜在的3D坐标集合中所有点进行有效性判断(即是否是场地建筑物的点云,这可以结合通过1得到的场地点云来实现!),只留下车体装甲板的点云,即可获得装甲板对应的3D坐标!
4k图像直接输入网络,得到装甲板框
在本项目中,Ros仅作为RGB相机和激光雷达的驱动,主要算法部分均脱离Ros,中间使用共享内存进行通信