矿用激光雷达与相机的无目标自动标定方法研究

杨佳佳, 张传伟, 周李兵, 秦沛霖, 赵瑞祺

杨佳佳,张传伟,周李兵,等. 矿用激光雷达与相机的无目标自动标定方法研究[J]. 工矿自动化,2024,50(10):53-61, 89. DOI: 10.13272/j.issn.1671-251x.2024070056
引用本文: 杨佳佳,张传伟,周李兵,等. 矿用激光雷达与相机的无目标自动标定方法研究[J]. 工矿自动化,2024,50(10):53-61, 89. DOI: 10.13272/j.issn.1671-251x.2024070056
YANG Jiajia, ZHANG Chuanwei, ZHOU Libing, et al. Research on the targetless automatic calibration method for mining LiDAR and camera[J]. Journal of Mine Automation,2024,50(10):53-61, 89. DOI: 10.13272/j.issn.1671-251x.2024070056
Citation: YANG Jiajia, ZHANG Chuanwei, ZHOU Libing, et al. Research on the targetless automatic calibration method for mining LiDAR and camera[J]. Journal of Mine Automation,2024,50(10):53-61, 89. DOI: 10.13272/j.issn.1671-251x.2024070056

矿用激光雷达与相机的无目标自动标定方法研究

基金项目: 陕西省创新人才推进计划−科技创新团队(2021TD-27)。
详细信息
    作者简介:

    杨佳佳(2000—),男,陕西咸阳人,硕士研究生,研究方向为无人驾驶车辆环境感知和煤矿智能化,E-mail:22205224117@stu.xust.edu.cn

    通讯作者:

    张传伟(1974—),男,安徽淮南人,教授,博士,研究方向为机电系统智能控制和矿用智能车辆,E-mail:2099409913@qq.com

  • 中图分类号: TD67

Research on the targetless automatic calibration method for mining LiDAR and camera

  • 摘要: 矿用车辆实现无人驾驶依赖于准确的环境感知,激光雷达和相机的结合可以提供更丰富和准确的环境感知信息。为确保激光雷达和相机的有效融合,需进行外参标定。目前矿用本安型车载激光雷达多为16线激光雷达,产生的点云较为稀疏。针对该问题,提出一种矿用激光雷达与相机的无目标自动标定方法。利用多帧点云融合的方法获得融合帧点云,以增加点云密度,丰富点云信息;通过全景分割的方法提取场景中的车辆和交通标志物作为有效目标,通过构建2D−3D有效目标质心对应关系,完成粗校准;在精校准过程中,将有效目标点云通过粗校准的外参投影在逆距离变换后的分割掩码上,构建有效目标全景信息匹配度目标函数,通过粒子群算法最大化目标函数得到最优的外参。从定量、定性和消融实验3个方面验证了方法的有效性:① 定量实验中,平移误差为0.055 m,旋转误差为0.394°,与基于语义分割技术的方法相比,平移误差降低了43.88%,旋转误差降低了48.63%。② 定性结果显示,在车库和矿区场景中的投影效果与外参真值高度吻合,证明了该方法的稳定性。③ 消融实验表明,多帧点云融合和目标函数权重系数显著提高了标定精度。与单帧点云相比,使用融合帧点云作为输入时,平移误差降低了50.89%,旋转误差降低了53.76%;考虑权重系数后,平移误差降低了36.05%,旋转误差降低了37.87%。
    Abstract: The realization of autonomous driving for mining vehicles relies on accurate environmental perception, and the combination of LiDAR and cameras can provide richer and more accurate environmental information. To ensure effective fusion of LiDAR and cameras, external parameter calibration is necessary. Currently, most mining intrinsically safe onboard LiDARs are 16-line LiDARs, which generate relatively sparse point clouds. To address this issue, this paper proposed a targetless automatic calibration method for mining LiDAR and camera. Multi-frame point cloud fusion was utilized to obtain fused frame point clouds, increasing point cloud density and enriching point cloud information. Then, effective targets such as vehicles and traffic signs in the scene were extracted using panoramic segmentation. By establishing a corresponding relationship between the centroids of 2D and 3D effective targets, a coarse calibration was completed. In the fine calibration process, the effective target point clouds were projected onto the segmentation mask after inverse distance transformation using the coarse-calibrated external parameters, constructing an objective function based on the matching degree of effective target panoramic information. The optimal external parameters were obtained by maximizing the objective function using a particle swarm algorithm. The effectiveness of the method was validated from three aspects: quantitative, qualitative, and ablation experiments. ① In the quantitative experiments, the translation error was 0.055 m, and the rotation error was 0.394°. Compared with the method based on semantic segmentation technology, the translation error was reduced by 43.88%, and the rotation error was reduced by 48.63%. ② The qualitative results showed that the projection effects in the garage and mining area scenes were highly consistent with the true values of the external parameters, demonstrating the stability of the method. ③ Ablation experiments indicated that multi-frame point cloud fusion and the weight coefficients of the objective function significantly improved calibration accuracy. When using fused frame point clouds as input compared to single-frame point clouds, the translation error was reduced by 50.89%, and the rotation error was reduced by 53.76%. Considering the weight coefficients, the translation error was reduced by 36.05%, and the rotation error was reduced by 37.87%.
  • 在煤矿井下采掘工作面,工作人员需佩戴安全防护装备,如安全帽、矿灯、口罩、自救器等[1]。这些装备为人员生命安全提供基本保障。实际生产中,一些人员对安全防护装备的重视程度不够,无法有效地使用这些装备来确保自身安全。目前,煤矿企业主要依靠视频监控系统来监测人员是否正确佩戴防护装备[2]。随着深度学习和人工智能技术的不断发展及应用,采用基于深度学习的计算机视觉算法来检测和识别人员安全装备佩戴情况,可有效降低煤矿安全事故发生概率[3],提高煤矿安全生产水平。

    在煤矿井下作业环境中,监控摄像头位置固定,且覆盖范围广泛,拍摄距离大,安全防护装备目标在监控画面中的尺寸较小,加之装备颜色与周围环境相近,易受环境变化影响,增加检测难度。因此,实现煤矿井下场景中小目标(如尺寸小于32×32的目标)精准检测,在人员安全防护装备监测中具有重要意义[4]

    目前,目标检测领域广泛采用卷积神经网络模型,如R−CNN(Region-based Convolutional Neural Networks,基于区域的卷积神经网络)、Fast R−CNN(Fast Region-based Convolutional Neural Networks,快速基于区域的卷积神经网络)、Faster R−CNN(Faster Region-based Convolutional Neural Networks,更快的基于区域的卷积神经网络)、SSD(Single Shot MultiBox Detector,单次检测多框检测器)、YOLO等[5-12]。相较于R−CNN系列模型和SSD模型,YOLO系列模型具备出色的高速性能、端到端训练、多尺度融合、自适应锚框等特点,能够高效地将底层位置信息和上层语义信息融合,实现目标检测任务的快速、准确、高效执行,已被学者用于煤矿井下目标检测研究中。崔铁军等[13]采用基于Keras框架的YOLOv4目标检测算法,结合MTCNN(Multi-task Convolutional Neural Networks,多任务卷积神经网络)和FaceNet构成人脸识别模型,对人员是否佩戴防尘口罩进行了高精度的快速检测与识别,检测佩戴防尘口罩人员的AP(Average Precision,平均精度)为92.78%、未佩戴防尘口罩人员的AP为91.63%。李熙尉等[14]针对煤矿井下综采工作面煤尘干扰导致的人员和安全帽检测算法精度低、漏检率高等问题,提出了基于改进YOLOv5s的矿井人员和安全帽检测算法,通过引入CBAM(Convolutional Block Attention Module,卷积块注意力模块)更准确地提取图像关键特征,采用αCIoU损失函数替换原始CIoU损失函数来提升整体目标检测的准确率。曹帅等[15]提出了一种基于YOLOv7−SE的煤矿井下小目标检测方法,通过融合模拟退火算法和k-means++聚类算法优化YOLOv7模型中的初始锚框值,增加新的检测层以减少煤尘干扰,并在骨干网络中引入双层注意力机制强化小目标特征表示,对安全帽和自救器检测的AP分别达到72.5%和64.5%。王科平等[16]提出了一种改进的YOLOv4模型,用于检测综采工作面的大型设备及行人目标,通过在CSPDarkNet53网络中融入残差自注意力模块来提升图像关键目标特征的表达能力和目标检测精度,引入深度可分离卷积以减少模型参数量和计算量,检测AP为92.59%。顾清华等[17]提出了一种基于改进YOLOv5的目标检测算法,采用弱光增强网络Zero−DCE提升模型的泛化能力,引入C−ASPP(Cross-scale Atrous Spatial Pyramid Pooling,跨尺度空洞空间金字塔池化)模块、Transformer算法和双向特征融合金字塔网络来提高模型的特征提取能力和检测性能,对井下人员安全防护装备检测的AP为90.2%,检测速度为81.2帧/s。寇发荣等[18]提出一种YOLOv5改进模型——Ucm−YOLOv5,使用PP−LCNet作为主干网络以加强CPU端的推理速度,取消Focus模块,使用shuffle_block模块替代C3模块以减少计算量,并引入H swish作为激活函数,对井下目标的检测精度较YOLOv5提高11.7%。

    在背景复杂、光照条件差的采掘工作面恶劣环境下,小目标检测精度仍有待提高。YOLOv8是YOLO系列的最新版本[19],具有更优的性能和灵活性,能更好地应对井下复杂环境中的目标检测任务。YOLOv8n是YOLOv8系列中更小型、更轻量级的变体,专为速度和资源受限的环境设计。本文提出一种基于改进YOLOv8n的采掘工作面小目标检测方法,通过井下实际监控视频图像验证了改进YOLOv8n模型对井下人员及其佩戴安全防护装备检测的AP优于主流目标检测模型,满足采掘工作面小目标检测精度和实时性要求。

    改进YOLOv8n模型结构如图1所示,其中HWC分别为输入图像长度、宽度、通道数,S为卷积步长,K为卷积核大小,n为模块个数。输入图像在骨干网络(Backbone)层通过卷积层提取特征和语义信息,这些信息经改进C2f模块(C2f−DSConv)进行深度融合,以提取多尺度特征,增强对小目标和人体细节的感知能力。在Neck层引入PSA(Polarized Self−Attention,极化自注意力)机制,对特征图进行处理,以减少信息损失,提高特征表达能力,从而更好地定位和识别目标。在Head层增设了专门针对小目标的检测头,以扩大模型检测范围,提升对微小目标的感知能力。

    图  1  改进YOLOv8n模型结构
    Figure  1.  Improved YOLOv8n model structure

    在YOLOv8n模型Backbone层的C2f模块中,Bottleneck结构通常采用固定尺寸的卷积核,且每个卷积核的位置是预先设定的,在处理具有复杂或不规则形状的小目标时精度较差。DSConv(Dynamic Snake Convolution,动态蛇形卷积)的卷积核[20]能够根据输入特征图的形状和边界信息进行自适应调整,从而更精确地适应目标物体的形状,提升复杂或不规则形状小目标的处理能力。因此,将C2f模块中的固定卷积替换为DSConv,得到C2f−DSConv模块,如图2所示。输入数据经CBS(Con−BN−Silu)模块进行卷积操作,再经Split模块分割为2个部分,其中一部分经多个 DSConv 模块处理后,与另一部分融合拼接,最终经CBS模块输出。

    图  2  C2f−DSConv结构
    Figure  2.  C2f-DSConv structure

    DSConv卷积的核心在于引入了变形偏移量,这使得卷积核能更灵活地关注目标物体的复杂几何特征。为了有效控制模型学习过程中的变形偏移,避免感知场过度偏离目标,采用迭代策略,为每个目标选择一系列观察点,确保注意力的连续性,同时防止由于过大的变形偏移导致感知场过度扩散[20]。DSConv卷积不仅能感知并适应目标的几何结构,还能自适应关注弯曲或卷曲的结构特征。在煤矿井下应用场景中,人员安全防护装备可能呈现各种形状和大小,且常与其他背景元素重叠,导致检测困难。DSConv的引入使得模型能更加专注于安全防护装备的关键特征,自由贴合其形状学习特征,且在一定约束条件下确保卷积核不会偏离目标结构太远,从而提高检测的准确性和可靠性。

    由于井下小目标图像的复杂性,YOLOv8n在处理空间和通道计算时计算量和显存需求急剧增加。为了平衡性能与资源消耗,在YOLOv8n的Neck层引入PSA机制。其核心是通过动态聚焦来减少信息损失[21]。PSA机制有并行和顺序2种布局模式。本文采用并行布局模式,如图3所示。其包含多个卷积层(Conv)、池化层(Global Pooling)、激活函数(Softmax)、重塑层(Reshape),采用多个1×1卷积实现通道极化,并使用不同的重塑和池化操作来处理数据。

    图  3  PSA机制的并行布局模块
    Figure  3.  Parallel layout module of polarized self-attention (PSA)

    PSA机制在空间维度和通道维度均没有进行大规模的压缩。在空间维度上,PSA机制保持原始输入图像的大小H×W;在通道维度上,使用了原始通道数C的一半。这使得模型在处理大量数据时能够保持较高的效率。此外,PSA机制在通道和空间分支均采用Softmax和Sigmoid相结合的函数,使得模型能够拟合出细粒度回归结果的输出分布,从而提高检测的准确性。

    YOLOv8n的Head层有3个检测头,在不同尺度上进行目标检测。由于小目标在不同尺度上可能表现出多样化的特征,较浅的网络结构难以充分捕捉这些细微的差别,且微小目标在图像中的占比较小,难以被模型有效捕捉。针对井下环境中小目标检测需求,在YOLOv8n模型中增加1个专门针对微小目标检测的检测头,形成4检测头结构,如图4所示。Detect1为新增的检测头,用于检测大小为160×160的特征图中4×4以上大小的目标。Detect 2—Detect4为原始YOLOv8n中的检测头,分别检测80×80特征图中8×8、40×40特征图中16×16、20×20特征图中32×32以上大小的目标。

    图  4  4检测头结构
    Figure  4.  Four detection heads structure

    Detect1利用来自底层网络的高分辨率特征图生成预测结果,显著提高了对微小目标的敏感度。Detect1的增加可能导致计算量和内存消耗增大,但由于YOLO系列算法具有高并行性,所以并不会显著影响检测的实时性。与原始的3检测头结构相比,4检测头结构通过更深层次的网络结构来捕获复杂的特征,使模型能够更有效地应对目标尺度变化、遮挡等情况,提升井下小目标检测精度。

    为验证改进YOLOv8n模型对于井下人员安全防护装备这类小目标的检测性能,在实验室环境下进行实验。实验平台配置见表1

    表  1  实验平台配置
    Table  1.  Experimental platform configuration
    配置 参数
    操作系统 Windows10
    CPU Intel Core i7−12700K
    GPU NVIDIA GeForce RTX 3060
    内存 32 GiB
    GPU加速工具 CUDA11.1
    下载: 导出CSV 
    | 显示表格

    采集江苏省某煤矿综采工作面原始监控视频图像,选取其中1 319张图像,按照9∶1的比例划分,其中1 183张作为训练集、136张作为验证集。采用LabelImg工具标注5个类别,分别为人员(person)、安全帽(helmet)、矿灯(lamp)、口罩(mask)、自救器(self-rescuer),如图5所示。标注后的数据集共有8 273个目标框。

    图  5  5类标签标注结果
    Figure  5.  Five categories of label annotation

    改进YOLOv8n模型训练过程中应用PyTorch框架。设置随机梯度下降初始动量为0.937,权值衰减系数为0.000 5,学习率为0.01。使用余弦衰减率调度器。经过100次训练,得到最优模型。

    为了验证DSConv、PSA机制、新增检测头的作用,进行消融实验,结果见表2

    表2可看出,与改进模型相比,原始YOLOv8n模型的精确率、召回率和mAP50(mean Average Precision at 50% Intersection over Union,50%交并比下的平均精度均值)最低。在C2f模块中引入DSConv后,模型精确率和召回率均超过原始YOLOv8n模型,表明C2f−DSConv能够准确捕获井下人员及其佩戴安全防护装备的特征。采用4检测头结构后,精确率、召回率、mAP50分别提高1.1%,4.2%,2.0%,表明4检测头结构通过在不同尺度上进行检测,增大了模型对目标的覆盖范围。引入PSA机制后,精确率、召回率、mAP50分别达89.3%,91.3%,92.4%,在4组模型中最高,验证了改进方法的有效性。另外,改进YOLOv8n模型的检测速度为208帧/s,满足矿井实时检测要求。

    在相同数据集上,将改进YOLOv8n模型与Faster−RCNN,YOLOv5s,YOLOv7,YOLOv8n模型进行对比实验,结果如图6所示。可看出改进YOLOv8n模型对人员及其佩戴4种安全防护装备的检测精度均优于其他模型。

    表  2  消融实验结果
    Table  2.  Ablation experiment results %
    YOLOv8n DSConv 检测头 PSA 精确率 召回率 mAP50
    × × × 86.9 85.9 89.1
    × × 87.4 89.3 89.7
    × 88.0 90.1 91.1
    89.3 91.3 92.4
    下载: 导出CSV 
    | 显示表格
    图  6  不同目标检测模型检测结果对比
    Figure  6.  Comparison of detection results of different object detection models

    5种模型对各类目标检测的AP见表3。可看出与4种对比模型相比,改进YOLOv8n模型对于各类目标检测的AP均最优,特别是检测矿灯和自救器的AP分别达89.9%和90.8%,较YOLOv8n模型分别提升10.1%和5.7%,且对各类别目标检测的mAP达92.4%。

    5种模型的检测性能对比见表4。与Faster R−CNN相比,改进YOLOv8n模型的mAP提高13.2%,且参数量和GFLOPs(Giga Floating Point Operations Per Second,每秒十亿次浮点运算)大幅降低,检测速度提高了201 帧/s。与YOLOv5s和YOLOv7相比,改进YOLOv8n模型的mAP分别提高6.8%和6.1%,检测速度分别提升149,66帧/s。与YOLOv8n相比,改进YOLOv8n模型的参数量和GFLOPs略高,但mAP提高3.3%。实验结果验证了改进YOLOv8n模型能够很好地平衡检测时间和准确性。

    表  3  不同目标检测模型对5种类别目标检测的AP对比
    Table  3.  Average precision (AP) comparison of detecting five categories by use of different object detection models %
    类别 Faster−
    RCNN
    YOLOv5s YOLOv7 YOLOv8n 改进YOLOv8n
    人员 84.2 92.9 94.2 97.7 98.3
    安全帽 80.7 90.1 91.7 93.7 95.8
    矿灯 68.7 76.6 76.3 79.8 89.9
    口罩 74.3 82.9 83.9 86.2 87.2
    自救器 73.3 81.7 81.4 85.1 90.8
    mAP50 79.2 85.6 86.3 89.1 92.4
    下载: 导出CSV 
    | 显示表格
    表  4  不同目标检测模型的检测性能对比
    Table  4.  Comparison of detection performance of different object detection models
    模型 参数量/MiB GFLOPs mAP/% 检测速度/(帧·s−1
    Faster R−CNN 53.0 887.5 79.2 7
    YOLOv5s 7.2 16.0 85.6 59
    YOLOv7 36.9 104.7 86.3 142
    YOLOv8n 3.0 8.1 89.1 457
    改进YOLOv8n 3.4 13.3 92.4 208
    下载: 导出CSV 
    | 显示表格

    1) 改进YOLOv8n模型将DSConv和主干网络的C2f模块融合,提高了模型提取多尺度特征的能力;引入PSA机制,使模型能捕获更多的像素级别信息,提升小目标检测效果;采用4检测头结构,增强了对微小目标的检测能力。

    2) 实验结果表明,对井下人员及其所佩戴安全帽、矿灯、口罩、自救器进行检测时,改进YOLOv8n模型的AP分别为98.3%,95.8%,89.9%,87.2%,90.8%,均高于主流目标检测模型Faster R−CNN,YOLOv5s,YOLOv7,YOLOv8n。

    3) 未来将着重研究在不显著增加计算负担的前提下,提升模型的识别精度。方案包括:① 增加特征提取网络的深度,从而更有效地提取井下特殊环境中人员与安全防护装备特征。② 利用并行计算来提高分类器计算速度,从而更快地匹配识别的特征。

  • 图  1   激光雷达和相机标定原理

    Figure  1.   LiDAR and camera calibration principles

    图  2   矿用激光雷达与相机的无目标自动标定方法框架

    Figure  2.   Framework of targetless automatic calibration method for mining LiDAR and camera

    图  3   多帧点云融合算法流程

    Figure  3.   Multi-frame point cloud fusion algorithm flow

    图  4   点云融合前后对比

    Figure  4.   Comparison before and after point cloud fusion

    图  5   2D−3D目标质心匹配对

    Figure  5.   Matching pairs of 2D-3D target centroids

    图  6   粒子群算法流程

    Figure  6.   Particle swarm algorithm flow

    图  7   实验采集仪器

    Figure  7.   Experimental data acquisition device

    图  8   粗校准结果

    Figure  8.   Results of coarse calibration

    图  9   增加扰动的精校准的MAE

    Figure  9.   Mean absolute error(MAE) of fine calibration with added perturbation

    图  10   不同方法在数据集上的平移和旋转误差分布

    Figure  10.   Distribution of translation and rotation errors of different methods on dataset

    图  11   本文方法的投影结果与外参真值的投影结果

    Figure  11.   Comparison of projection results between the proposed method and the true values of the external parameters

    表  1   粗校准和精校准的结果对比

    Table  1   Comparison of coarse and fine calibration results

    方法$ \mathrm{\Delta }t $/m$ \mathrm{\Delta }X $/m$ \mathrm{\Delta }Y $/m$ \mathrm{\Delta }Z $/m$ \mathrm{\Delta }\theta $/(°)$ \mathrm{\Delta }R $/(°)$ \mathrm{\Delta }H $/(°)$ \mathrm{\Delta }A $/(°)
    粗校准0.1950.0960.1240.1140.9910.9290.7780.991
    精校准0.0550.0310.0280.0360.3940.2570.2120.205
    下载: 导出CSV

    表  2   标定参数扰动实验整体结果

    Table  2   Overall results of the perturbation experiments on calibration parameters

    参数 平均值 标准差 最大值 最小值
    $ \Delta X $ 0.0223 m 0.0062 0.0339 m 0.0097 m
    $ \Delta $Y 0.0238 m 0.0094 0.0409 m 0.0073 m
    $ \Delta Z $ 0.0210 m 0.0062 0.0326 m 0.0099 m
    $ \Delta $R 0.1689° 0.0477 0.2490° 0.0691°
    $ \Delta $H 0.1434° 0.0372 0.2132° 0.0578°
    $ \Delta $A 0.1371° 0.0389 0.2035° 0.0512°
    下载: 导出CSV

    表  3   不同方法的校正结果对比

    Table  3   Comparison of correction results across different methods

    方法 平移误差/m 旋转误差/(°)
    $ \mathrm{\Delta }t $ $ \mathrm{\Delta }X $ $ \mathrm{\Delta }Y $ $ \mathrm{\Delta }Z $ $ \mathrm{\Delta }\theta $ $ \mathrm{\Delta }R $ $ \mathrm{\Delta }H $ $ \mathrm{\Delta }A $
    文献[17] 0.098 0.059 0.064 0.047 0.767 0.445 0.497 0.374
    精校准 0.055 0.031 0.028 0.036 0.394 0.257 0.212 0.205
    下载: 导出CSV

    表  4   不同点云输入的消融研究

    Table  4   Ablation study on different point cloud inputs

    实验设置 $ \mathrm{平}\mathrm{移}\mathrm{误}\mathrm{差}/\mathrm{m} $ $ \mathrm{旋}\mathrm{转}\mathrm{误}\mathrm{差} $/(°)
    单帧点云 0.112 0.852
    融合帧点云 0.055 0.394
    下载: 导出CSV

    表  5   权重系数的消融研究

    Table  5   Ablation study of weight coefficients

    实验设置 $ \mathrm{平}\mathrm{移}\mathrm{误}\mathrm{差}/\mathrm{m} $ $ \mathrm{旋}\mathrm{转}\mathrm{误}\mathrm{差} / $(°)
    不考虑权重 0.086 0.634
    考虑权重 0.055 0.394
    下载: 导出CSV
  • [1] 王国法. 煤矿智能化最新技术进展与问题探讨[J]. 煤炭科学技术,2022,50(1):1-27. DOI: 10.3969/j.issn.0253-2336.2022.1.mtkxjs202201001

    WANG Guofa. New technological progress of coal mine intelligence and its problems[J]. Coal Science and Technology,2022,50(1):1-27. DOI: 10.3969/j.issn.0253-2336.2022.1.mtkxjs202201001

    [2] 陈晓晶. 井工煤矿运输系统智能化技术现状及发展趋势[J]. 工矿自动化,2022,48(6):6-14,35.

    CHEN Xiaojing. Current status and development trend of intelligent technology of underground coal mine transportation system[J]. Journal of Mine Automation,2022,48(6):6-14,35.

    [3] 宋秦中,胡华亮. 基于CNN算法的井下无人驾驶无轨胶轮车避障方法[J]. 金属矿山,2023(10):168-174.

    SONG Qinzhong,HU Hualiang. Obstacle avoidance method for underground unmanned trackless rubber-tyred vehicle based on CNN algorithm[J]. Metal Mine,2023(10):168-174.

    [4] 张宏伟,高亚男,王宇,等. 燃料受限条件下矿区无人驾驶卡车路径最优化策略研究[J]. 金属矿山,2024(8):140-145.

    ZHANG Hongwei,GAO Yanan,WANG Yu,et al. Study on route optimization strategy of unmanned truck in mining area under fuel constraint condition[J]. Metal Mine,2024(8):140-145.

    [5] 胡青松,孟春蕾,李世银,等. 矿井无人驾驶环境感知技术研究现状及展望[J]. 工矿自动化,2023,49(6):128-140.

    HU Qingsong,MENG Chunlei,LI Shiyin,et al. Research status and prospects of perception technology for unmanned mining vehicle driving environment[J]. Journal of Mine Automation,2023,49(6):128-140.

    [6]

    ZHANG Qilong,PLESS R. Extrinsic calibration of a camera and laser range finder (improves camera calibration)[C]. IEEE/RSJ International Conference on Intelligent Robots and Systems,Sendai,2004. DOI: 10.1109/IROS.2004.1389752.

    [7]

    ZHOU Lipu,DENG Zhidong. Extrinsic calibration of a camera and a lidar based on decoupling the rotation from the translation[C]. IEEE Intelligent Vehicles Symposium,Madrid,2012:642-648.

    [8]

    WANG Weimin,SAKURADA K,KAWAGUCHI N. Reflectance intensity assisted automatic and accurate extrinsic calibration of 3D LiDAR and panoramic camera using a printed chessboard[J]. MDPI AG,2017(8). DOI: 10.3390/RS9080851.

    [9]

    SIM S,SOCK J,KWAK K. Indirect correspondence-based robust extrinsic calibration of LiDAR and camera[J]. Sensors,2016,16(6). DOI: 10.3390/s16060933.

    [10]

    LIAO Qinghai,CHEN Zhenyong,LIU Yang,et al. Extrinsic calibration of lidar and camera with polygon[C]. IEEE International Conference on Robotics and Biomimetics,Kuala Lumpur,2018. DOI: 10.1109/ROBIO.2018.8665256.

    [11] 徐孝彬,曹晨飞,张磊,等. 基于四面体特征的面阵激光雷达与相机标定方法[J]. 光子学报,2024 ,53(7):176-190.

    XU Xiaobin,CAO Chenfei,ZHANG Lei,et al. Planar array lidar and camera calibration method based on tetrahedral features[J]. Acta Photonica Sinica,2024,53(7):176-190.

    [12] 谢婧婷,蔺小虎,王甫红,等. 一种点线面约束的激光雷达和相机标定方法[J]. 武汉大学学报(信息科学版),2021,46(12):1916-1923.

    XIE Jingting,LIN Xiaohu,WANG Fuhong,et al. Extrinsic calibration method for LiDAR and camera with joint point-line-plane constraints[J]. Geomatics and Information Science of Wuhan University,2021,46(12):1916-1923.

    [13]

    PANDEY G,MCBRIDE J R,SAVARESE S,et al. Automatic extrinsic calibration of vision and lidar by maximizing mutual information[J]. Journal of Field Robotics,2015,32(5):696-722. DOI: 10.1002/rob.21542

    [14]

    ZHAO Yipu,WANG Yuanfang,TSAI Y. 2D-image to 3D-range registration in urban environments via scene categorization and combination of similarity measurements[C]. IEEE International Conference on Robotics and Automation ,Stockholm,2016:1866-1872.

    [15]

    JIANG Peng,OSTEEN P,SARIPALLI S. SemCal:semantic LiDAR-camera calibration using neural mutual information estimator[C]. IEEE International Conference on Multisensor Fusion and Integration for Intelligent Systems,Karlsruhe,2021. DOI: 10.48550/arXiv.2109.10270.

    [16]

    MA Tao,LIU Zhizheng,YAN Guohang,et al. CRLF:automatic calibration and refinement based on line feature for LiDAR and camera in road scenes[EB/OL]. (2021-03-08)[2024-06-22]. https://arxiv.org/abs/2103.04558v1.

    [17]

    ZHU Yufeng,LI Chenghui,ZHANG Yubo. Online camera-LiDAR calibration with sensor semantic information[C]. IEEE International Conference on Robotics and Automation,Paris,2020. DOI: 10.1109/ICRA40945.2020.9196627.

    [18]

    ISHIKAWA R,OISHI T,IKEUCHI K. LiDAR and camera calibration using motions estimated by sensor fusion odometry[C]. IEEE/RSJ International Conference on Intelligent Robots and Systems,Madrid,2018:7342-7349.

    [19]

    WANG Li,XIAO Zhipeng,ZHAO Dawei,et al. Automatic extrinsic calibration of monocular camera and LIDAR in natural scenes[C]. IEEE International Conference on Information and Automation,Wuyishan,2018:997-1002.

    [20]

    SCHNEIDER N,PIEWAK F,STILLER C,et al. RegNet:multimodal sensor registration using deep neural networks[C]. IEEE Intelligent Vehicles Symposium,Los Angeles,2017:1803-1810.

    [21]

    IYER G,RAM R K,MURTHY J K,et al. CalibNet:geometrically supervised extrinsic calibration using 3D spatial transformer networks[C]. IEEE/RSJ International Conference on Intelligent Robots and Systems,Madrid,2018:1110-1117.

    [22]

    LYU Xudong,WANG Shuo,YE Dong. CFNet:lidar-camera registration using calibration flow network[J]. Sensors,2021. DOI: 10.48550/arXiv.2104.11907.

    [23]

    WANG Weimin,NOBUHARA S,NAKAMURA R,et al. SOIC:semantic online initialization and calibration for LiDAR and camera[EB/OL]. (2023-03-09)[2024-06-22]. https://arxiv.org/abs/2003.04260v1.

    [24]

    JAIN J,LI Jiachen,CHIU M,et al. OneFormer:one transformer to rule universal image segmentation[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition,Vancouver,2023:2989-2998.

    [25]

    XIAO Zeqi,ZHANG Wenwei,WANG Tai,et al. Position-guided point cloud panoptic segmentation transformer[EB/OL]. (2023-03-23)[2024-06-22]. https://arxiv.org/abs/2303.13509v1.

  • 期刊类型引用(5)

    1. 问永忠,贾澎涛,夏敏高,张龙刚,王伟峰. 基于改进YOLOv8n的井下人员多目标检测. 工矿自动化. 2025(01): 31-37+77 . 本站查看
    2. 罗维平,张哲. 基于改进YOLOv8的织物疵点检测算法. 黄河科技学院学报. 2025(02): 23-30 . 百度学术
    3. 朱永军,蔡光琪,韩进,缪燕子,马小平,焦文华. 基于改进YOLOv11的露天矿复杂背景下小目标检测. 工矿自动化. 2025(04): 93-99 . 本站查看
    4. 张羽,刘皓洋,贾升凯,翁乾,张河山. 施工环境中安全帽和反光衣轻量化检测方法. 电子测量技术. 2025(08): 133-143 . 百度学术
    5. 杨子润,周亚军,栾博钰. 中联润世露天煤矿斗齿监测系统设计与应用. 露天采矿技术. 2025(03): 102-105 . 百度学术

    其他类型引用(0)

图(11)  /  表(5)
计量
  • 文章访问数:  784
  • HTML全文浏览量:  47
  • PDF下载量:  46
  • 被引次数: 5
出版历程
  • 收稿日期:  2024-07-15
  • 修回日期:  2024-10-07
  • 网络出版日期:  2024-08-15
  • 刊出日期:  2024-10-24

目录

/

返回文章
返回