基于DYCS−YOLOv8n的井下无人驾驶电机车多目标检测

许谨辉, 王文善, 王爽, 王文钺, 赵婷婷

许谨辉,王文善,王爽,等. 基于DYCS−YOLOv8n的井下无人驾驶电机车多目标检测[J]. 工矿自动化,2025,51(4):86-92, 130. DOI: 10.13272/j.issn.1671-251x.2024100036
引用本文: 许谨辉,王文善,王爽,等. 基于DYCS−YOLOv8n的井下无人驾驶电机车多目标检测[J]. 工矿自动化,2025,51(4):86-92, 130. DOI: 10.13272/j.issn.1671-251x.2024100036
XU Jinhui, WANG Wenshan, WANG Shuang, et al. Multi-object detection for underground unmanned locomotives based on DYCS-YOLOv8n[J]. Journal of Mine Automation,2025,51(4):86-92, 130. DOI: 10.13272/j.issn.1671-251x.2024100036
Citation: XU Jinhui, WANG Wenshan, WANG Shuang, et al. Multi-object detection for underground unmanned locomotives based on DYCS-YOLOv8n[J]. Journal of Mine Automation,2025,51(4):86-92, 130. DOI: 10.13272/j.issn.1671-251x.2024100036

基于DYCS−YOLOv8n的井下无人驾驶电机车多目标检测

基金项目: 

国家自然科学基金面上项目(52274152);安徽省智能矿山技术与装备工程研究中心开放基金项目(AIMTEERC202405);安徽理工大学高层次引进人才科研启动基金项目(2023yjrc95)。

详细信息
    作者简介:

    许谨辉(2001—),男,安徽芜湖人,硕士研究生,研究方向为煤矿运输车视觉感知,E-mail:xujin1141@126.com

    通讯作者:

    王文善(1992—),男,安徽怀远人,讲师,博士,研究方向为煤矿无人驾驶运输车视觉感知,E-mail:wwsaust@126.com

  • 中图分类号: TD64

Multi-object detection for underground unmanned locomotives based on DYCS-YOLOv8n

  • 摘要:

    针对井下无人驾驶电机车因光线暗、噪声大及运动模糊等因素导致图像特征难提取、细节易丢失、小尺寸目标难识别等问题,提出了一种基于DYCS−YOLOv8n的井下无人驾驶电机车多目标检测模型。在YOLOv8n的基础上引入卷积注意力模块(CBAM),通过空间和通道双重注意力机制,提高了对关键特征的提取能力;增加小目标检测层,由原来的3层增加到4层,从而更好地提取细小特征,提升了对小尺寸目标的检测性能;采用动态上采样算子DySample,根据输入特征自适应地调整采样策略,更好地保留图像中的边缘和局部细节,避免了图像关键信息损失。采用自建的井下无人驾驶电机车数据集进行实验,结果表明:① DYCS−YOLOv8n模型的平均精度均值(mAP@0.5)达97.5%,较YOLOv8n模型提高了3.4%,且检测速度达46.35帧/s,满足实时性检测需求。② 与YOLO系列主流目标检测模型相比,DYCS−YOLOv8n模型的mAP@0.5最优,在保持轻量化的同时保证了较快的计算速度。③ 在噪声、低光照等复杂井下场景下,DYCS−YOLOv8n模型对行人、轨道、信号灯的平均检测置信度较高,未出现漏与误检情况。

    Abstract:

    To address the challenges in underground unmanned locomotive image feature extraction—such as poor lighting, high noise, and motion blur, which result in the loss of image details and difficulty in identifying small targets—a multi-object detection model for underground unmanned locomotives based on DYCS-YOLOv8n was proposed. Based on YOLOv8n, the Convolutional Block Attention Module (CBAM) was introduced, enhancing the extraction of key features through spatial and channel attention mechanisms. A small-object detection layer was added, increasing the original three layers to four, thereby improving the extraction of fine features and enhancing detection performance for small-sized targets. The dynamic upsampling operator DySample was employed to adaptively adjust the sampling strategy according to the input features, better preserving edges and local details in the images and avoiding the loss of critical information. Experiments conducted on a self-constructed underground unmanned locomotive dataset showed that: ① The DYCS-YOLOv8n model achieved a mean Average Precision (mAP@0.5) of 97.5%, an improvement of 3.4% over the YOLOv8n model, with a detection speed of 46.35 frames per second, meeting the requirements for real-time detection. ② Compared with mainstream YOLO series object detection models, DYCS-YOLOv8n achieved the optimal mAP@0.5, maintaining a lightweight structure while ensuring high computational speed. ③ In complex underground scenarios with noise and low illumination, the DYCS-YOLOv8n model exhibited high average detection confidence for pedestrians, tracks, and signal lights, with no cases of missed or false detections.

  • 近年来,我国开始大力推进煤矿智能化建设。2024年4月,国家矿山安监局等七部门联合印发《关于深入推进矿山智能化建设促进矿山安全发展的指导意见》,指出要“重点攻克复杂条件无人驾驶等关键技术[1]”。煤矿井下有轨电机车是一种煤矿辅助运输设备,承担对作业人员、设备、物料等的运输任务,具有运行频繁、运输量大、运行距离长等特点[2]。人工驾驶电机车的方式受巷道狭窄、运输道路崎岖不平、交通信号不完善等影响,经常出现驾驶员违章行驶、机车安全性能不高等问题[3-4]。同时由于驾驶员长时间驾驶、注意力分散等原因,容易造成运输事故。因此,研究煤矿井下电机车无人驾驶技术,对保障煤矿安全高效生产具有重要意义[5]

    在低光照、多粉尘的井下恶劣环境实现精准的目标检测是无人驾驶过程中的重要一环。近年来,在卷积神经网络快速发展的背景下,基于深度学习的目标检测算法趋于成熟[6]。目前基于深度学习的主流目标检测算法主要分为2类:以Faster−RCNN[7],R−CNN[8],Mask R−CNN[9]等为代表的两阶段检测算法;以SSD[10],YOLO系列[11-12]为代表的一阶段检测算法。两阶段检测算法检测精度高,却无法避免计算成本大、速度慢等缺点,不适用于煤矿场景。而YOLO系列算法在计算模型较小的情况下仍能保持良好精度。曹帅等[13]在YOLOv7中将模拟退火(Simulated Annealing,SA)算法与k−means++聚类算法融合,优化初始锚框值,准确捕捉井下小目标。张传伟等[14]对YOLOv8颈部的C2f模型进行改进,增强了对低光照、复杂背景中重点区域注意程度,同时设计了DicPSA模块来替换主干网络中的空间金字塔池化模块,增强了模型对关键特征信息的捕获提取能力。郑嘉祺[15]将改进型YOLO系列目标检测算法应用于煤矿井下行人检测数据集,在目标检测速度和精度上均有所提高。李忠飞等[16]使用轻量化特征提取网络S−MobileNetV2替换YOLOv4的特征提取网络CSPDarknet53,减少了相关参数量的同时改善了特征之间的联系,并将原有颈部结构中的部分卷积修改为深度可分离卷积,在保证检测精度的前提下进一步降低了模型的参数量和计算量。陈伟等[17]使用slim−neck对基础模型的颈部进行改造,将原有YOLOv8l模型中的卷积替换为感受野注意卷积(Receptive-Field Attention Convolution,RFAConv),满足了模型实时性和轻量化的需求。Wang Wenshan等[18]提出了一种YOLOv3−4L算法用于煤矿井下巷道内多种目标检测,通过简化Darknet53特征提取网络、添加浅层检测尺度、优化损失函数,提升了目标检测的平均精度及检测速度。上述研究虽取得了一定成果,但在井下高噪声、低光照和运动模糊等环境因素影响下,部分目标检测难度大,模型识别精度低等问题仍然存在。

    本文提出一种基于YOLOv8n的改进模型——DYCS−YOLOv8n模型,并将其应用于井下无人驾驶电机车多目标检测。在YOLOv8n的基础上,引入卷积注意力模块(Convolutional Block Attention Module,CBAM),增强对复杂环境下目标的特征提取能力;添加小目标检测层,针对井下小尺寸目标提升模型检测能力;采用动态上采样算子DySample,在复杂背景中更好地保留图像细节。

    YOLOv8n是一种单阶段目标检测模型,由输入端(Input)、主干网络(Backbone)、颈部网络(Neck)和检测头(Head)4个部分组成,具有高检测精度、速度和灵活性。输入端主要进行数据增强、自适应锚框计算等图像预处理操作。主干网络采用改进的CSP−Darknet网络,将C3模块替换为C2f模块,这种改进方式利用特征融合技术来提高模型对复杂特征的表达能力,可以更好地捕捉和提取更丰富的特征信息。颈部网络使用特征金字塔网络(Feature Pyramid Network,FPN)和路径聚合网络(Path Aggregation Network,PAN)的双层结构,通过构建多尺度FPN并促进跨层信息的流通,使网络能够更精准地捕捉不同尺度目标的特征。

    DYCS−YOLOv8n在YOLOv8n的基础上进行了如下改进:① 在颈部网络最后一层C2f层和检测头之间引入CBAM,结合空间和通道双注意力,提高模型对井下恶劣环境下图像特征的提取能力。② 添加小目标检测层,由原来的3层增加至4层,提升模型对小目标的检测能力。③ 采用动态上采样算子DySample,替换原模型中的Upsample算子,避免图像关键信息损失。DYCS−YOLOv8n模型结构如图1所示。

    图  1  DYCS−YOLOv8模型结构
    Figure  1.  Structure of DYCS-YOLOv8 model

    煤矿井下无人驾驶电机车在行驶过程中采集到的图像质量受低光照、多粉尘等影响,增加了模型对图像特征提取的难度,目标特征损失严重。

    相较于一般的注意力机制,CBAM结合了空间和通道双重注意力,能够更深层次地提升网络的特征提取能力,进一步提高目标检测任务的性能。通过引入CBAM,模型能够更加有效地聚焦于重要特征区域,提升整体目标检测性能。CBAM主要由通道注意力模块和空间注意力模块组成[19],如图2所示。

    图  2  CBAM结构
    Figure  2.  CBAM structure

    通道注意力模块的核心思想是让网络学习各个通道的重要性。对输入特征图进行全局平均池化和全局最大池化,以获得每个通道的描述向量。通道注意力模块结构如图3所示。

    图  3  通道注意力模块结构
    Figure  3.  Structure of channel attention module

    空间注意力模块采用全局平均池化和全局最大池化的方法,生成2个二维特征图。将这2个特征图沿通道维度连接,形成1个新的特征图,反映各个空间位置的重要性。空间注意力模块结构如图4所示。

    图  4  空间注意力模块结构
    Figure  4.  Structure of spatial attention module

    井下无人驾驶电机车在行驶过程中,由于小目标的尺寸较小,特征不明显,在复杂的环境背景下,容易被周围环境淹没。传统模型的检测能力欠缺,在实际应用中容易出现漏检,不能准确识别信号灯等小目标。

    为解决这一问题,在YOLOv8n模型中引入小目标检测层,增强模型对小目标的关注度,使得更底层的特征信息得到进一步融合,显著提高识别率。小目标检测层结构如图5所示。

    图  5  小目标检测层结构
    Figure  5.  Structure of small target detection layer

    上采样是计算机视觉和图像处理领域中的一种重要技术,用于提高图像分辨率或特征图的尺寸,使模型更容易识别对象的边界和细节,常见于图像重建、目标检测和图像分割等任务。YOLOv8中使用了最近邻插值的上采样方式,实现简单,但常常导致细节模糊和信息损失。而最近的基于内核的动态上采样算子(例如CARAFE,FADE和SAPA),虽检测性能获得较大提升,但同时也增加了计算量,提高了计算成本。

    DySample结合了动态上采样的优点,避免了复杂性和高成本,用一种简单而高效的方法来生成内容感知的上采样结果。DySample结构[20]图6所示。输入大小为C×H×WC为通道特征维度,H为空间垂直维度,W为空间水平维度)的特征图$ x $,通过采样点生成器[21]生成大小为2g×sH×sWg为采样点数,s为上采样比例因子)的采样集S,并与输入特征图$ x $通过网格采样得到大小为C×sH×sW的上采样特征图:

    图  6  DySample结构
    Figure  6.  DySample structure
    $$ x'=\mathrm{g}\mathrm{r}\mathrm{i}\mathrm{d}\_\mathrm{s}\mathrm{a}\mathrm{m}\mathrm{p}\mathrm{l}\mathrm{e}\left(x,S\right) $$ (1)

    式中$ \mathrm{g}\mathrm{r}\mathrm{i}\mathrm{d}\_\mathrm{s}\mathrm{a}\mathrm{m}\mathrm{p}\mathrm{l}\mathrm{e}\left(\cdot \right) $为网格采样函数。

    实验环境:操作系统为Windows10,CPU为12th Gen Intel(R) Core(TM) i5−12400F,GPU为NVIDIA GeForce RTX4060,深度学习环境配置为PyTorch 2.4.1,Python 3.12及CUDA12.4。

    超参数设置:批量大小(batch size)为16,动量(momentum)为0.937,衰减率(decay)为0.000 5,学习率(learning rate)为0.01,训练轮次(epochs)为300。

    本实验的数据集来源于安徽省淮南矿业(集团)有限责任公司潘集第一煤矿井下无人驾驶电机车运输巷道的实际拍摄,使用防爆相机等设备收集了1 264张电机车行驶场景的图像,其中包含行人目标1 189张,轨道目标1 264张,信号灯目标1 046张,图像分辨率为1 920×1 080。为提升数据集的多样性和检测算法的鲁棒性,并更真实地模拟井下环境,本文通过添加噪声、运动模糊和低光照等对数据集进行扩充。扩充后,总计有5 056张图像,随后使用labelimg进行标注,标注类别包括“person”、“track”和“light”,分别代表行人、轨道和信号灯。最后,数据集按照8∶1∶1的比例划分为训练集、验证集和测试集,其中包括训练集4 044张图像,验证集和测试集各506张图像。

    为准确评估模型的性能,本文选取以下评价指标:平均精度(Average Precision,AP)、平均精度均值(mean Average Precision,mAP)、浮点运算次数(Giga Floating-point Operations Per Second,GFLOPs)、参数量(Params)、帧率(Frame Per Second,FPS)。

    为验证CBAM注意力机制在煤矿井下环境的适用性,与挤压−激励注意力机制(Squeeze-and-Excitation Attention,SE)[22]、坐标注意力机制(Coordinate Attention,CA)[23]、高效多尺度注意力机制(Efficient Multi-scale Attention,EMA)[24]、全局注意力机制(Global Attention Mechanism,GAM)[25]进行对比实验,结果见表1。可看出在引入的各项注意力机制中,SE,EMA,CA和GAM均会降低mAP@0.5,而CBAM注意力机制能提升mAP@0.5,且未增加GFLOPs。

    表  1  不同注意力机制对比
    Table  1.  Comparison of different attention mechanisms
    模型 AP/% mAP@0.5/% GFLOPs/109
    person track light
    YOLOv8n+SE 96.1 97.7 85.5 93.1 8.2
    YOLOv8n+CA 96.0 97.1 87.1 93.4 8.2
    YOLOv8n+EMA 96.3 97.2 89.4 94.3 8.3
    YOLOv8n+GAM 96.4 97.0 85.3 92.9 9.5
    YOLOv8n+CBAM 97.9 98.4 89.6 95.3 8.2
    下载: 导出CSV 
    | 显示表格

    为验证各改进方法对YOLOv8n模型性能的影响,设计了4组消融实验,结果见表2,其中mAP@0.5曲线如图7所示。模型A为YOLOv8n模型,模型B在模型A的基础上添加了CBAM注意力机制,模型C在模型B的基础上采用了DySample动态上采样,模型D在模型C的基础上添加了小目标检测层。

    表  2  消融实验结果对比
    Table  2.  Comparison of ablation experiment results
    模型 AP/% mAP@0.5/% GFLOPs/109 Params/
    106
    FPS/
    (帧·s−1
    person track light
    A 97.6 97.8 87.8 94.4 8.2 3.01 49.82
    B 97.9 99.0 89.0 95.3 8.2 3.08 46.86
    C 98.1 98.7 91.3 96.0 8.2 3.09 41.57
    D 98.5 98.7 95.3 97.5 12.7 3.06 46.35
    下载: 导出CSV 
    | 显示表格
    图  7  消融实验mAP@0.5曲线
    Figure  7.  mAP@0.5 curves of ablation experiment

    表2图7可看出:① 在YOLOv8n模型中添加CBAM后,在170轮迭代之后,模型B的mAP@0.5逐渐高于模型A,并一直保持到训练结束。模型B的GFLOPs,Params基本不变且FPS略微降低,mAP@0.5提升了0.9%,其中针对light的AP提升了1.2%,有效提高了模型精度。② 将传统的上采样替换为动态上采样DySample后,在50轮迭代之前,模型C比模型B收敛更快,且在150轮迭代之后模型C的mAP@0.5渐渐高于模型B并保持领先。模型C的GFLOPs不变,Params基本无变化,FPS虽然有所减少却依旧保持41.57帧/s的较高推理速度,mAP@0.5从95.3%提高到96.0%,表明DySample在不增加计算量和模型大小的同时,整体上增强了模型性能。③ 增加额外小目标检测层后,在50轮迭代之前模型D的mAP@0.5曲线的收敛速度快于所有曲线,在迭代100轮之后,模型D的mAP@0.5也一直高于其他模型,且整体上更加稳定、平滑。模型D的GFLOPs小幅增加,Params基本不变,FPS增加到46.35帧/s,满足目标检测任务实时性的要求,mAP@0.5从96.0%提升到97.5%,其中针对light的AP增加了4%,达95.3%,说明添加小目标检测层对小目标的检测效果提升显著,模型性能获得较大提升。

    为验证DYCS−YOLOv8n模型性能的优越性,选择YOLOv5n,YOLOv6,YOLOv8s,YOLOv10n,YOLOv11n等主流目标检测模型进行对比实验,结果见表3

    表  3  对比实验结果
    Table  3.  Comparative experiment results
    模型 AP/% mAP@0.5/% Params/
    106
    GFLOPs/
    109
    person track light
    YOLOv5n 97.8 98.6 90.1 95.5 2.51 7.2
    YOLOv6 98.0 98.1 87.7 94.6 4.20 11.8
    YOLOv8s 95.6 98.4 87.7 93.9 11.13 28.6
    YOLOv10n 97.9 98.5 89.8 95.4 2.71 8.2
    YOLOv11n 98.2 98.7 89.6 95.5 2.60 6.4
    DYCS−YOLOv8 98.5 98.7 95.3 97.5 3.06 12.7
    下载: 导出CSV 
    | 显示表格

    表3可看出,DYCS−YOLOv8n各项AP均高于其他模型,其中针对light的AP高达95.3%;DYCS−YOLOv8n的mAP@0.5较YOLOv11n和YOLOv5n高2.0%,较YOLOv10n,YOLOv6和YOLOv8s分别高2.1%,2.9%和3.6%;Params为3.06×106个,仅略高于YOLOv5n,YOLOv10n和YOLOv11n,远低于YOLOv8s;GFLOPs远低于YOLOv8s,在保持轻量化的同时保证了较快的计算速度。

    为进一步验证DYCS−YOLOv8n模型的实际检测效果,使用相同数据集,将其与YOLOv5n,YOLOv8n,YOLOv10n及YOLOv11n进行检测效果对比实验,结果如图8所示。可看出在正常场景下,YOLOv8n和YOLOv10n均存在1处信号灯漏检,而YOLOv5n和YOLOv8n信号灯检测的置信度较低;在噪声场景下,YOLOv5n和YOLOv8n均存在1处行人漏检;在黑暗环境下,YOLOv8n存在信号灯检测的置信度低的问题,且除了DYCS−YOLOv8n模型外,其他模型均存在行人漏检的问题;DYCS−YOLOv8n模型在上述场景中均能准确检测出信号灯、轨道和行人,平均目标检测置信度较高。

    图  8  不同模型检测效果对比
    Figure  8.  Comparison of detection effect of different models

    1) DYCS−YOLOv8n模型在YOLOv8n的基础上引入CBAM,抑制模糊和噪声的影响,增强重要特征的提取能力,提升模型在复杂环境中的鲁棒性和准确性;增加小目标检测层,提升模型对小目标的检测性能;将传统的上采样替换为动态上采样,根据输入特征自适应地调整采样策略,有效避免图像细节的模糊和信息丢失。

    2) 消融实验结果表明,针对YOLOv8模型引入CBAM、增加小目标检测层、采用动态上采样等改进方法能有效提升目标检测精度,mAP@0.5分别提升了0.9%,0.7%,1.5%。

    3) 对比实验结果表明:DYCS−YOLOv8n相较于其他主流目标检测模型mAP@0.5最优,在保持轻量化的同时保证了较快的计算速度;在噪声、低光照等复杂井下场景下,DYCS−YOLOv8n对行人、轨道、信号灯的平均检测置信度较高,未出现漏检与误检情况。

  • 图  1   DYCS−YOLOv8模型结构

    Figure  1.   Structure of DYCS-YOLOv8 model

    图  2   CBAM结构

    Figure  2.   CBAM structure

    图  3   通道注意力模块结构

    Figure  3.   Structure of channel attention module

    图  4   空间注意力模块结构

    Figure  4.   Structure of spatial attention module

    图  5   小目标检测层结构

    Figure  5.   Structure of small target detection layer

    图  6   DySample结构

    Figure  6.   DySample structure

    图  7   消融实验mAP@0.5曲线

    Figure  7.   mAP@0.5 curves of ablation experiment

    图  8   不同模型检测效果对比

    Figure  8.   Comparison of detection effect of different models

    表  1   不同注意力机制对比

    Table  1   Comparison of different attention mechanisms

    模型 AP/% mAP@0.5/% GFLOPs/109
    person track light
    YOLOv8n+SE 96.1 97.7 85.5 93.1 8.2
    YOLOv8n+CA 96.0 97.1 87.1 93.4 8.2
    YOLOv8n+EMA 96.3 97.2 89.4 94.3 8.3
    YOLOv8n+GAM 96.4 97.0 85.3 92.9 9.5
    YOLOv8n+CBAM 97.9 98.4 89.6 95.3 8.2
    下载: 导出CSV

    表  2   消融实验结果对比

    Table  2   Comparison of ablation experiment results

    模型 AP/% mAP@0.5/% GFLOPs/109 Params/
    106
    FPS/
    (帧·s−1
    person track light
    A 97.6 97.8 87.8 94.4 8.2 3.01 49.82
    B 97.9 99.0 89.0 95.3 8.2 3.08 46.86
    C 98.1 98.7 91.3 96.0 8.2 3.09 41.57
    D 98.5 98.7 95.3 97.5 12.7 3.06 46.35
    下载: 导出CSV

    表  3   对比实验结果

    Table  3   Comparative experiment results

    模型 AP/% mAP@0.5/% Params/
    106
    GFLOPs/
    109
    person track light
    YOLOv5n 97.8 98.6 90.1 95.5 2.51 7.2
    YOLOv6 98.0 98.1 87.7 94.6 4.20 11.8
    YOLOv8s 95.6 98.4 87.7 93.9 11.13 28.6
    YOLOv10n 97.9 98.5 89.8 95.4 2.71 8.2
    YOLOv11n 98.2 98.7 89.6 95.5 2.60 6.4
    DYCS−YOLOv8 98.5 98.7 95.3 97.5 3.06 12.7
    下载: 导出CSV
  • [1] 崔邵云,鲍久圣,李芳威,等. 基于多源里程融合的井下无人驾驶自主导航SLAM方法[J/OL]. 煤炭科学技术:1-10[2024-10-06]. http://kns.cnki.net/kcms/detail/11.2402.td.20240925.1231.002.html.

    CUI Shaoyun,BAO Jiusheng,LI Fangwei,et al. Autonomous navigation SLAM method for underground unmanned driving based on multi-source mileage fusion scenarios[J/OL]. Coal Science and Technology:1-10[2024-10-06]. http://kns.cnki.net/kcms/detail/11.2402.td.20240925.1231.002.html.

    [2] 杨豚,郭永存,王爽,等. 煤矿井下无人驾驶轨道电机车障碍物识别[J]. 浙江大学学报(工学版),2024,58(1):29-39.

    YANG Tun,GUO Yongcun,WANG Shuang,et al. Obstacle recognition of unmanned rail electric locomotive in underground coal mine[J]. Journal of Zhejiang University (Engineering Science),2024,58(1):29-39.

    [3] 陈相蒙,王恩标,王刚. 煤矿电机车无人驾驶技术研究[J]. 煤炭科学技术,2020,48(增刊2):159-164.

    CHEN Xiangmeng,WANG Enbiao,WANG Gang. Research on electric locomotive self-driving technology in coal mine[J]. Coal Science and Technology,2020,48(S2):159-164.

    [4] 韩江洪,卫星,陆阳,等. 煤矿井下机车无人驾驶系统关键技术[J]. 煤炭学报,2020,45(6):2104-2115.

    HAN Jianghong,WEI Xing,LU Yang,et al. Driverless technology of underground locomotive in coal mine[J]. Journal of China Coal Society,2020,45(6):2104-2115.

    [5] 葛世荣. 煤矿机器人现状及发展方向[J]. 中国煤炭,2019,45(7):18-27. DOI: 10.3969/j.issn.1006-530X.2019.07.004

    GE Shirong. Present situation and development direction of coal mine robots[J]. China Coal,2019,45(7):18-27. DOI: 10.3969/j.issn.1006-530X.2019.07.004

    [6] 肖雨晴,杨慧敏. 目标检测算法在交通场景中应用综述[J]. 计算机工程与应用,2021,57(6):30-41. DOI: 10.3778/j.issn.1002-8331.2011-0361

    XIAO Yuqing,YANG Huimin. Research on application of object detection algorithm in traffic scene[J]. Computer Engineering and Applications,2021,57(6):30-41. DOI: 10.3778/j.issn.1002-8331.2011-0361

    [7]

    REN Shaoqing,HE Kaiming,GIRSHICK R,et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149. DOI: 10.1109/TPAMI.2016.2577031

    [8]

    GIRSHICK R,DONAHUE J,DARRELL T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]. IEEE Conference on Computer Vision and Pattern Recognition,Columbus,2014:580-587.

    [9]

    HE Kaiming,GKIOXARI G,DOLLÁR P,et al. Mask R-CNN[C]. IEEE International Conference on Computer Vision,Venice,2017:2980-2988.

    [10]

    LIU Wei,ANGUELOV D,ERHAN D,et al. SSD:single shot multibox detector[C]. European Conference on Computer Vision,Cham,2016:21-37.

    [11]

    REDMON J,FARHADI A. YOLO9000:better,faster,stronger[C]. IEEE Conference on Computer Vision and Pattern Recognition,Honolulu,2017:6517-6525.

    [12]

    REDMON J,FARHADI A. YOLOv3:an incremental improvement[EB/OL]. [2024-10-06]. https://arxiv.org/abs/1804.02767v1.

    [13] 曹帅,董立红,邓凡,等. 基于YOLOv7−SE的煤矿井下场景小目标检测方法[J]. 工矿自动化,2024,50(3):35-41.

    CAO Shuai,DONG Lihong,DENG Fan,et al. A small object detection method for coal mine underground scene based on YOLOv7-SE[J]. Journal of Mine Automation,2024,50(3):35-41.

    [14] 张传伟,张天乐,周李兵,等. 基于GCDB−YOLOv8的矿用无人车井下运输巷道工作人员检测方法[J/OL]. 煤炭学报:1-16[2025-04-15]. https://doi. org/10.13225/j. cnki. jccs. 2024.1298.

    ZHANG Chuanwei,ZHANG Tianle,ZHOU Libing,et al. Detection method of mining unmanned vehicles underground transportation roadway workers based on GCDB-YOLOv8[J/OL]. Journal of China Coal Society:1-16[2025-04-15]. https://doi.org/10.13225/j.cnki.jccs.2024.1298.

    [15] 郑嘉祺. 基于DCNN的井下行人检测系统的研究与设计[D]. 西安:西安科技大学,2017.

    ZHENG Jiaqi. Research and design of underground pedestrian detection system based on DCNN[D]. Xi'an:Xi'an University of Science and Technology,2017.

    [16] 李忠飞,冯仕咏,郭骏,等. 融合坐标注意力与多尺度特征的轻量级安全帽佩戴检测[J]. 工矿自动化,2023,49(11):151-159.

    LI Zhongfei,FENG Shiyong,GUO Jun,et al. Lightweight safety helmet wearing detection fusing coordinate attention and multiscale feature[J]. Journal of Mine Automation,2023,49(11):151-159.

    [17] 陈伟,江志成,田子建,等. 基于YOLOv8的煤矿井下人员不安全动作检测算法[J]. 煤炭科学技术,2024,52(增刊2):267-283.

    CHEN Wei,JIANG Zhicheng,TIAN Zijian,et al. Unsafe action detection algorithm of underground personnel in coal mine based on YOLOv8[J]. Coal Science and Technology,2024,52(S2):267-283.

    [18]

    WANG Wenshan,WANG Shuang,GUO Yongcun,et al. Obstacle detection method of unmanned electric locomotive in coal mine based on YOLOv3-4L[J]. Journal of Electronic Imaging,2022,31(2). DOI: 10.1117/1.JEI.31.2.023032.

    [19] 张楠楠,张晓,白铁成,等. 基于CBAM−YOLO v7的自然环境下棉叶病虫害识别方法[J]. 农业机械学报,2023,54(增刊1):239-244.

    ZHANG Nannan,ZHANG Xiao,BAI Tiecheng,et al. Identification method of cotton leaf pests and diseases in natural environment based on CBAM-YOLO v7[J]. Transactions of the Chinese Society for Agricultural Machinery,2023,54(S1):239-244.

    [20] 李淇,石艳,范桃. 改进YOLOv8n的O型密封圈表面缺陷检测算法研究[J]. 计算机工程与应用,2024,60(18):126-135. DOI: 10.3778/j.issn.1002-8331.2405-0099

    LI Qi,SHI Yan,FAN Tao. Research on O-ring surface defect detection algorithm based on improved YOLOv8n[J]. Computer Engineering and Applications,2024,60(18):126-135. DOI: 10.3778/j.issn.1002-8331.2405-0099

    [21] 袁媛,白一超,周利东,等. 改进YOLOv8的输送带损伤检测方法[J/OL]. 中国机械工程:1-14[2025-04-22]. http://kns.cnki.net/kcms/detail/42.1294.th.20250421.1402.008.html.

    YUAN Yuan,BAI Yichao,ZHOU Lidong,et al. Conveyor belt damage detection based on improved YOLOv8[J/OL]. China Mechanical Engineering:1-14[2025-04-22]. http://kns.cnki.net/kcms/detail/42.1294.th.20250421.1402.008.html.

    [22]

    HU Jie,SHEN Li,SUN Gang. Squeeze-and-excitation networks[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition,Salt Lake City,2018:7132-7141.

    [23]

    TOUVRON H,CORD M,SABLAYROLLES A,et al. Going deeper with image transformers[C]. IEEE/CVF International Conference on Computer Vision,Montreal,2021:32-42.

    [24]

    OUYANG Daliang,HE Su,ZHANG Guozhong,et al. Efficient multi-scale attention module with cross-spatial learning[C]. IEEE International Conference on Acoustics,Speech and Signal Processing,Rhodes Island,2023:1-5.

    [25]

    PANDYA R V R. Generalized attention mechanism and relative position for transformer[EB/OL]. [2024-10-06]. https://arxiv.org/abs/2208.10247v1.

图(8)  /  表(3)
计量
  • 文章访问数:  61
  • HTML全文浏览量:  12
  • PDF下载量:  7
  • 被引次数: 0
出版历程
  • 收稿日期:  2024-10-16
  • 修回日期:  2025-04-22
  • 网络出版日期:  2025-03-31
  • 刊出日期:  2025-04-14

目录

/

返回文章
返回