Detection of underground personnel safety helmet wearing based on improved YOLOv8n
-
摘要: 针对现有井下人员安全帽佩戴检测方法未考虑遮挡、目标较小、背景干扰等因素,存在检测精度差及模型不够轻量化等问题,提出一种改进YOLOv8n模型,并将其应用于井下人员安全帽佩戴检测。在颈部网络中加入P2小目标检测层,提高模型对小目标的检测能力,更好地捕捉安全帽目标细节;在主干网络中添加卷积块注意力模块(CBAM)提取图像关键特征,减少背景信息的干扰;将CIoU损失函数替换为WIoU损失函数,提升模型对检测目标的定位能力;采用轻量化共享卷积检测头(LSCD),通过共享参数的方式降低模型复杂度,并将卷积中的归一化层替换为群组归一化(GN),在尽可能保证精度的同时实现模型轻量化。实验结果表明:与YOLOv8n模型相比,改进YOLOv8n模型在交并比阈值为0.5时的平均精度均值(mAP@50)提升了1.8%,参数量减少了23.8%,计算量下降了10.4%,模型大小减小了17.2%;改进YOLOv8n模型检测精度高于SSD,YOLOv3−tiny,YOLOv5n,YOLOv7和YOLOv8n,模型复杂度仅高于YOLOv5n,较好地平衡了模型检测精度与复杂度;在井下复杂场景下,改进YOLOv8n模型能够实现对井下人员安全帽佩戴的准确检测,改善了漏检问题。Abstract: Existing methods for detecting safety helmet wearing among underground personnel fail to consider factors such as occlusion, small target size, and background interference, leading to poor detection accuracy and insufficient model lightweighting. This paper proposed an improved YOLOv8n model applied to safety helmet wearing detection in underground. A P2 small target detection layer was added to the neck network to enhance the model's ability to detect small targets and better capture details of safety helmets. A convolutional block attention module (CBAM) was integrated into the backbone network to extract key image features and reduce background interference. The CIoU loss function was replaced with the WIoU loss function to improve the model's localization capability for detection targets. A lightweight shared convolution detection head (LSCD) was used to reduce model complexity through parameter sharing, and normalization layers in convolutions were replaced with group normalization (GN) to reduce model weight while maintaining accuracy as much as possible. The experimental results showed that compared to the YOLOv8n model, the improved YOLOv8n model increased the mean average precision at an intersection over union threshold of 0.5 (mAP@50) by 1.8%, reduced parameter count by 23.8%, lowered computational load by 10.4%, and decreased model size by 17.2%. The improved YOLOv8n model outperformed SSD, YOLOv3-tiny, YOLOv5n, YOLOv7, and YOLOv8n in detection accuracy, with a complexity only slightly higher than YOLOv5n, effectively balancing detection accuracy and complexity. In complex underground scenarios, the improved YOLOv8n model were able to achieve accurate detection of safety helmet wearing among underground personnel, addressing the issue of missed detections.
-
Keywords:
- underground safety helmet detection /
- small target detection /
- YOLOv8n /
- CBAM /
- WIoU /
- lightweighting
-
0. 引言
井下工作环境面临坍塌、有毒气体、高温等潜在危险[1]。为保障工作人员的安全,个人防护装备的使用至关重要,其中确保人员正确佩戴安全帽并及时发现未佩戴者成为重要任务。
目标检测是井下人员安全帽佩戴检测的核心。近年来,深度学习算法在目标检测领域广泛应用。常用的目标检测方法主要分为单阶段检测模型(如SSD[2],YOLO[3])与双阶段检测模型(如R−CNN[4])。在工业领域中,双阶段检测模型由于其复杂性导致检测速度较慢,难以保证实时检测。单阶段检测模型中,SSD检测速度较快,但精度较差,而YOLO以其较高的实时性和准确性备受关注,能够在单一前向传递中直接预测图像中的目标位置和类别。赵红成等[5]在YOLOv3的基础上通过使用GIoU损失函数提高定位准确率,采用金字塔多池化结构提高多尺度检测能力,并引入注意力机制专注于安全帽特征学习,但当目标过小或被遮挡时仍有漏检情况,且增加了检测时间。Fu Chuan等[6]在YOLOv3的基础上,将深度残差网络和多尺度卷积特征相结合,并通过调整损失函数的权重来优化目标框的选择,提升了对中远距离安全帽的识别精度,但没有考虑遮挡情况。李熙尉等[7]将YOLOv5的CIoU损失函数替换为Alpha−CIoU损失函数,并引入卷积块注意力模块(Convolutional Block Attention Module,CBAM)提取图像关键特征,但未考虑安全帽目标较小与遮挡等情况。李凤英等[8]基于YOLOv7,采用数据增强的方式来克服复杂环境的影响,且设计了针对性的锚框尺寸进行检测,并引入DeepSort算法实现了安全帽追踪识别,但未考虑遮挡与目标较小时对检测精度的影响。以上方法在一定程度上提高了检测精度,但并未完全考虑遮挡、目标较小、背景干扰等因素,且都未解决模型轻量化问题。为保证在井下复杂场景检测的实时性,本文在YOLOv8n的基础上进行改进,提出了一种基于改进YOLOv8n的井下人员安全帽佩戴检测方法。添加P2小目标检测层,防止小目标信息丢失;引入CBAM,增强特征提取能力;将CIoU损失函数替换为WIoU损失函数,提升模型的泛化能力及定位性能;使用轻量化共享卷积检测头(Lightweight Shared Convolutional Detection Head,LSCD),降低模型参数量及计算量。
1. 改进YOLOv8n模型
改进YOLOv8n模型结构如图1所示(红框中为改进部分)。在颈部网络中添加P2小目标检测层,提高对小目标的检测能力;在主干网络中添加CBAM,降低对无效信息的关注;检测头使用LSCD,降低模型复杂度。
1.1 小目标检测层
YOLOv8n通过N3,N4和N5检测头分别提取P3,P4和P5检测层的特征图,对应特征图大小分别为80$ \times $80、40$ \times $40和20$ \times $20[9]。井下安全帽属于小目标,小目标通常在图像中占据较少的像素,特征少或不明显,容易被忽略或误判,仅靠原YOLOv8n的检测层无法实现对小目标的精准检测。因此通过添加4倍下采样的P2小目标检测层及对应的检测头N2来提升对小目标的检测能力,如图2所示。P2对应的检测特征图大小为160×160,用于检测4×4以上大小的目标,可使网络更加关注小目标,提高检测精度。
1.2 CBAM
由于背景存在遮挡及光照变化等会降低井下安全帽检测的准确性,所以通过引入注意力机制来提高特征提取能力。
CBAM[10]是一种用于增强CNN性能的注意力模块,通常包括通道注意力模块(Channel Attention Module)和空间注意力模块(Spatial Attention Module),如图3所示。输入特征首先经过通道注意力模块,对不同通道的特征图进行加权,凸显重要的特征通道,抑制不重要的特征通道。再经过空间注意力模块,对特征图的不同空间位置进行加权,强化重要的空间区域,抑制不重要的空间区域。通过在网络中加入CBAM,可提高捕捉重要信息的能力,能够更好地进行特征提取,提升检测精度。
1.3 WIoU损失函数
YOLOv8n采用的损失函数CIoU是IoU的一种改进版本[11]。CIoU旨在更全面地考虑目标检测框之间的重叠情况,同时结合了空间位置、尺寸及角度等方面的信息。但在CIoU中长宽比的引入可能存在问题,即当预测框与真实框长宽比相同时会失去作用,且低质量的回归样本会对损失函数造成不良影响。因此,本文引入WIoU损失函数,该损失函数通过构造动态梯度增益系数,可根据目标的具体特征动态调整每个目标的损失贡献。对于长宽比几乎相同但尺寸或位置不同的目标,WIoU能提供更细致的梯度调整,帮助模型更精准地定位目标,且更专注于普通质量的回归样本,减少对低质量样本的关注,提高检测性能。WIoU损失函数计算公式为[12]
$$ {L}_{{\mathrm{WIoU}}}={rR}_{{\mathrm{WIoU}}}{L}_{{\mathrm{IoU}}} $$ (1) $$ {R}_{{\mathrm{WIoU}}}=\mathrm{exp}\left(\frac{{\left(x-{x}_{{\mathrm{gt}}}\right)}^{2}+{\left(y-{y}_{{\mathrm{gt}}}\right)}^{2}}{{\left({W}_{{\mathrm{g}}}^{2}+{H}_{{\mathrm{g}}}^{2}\right)}^{*}}\right)$$ (2) $$r= \frac{\beta }{\delta {\alpha }^{\beta -\delta }}$$ (3) $$ \beta =\frac{{L}_{{\mathrm{IoU}}}^{*}}{{\overline{L}_{{\mathrm{IoU}}}}} $$ (4) 式中:$ {L}_{{\mathrm{WIoU}}} $为WIoU损失;$ r $为梯度增益;$ {R}_{{\mathrm{WIoU}}} $为权重系数惩罚项;$ {L}_{{\mathrm{IoU}}} $为边界框损失;(x,y)为锚框中心坐标;($ {x}_{{\mathrm{gt}}},{y}_{{\mathrm{gt}}} $)为目标框中心坐标;$ {W}_{{\mathrm{g}}} $,$ {H}_{{\mathrm{g}}} $分别为最小包围框的宽和高;*代表分离操作,不再追踪梯度信息;$ \beta $为离群度;$ \delta $和$ \alpha $为超参数(本文训练中$ \delta $取3,$ \alpha $ 取1.9);$ {L}_{{\mathrm{IoU}}}^{*} $为实际边界框损失;${\overline{L}_{{\mathrm{IoU}}}} $为平均边界框损失。
1.4 LSCD
在YOLOv8n模型中,检测头的计算量较大,因此通过改进检测头来降低模型的复杂度,实现模型的轻量化。YOLOv8n模型的检测头采用的是解耦合头,检测头有2个分支,每个分支均包括2个3×3卷积和1个1×1卷积[13]。而本文针对小目标添加了检测头N2,导致YOLOv8n模型的检测头计算量与参数量大大增加。为解决该问题,本文设计了一种LSCD,其核心思想是将原2个分支变为1个分支,采用共享参数的方式提取特征,即
$$ {h}_{{\mathrm{out}}}={f}_{{\mathrm{w}}}\left({h}_{{\mathrm{in}}}\right)$$ (5) 式中:$ {h}_{{\mathrm{out}}}{,h}_{{\mathrm{in}}} $分别为输出、输入特征;$ {f}_{{\mathrm{w}}}\left(\cdot \right) $为特征提取操作。
LSCD结构如图4所示。模型轻量化容易造成精度的损失,因此,本文将检测头卷积中的归一化层替换为群组归一化(Group Normalization,GN),以提升检测头的定位和分类性能[14]。以P2小目标检测层为例,从P2小目标检测层提取特征图后,经过1个卷积(Conv_GN,1$ \times 1 $)调整通道,再经过2个共享参数的卷积模块(Conv_GN,3$ \times 3 $)进行特征提取,之后将定位分支(Conv_Reg,3$ \times 3 $)和分类分支(Conv_Cls,3$ \times 3 $)进行分离,每个分支都采用共享参数的方式。在定位中采用共享参数时,由于检测物大小不同,需要考虑尺度问题,所以采用Scale层进行不同程度的缩放。LSCD在尽可能保证精度的情况下可大幅度减小模型的计算量和参数量,使得模型轻量化。
2. 实验及结果分析
2.1 数据集
为得到更加真实的训练效果,本文选用综采工作面异常状态图像数据集(DsLMF+)[15]中的煤矿工人安全帽数据,该数据采集于原始井下检测视频,将视频逐帧截成图像,并对原始图像进行滤波处理,最终得到20 117张图像,并按照8∶2的比例划分为训练集与验证集。为提高模型的鲁棒性,通过Mosaic进行数据增强。
2.2 实验环境与参数
实验采用PyTorch作为框架,Python作为编程语言,利用GPU进行训练。训练硬件环境:CPU为Intel(R) Xeon(R) CPU E5−2680 v4,GPU为NVIDIA RTX 4060,显存为8 GiB,操作系统为Linux。PyTorch版本为2.0.0,Cuda版本为11.8.0,Python版本为3.8。
实验参数设置:epochs为200,batchsize为8,优化器为Adam,初始化学习率为0.01,动量参数为0.937,权重衰减为0.000 5。
2.3 实验结果
2.3.1 注意力机制对比实验
在添加P2小目标检测层的基础上,引入CBAM和常用的SE[16],EMA[17],CA[18]注意力机制进行对比,结果见表1(mAP@50表示交并比阈值为0.5时的平均精度均值)。可看出引入CBAM后检测精度最高。
表 1 不同注意力机制对比实验结果Table 1. Comparison of experimental results with different attention mechanisms注意力机制 精确率 召回率 mAP@50/% SE 0.912 0.873 94.0 EMA 0.902 0.874 93.8 CA 0.920 0.866 94.1 CBAM 0.910 0.881 94.3 为直观证明添加CBAM的效果,对加入CBAM前后的热力图进行对比,如图5所示。可看出加入CBAM后,降低了背景影响,使网络更专注于安全帽目标。
2.3.2 损失函数对比实验
在添加P2小目标检测层及CBAM的基础上,将WIoU损失函数和常用的CIoU,EIoU[19],SIoU[20],GIoU[21]等损失函数进行对比,结果见表2。可看出WIoU损失函数使模型的精确率、召回率及mAP@50分别提升了0.7%,1.3%,0.8%,这是因为WIoU损失函数能够进一步提高模型的定位性能。
表 2 不同损失函数对比实验结果Table 2. Comparison of experimental results with different loss functions损失函数 精确率 召回率 mAP@50/% CIoU 0.910 0.881 94.3 EIoU 0.914 0.878 94.2 SIoU 0.909 0.872 94.1 GIoU 0.909 0.884 94.2 WIoU 0.917 0.894 95.1 2.3.3 消融实验
为验证本文所提改进方法的有效性,基于基准模型YOLOv8n进行消融实验,结果见表3。可看出单独加入P2小目标检测层、CBAM、WIoU损失函数,模型mAP@50分别提升了0.8%,0.3%,0.4%。将以上3种改进组合,检测精度达到最高,mAP@50相较于YOLOv8n模型提升了2.1%。但引入P2小目标检测层及CBAM使得模型参数量、计算量及模型大小较YOLOv8n模型分别增加了8.6%,97.7%,2.1%。而加入LSCD使得模型复杂度降低,与YOLOv8n模型相比,参数量、计算量及模型大小分别下降了23.8%,10.4%,17.2%,且mAP@50提升了1.8%。
表 3 消融实验结果Table 3. Ablation experiment resultsP2 CBAM WIoU LSCD mAP@50/% 参数量/
106个浮点运算
数/109模型大
小/MiB× × × × 93.0 3.15 8.7 6.11 √ × × × 93.8 3.35 17.2 6.11 × √ × × 93.3 3.22 8.7 6.24 × × √ × 93.4 3.15 8.7 6.11 √ √ √ × 95.1 3.42 17.2 6.24 √ √ √ √ 94.8 2.40 7.8 5.07 2.3.4 目标检测对比实验
为进一步证明改进YOLOv8n模型的检测性能,在相同实验环境下将改进YOLOv8n模型与主流目标检测模型SSD,YOLOv3−tiny,YOLOv5n,YOLOv7及YOLOv8n进行对比,结果见表4。可看出改进YOLOv8n模型的检测精度最高,且在参数量、计算量和模型大小方面相较于除YOLOv5n以外的模型具有较大优势。
表 4 不同目标检测模型对比实验结果Table 4. Comparison of experimental results for different object detection models模型 mAP@50/% 参数量/106个 浮点运算数/109 模型大小/MiB SSD 69.6 23.61 60.8 503.67 YOLOv3−tiny 88.9 8.67 12.9 17.40 YOLOv5n 85.6 1.77 4.2 3.78 YOLOv7 94.1 37.19 105.1 74.80 YOLOv8n 93.0 3.15 8.7 6.11 改进YOLOv8n 94.8 2.40 7.8 5.07 为更清楚地对比YOLOv8n改进前后的检测效果,使用本文数据集中部分图像进行检测(置信度设置为0.5),结果如图6所示。可看出:在图像1中,YOLOv8n模型在安全帽打开灯光的高亮情况下有1处漏检;在图像2中,YOLOv8n模型在光亮使得安全帽与周围环境颜色相近时有1处漏检;在图像3中,YOLOv8n模型在遮挡情况下有1处漏检;在图像4中,YOLOv8n模型在安全帽紧邻时有1处漏检;而改进YOLOv8n模型在不同场景图像下均能准确检测安全帽,检测精度更高,降低了漏检率。
3. 结论
1) 在YOLOv8n的基础上,添加P2小目标检测层及CBAM,增强了对安全帽的特征提取能力;使用WIoU损失函数,提高了模型对目标定位的准确性;改进检测头为LSCD,采用共享参数的方式降低了模型复杂度。
2) 与SSD,YOLOv3-tiny,YOLOv5n,YOLOv7,YOLOv8n模型相比,改进YOLOv8n模型综合性能最好,mAP@50为94.8%,参数量为2.4×106个,浮点运算数为7.8×109,模型大小为5.07 MiB,平衡了模型检测精度与复杂度。在井下复杂场景下,改进YOLOv8n模型有效改善了漏检问题,更适用于现场检测。
-
表 1 不同注意力机制对比实验结果
Table 1 Comparison of experimental results with different attention mechanisms
注意力机制 精确率 召回率 mAP@50/% SE 0.912 0.873 94.0 EMA 0.902 0.874 93.8 CA 0.920 0.866 94.1 CBAM 0.910 0.881 94.3 表 2 不同损失函数对比实验结果
Table 2 Comparison of experimental results with different loss functions
损失函数 精确率 召回率 mAP@50/% CIoU 0.910 0.881 94.3 EIoU 0.914 0.878 94.2 SIoU 0.909 0.872 94.1 GIoU 0.909 0.884 94.2 WIoU 0.917 0.894 95.1 表 3 消融实验结果
Table 3 Ablation experiment results
P2 CBAM WIoU LSCD mAP@50/% 参数量/
106个浮点运算
数/109模型大
小/MiB× × × × 93.0 3.15 8.7 6.11 √ × × × 93.8 3.35 17.2 6.11 × √ × × 93.3 3.22 8.7 6.24 × × √ × 93.4 3.15 8.7 6.11 √ √ √ × 95.1 3.42 17.2 6.24 √ √ √ √ 94.8 2.40 7.8 5.07 表 4 不同目标检测模型对比实验结果
Table 4 Comparison of experimental results for different object detection models
模型 mAP@50/% 参数量/106个 浮点运算数/109 模型大小/MiB SSD 69.6 23.61 60.8 503.67 YOLOv3−tiny 88.9 8.67 12.9 17.40 YOLOv5n 85.6 1.77 4.2 3.78 YOLOv7 94.1 37.19 105.1 74.80 YOLOv8n 93.0 3.15 8.7 6.11 改进YOLOv8n 94.8 2.40 7.8 5.07 -
[1] OSUNMAKINDE I O. Towards safety from toxic gases in underground mines using wireless sensor networks and ambient intelligence[J]. International Journal of Distributed Sensor Networks,2013,9(2). DOI: 10.1155/2013/159273.
[2] LIU Wei,ANGUELOV D,ERHAN D,et al. SSD:single shot multibox detector[C]. The 14th European Conference on Computer Vision,Amsterdam,2016:21-37.
[3] REDMON J,DIVVALA S,GIRSHICK R,et al. You only look once:unified,real-time object detection[C]. IEEE Conference on Computer Vision and Pattern Recognition,Las Vegas,2016:779-788.
[4] GIRSHICK R,DONAHUE J,DARRELL T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]. IEEE Conference on Computer Vision and Pattern Recognition,Columbus,2014:580-587.
[5] 赵红成,田秀霞,杨泽森,等. 改进YOLOv3的复杂施工环境下安全帽佩戴检测算法[J]. 中国安全科学学报,2022,32(5):194-200. ZHAO Hongcheng,TIAN Xiuxia,YANG Zesen,et al. Safety helmet wearing detection algorithm in complex construction environment based on improved YOLOv3[J]. China Safety Science Journal,2022,32(5):194-200.
[6] FU Chuan,WANG Rongxin. Research on safety helmet wearing YOLO-V3 detection technology improvement in mine environment[J]. Journal of Physics:Conference Series,2019,1345(4). DOI: 10.1088/1742-6596/1345/4/042045.
[7] 李熙尉,孙志鹏,王鹏,等. 基于YOLOv5s改进的井下人员和安全帽检测算法研究[J]. 煤,2023,32(3):22-25. DOI: 10.3969/j.issn.1005-2798.2023.03.006 LI Xiwei,SUN Zhipeng,WANG Peng,et al. Research on underground personnel and safety helmet detection algorithm based on YOLOv5s improvement[J]. Coal,2023,32(3):22-25. DOI: 10.3969/j.issn.1005-2798.2023.03.006
[8] 李凤英,罗超. 基于深度学习的矿山作业安全帽穿戴规范性识别算法[J]. 有色金属(矿山部分),2023,75(4):7-13. DOI: 10.3969/j.issn.1671-4172.2023.04.002 LI Fengying,LUO Chao. Normative recognition algorithm for safety helmet wearing in mining operations based on deep learning[J]. Nonferrous Metals (Mining Section),2023,75(4):7-13. DOI: 10.3969/j.issn.1671-4172.2023.04.002
[9] 雷帮军,余翱,余快. 基于YOLOv8s改进的小目标检测算法[J]. 无线电工程,2024,54(4):857-870. DOI: 10.3969/j.issn.1003-3106.2024.04.009 LEI Bangjun,YU Ao,YU Kuai. Small object detection algorithm based on improved YOLOv8s[J]. Radio Engineering,2024,54(4):857-870. DOI: 10.3969/j.issn.1003-3106.2024.04.009
[10] WOO S,PARK J,LEE J Y,et al. CBAM:convolutional block attention module[C]. European Conference on Computer Vision,Munich,2018:3-19.
[11] ZHENG Zhaohui,WANG Ping,REN Dongwei,et al. Enhancing geometric factors in model learning and inference for object detection and instance segmentation[J]. IEEE Transactions on Cybernetics,2022,52(8):8574-8586. DOI: 10.1109/TCYB.2021.3095305
[12] TONG Zanjia,CHEN Yuhang,XU Zewei,et al. Wise-IoU:bounding box regression loss with dynamic focusing mechanism[EB/OL]. [2024-04-27]. https://arxiv.org/abs/2301.10051.
[13] 陈伟,江志成,田子建,等. 基于YOLOv8的煤矿井下人员不安全动作检测算法[J/OL]. 煤炭科学技术:1-19[2024-04-14]. http://kns.cnki.net/kcms/detail/11.2402.td.20240322.1343.003.html. CHEN Wei,JIANG Zhicheng,TIAN Zijian,et al. Unsafe action detection algorithm of underground personnel in coal mine based on YOLOv8[J/OL]. Coal Science and Technology:1-19[2024-04-14]. http://kns.cnki.net/kcms/detail/11.2402.td.20240322.1343.003.html.
[14] TIAN Zhi,SHEN Chunhua,CHEN Hao,et al. FCOS:a simple and strong anchor-free object detector[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2022,44(4):1922-1933.
[15] YANG Wenjuan,ZHANG Xuhui,MA Bing,et al. An open dataset for intelligent recognition and classification of abnormal condition in longwall mining[J]. Scientific Data,2023,10(1). DOI: 10.1038/s41597-023-02322-9.
[16] HU Jie,SHEN Li,SUN Gang. Squeeze-and-excitation networks[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition,Salt Lake City,2018:7132-7141.
[17] OUYANG Daliang,HE Su,ZHANG Guozhong,et al. Efficient multi-scale attention module with cross-spatial learning[C]. IEEE International Conference on Acoustics,Speech and Signal Processing,Rhodes Island,2023:1-5.
[18] HOU Qibin,ZHOU Daquan,FENG Jiashi. Coordinate attention for efficient mobile network design[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition,Nashville,2021:13708-13717.
[19] ZHANG Yifan,REN Weiqiang,ZHANG Zhang,et al. Focal and efficient IOU loss for accurate bounding box regression[J]. Neurocomputing,2022,506:146-157. DOI: 10.1016/j.neucom.2022.07.042
[20] GEVORGYAN Z. SIoU loss:more powerful learning for bounding box regression[EB/OL]. [2024-04-29]. https://doi.org/10.48550/arXiv.2205.12740.
[21] REZATOFIGHI H,TSOI N,GWAK J,et al. Generalized intersection over union:a metric and a loss for bounding box regression[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition,Long Beach,2019:658-666.
-
期刊类型引用(1)
1. 李小军,赵明炀,李淼. 基于深度学习的钻孔冲煤量智能识别方法. 煤田地质与勘探. 2025(01): 257-270 . 百度学术
其他类型引用(0)