Visual automatic detection method for hydraulic support loss state at the working face
-
摘要:
受采场地质条件变化、泵站压力波动及自动跟机系统误差等因素影响,液压支架在自动跟机移架过程中存在丢架情况,人工丢架监测严重影响工作面自动跟机效率。而基于传感器和感知信息的液压支架实时丢架状态监测方法的稳定性和可靠性较差。针对上述问题,提出一种液压支架丢架状态视觉自动检测方法。首先采用YOLOv8对实时获取的工作面监控视频图像进行工作面目标区域划分,通过充分学习工作面图像内部特征准确获取液压支架底座及推杆的轮廓信息与位置信息,分析不同液压支架底座及推杆的位置信息,确定监控视频图像中的支架号;然后提取相邻液压支架最小底座区域局部图像,利用融合多尺度特征信息的ResNet50卷积网络对底座局部图像进行特征提取,获取图像多尺度融合特征信息,再将特征信息映射到类别空间,获取不同液压支架状态的概率分布,根据概率判断液压支架正常移架或丢架状态,结合支架号信息确定处于丢架状态的液压支架。实验结果表明:基于监控视频的工作面目标区域平均分割精度为0.98,准确实现目标区域结构化提取;支架号自动识别准确率为98.78%,为液压支架丢架状态检测提供准确的支架号信息;工作面液压支架丢架状态视觉自动检测的平均准确率达99.17%,单帧图像处理时间为36 ms,满足采煤工作面AI视频监控系统检测丢架状态的实时性与可靠性需求。
Abstract:Due to changes in mining field geological conditions, fluctuations in pump station pressure, and errors in automated following system, hydraulic supports may experience a loss state during the automatic frame movement process. Manual monitoring of support loss significantly affects the efficiency of automated following at the working face. However, real-time loss state monitoring methods for hydraulic supports based on sensors and perception information often lack stability and reliability. To address these issues, a visual automatic detection method for hydraulic support loss state was proposed. First, YOLOv8 was used to segment key areas of the working face from real-time monitoring video images. By thoroughly analyzing the internal features of the working face images, the contours and location information of hydraulic support bases and push rods were accurately obtained. The location information of different hydraulic support bases and push rods was analyzed to determine the number of each hydraulic support in the monitoring video. Then, the local image of the smallest base region between adjacent hydraulic supports was extracted. A ResNet50 convolutional network, incorporating multi-scale feature fusion, was employed to extract features from the local image of the base, obtaining multi-scale fusion feature information of the image. This feature information was then mapped to a classification space to derive the probability distribution of different hydraulic support states. The support's normal movement or loss state was determined based on these probabilities, and the support number information was combined to identify the hydraulic support experiencing a loss state. Experimental results showed that the average segmentation accuracy of key areas at the working face using monitoring video was 0.98, achieving structured extraction of target regions. The automatic identification accuracy for support numbers was 98.78%, providing precise support number information for hydraulic support loss state detection. The average detection accuracy of the visual automatic detection method for hydraulic support loss state at the working face was 99.17%, and the single frame image processing time is 36 ms, meeting the real-time and reliability requirements for detecting support loss states in coal mining face AI video monitoring systems.
-
0. 引言
在实际的岩土工程中,如地下开采、隧道掘进和硐室开挖等施工活动中,岩体通常会经历多次荷载施加和卸载过程[1],岩石循环加卸载破裂会引起冲击地压、瓦斯突出和底板突水等灾害[2]。认识岩体微观结构的空间分布变化,有助于更好地理解岩体破裂过程中裂纹的扩展和分布[3-4],对于揭示致灾机理具有重要意义。随着CT等细观成像技术的不断进步,能够更深入地研究细微的尺度,从而揭示宏观结构特征演化的根本原因。然而,在实际应用中,由于采集设备成本和自然环境等因素的限制,往往难以获得高分辨率的岩石CT图像,这对岩石细观结构分析的准确性带来一定影响。为了克服这一限制,图像超分辨率重建技术应运而生。该技术旨在通过对低分辨率图像进行恢复和重建来获取高分辨率图像,可有效增强图像细节,提高图像质量[5]。
图像超分辨率重建方法可分为三大类:基于差值的方法[6]、基于重建的方法[7]和基于学习的方法[8]。前两者属于传统方法,通常面临图像整体模糊和细节丢失等问题,因此存在明显的局限性。近年来,随着深度学习的迅速崛起,深度学习方法在图像超分辨率重建方面得到广泛应用[9]。特别是基于卷积神经网络(Convolutional Neural Network,CNN)的超分辨率重建算法,不仅能够显著提高图像分辨率,在一定程度上还有助于去除图像噪声[10]。Dong Chao等[11]提出了超分辨率卷积神经网络(Super-Resolution Convolutional Neural Network,SRCNN),使用3个卷积层进行图像重建,大幅提升了图像重建速度。C. Ledig等[12]首次将生成对抗网络(Generative Adversarial Network,GAN)[13]应用于图像重建,提出了超分辨率生成对抗网络(Super-Resolution Generative Adversarial Network,SRGAN),并对网络的损失函数进行了改进,使得在需要大幅度图像放大的情况下,能够生成视觉效果出色的图像。Wang Xiantao等[14]对SRGAN进行改进,提出了增强型超分辨率生成对抗网络(Enhanced Super-Resolution Generative Adversarial Networks,ESRGAN),进一步提升了重建图像的质量,增强了纹理信息,并提高了视觉效果。辛元雪等[15]对ESRGAN的生成网络进行改进,引入了多尺度特征融合、密集连接和注意力机制,有效提高了从低分辨率图像中学习高频信息的效率。B. Lim等[16]提出了一种增强的深度超分辨网络(Enhanced Deep Super-Resolution Network,EDSR),通过增加网络的深度和宽度以提升超分辨图像重建性能。
然而,使用上述方法重建低质量岩石CT图像还存在以下问题:在试件内部高密度矿物质颗粒和孔裂隙的表征方面,部分网络在重建过程中会忽视这些细节,导致不能精细定量表征煤岩孔裂隙形态、分布及矿物分布。Wang Xintao等[17]提出了改进的ESRGAN−Real−ESRGAN。其引入了无批归一化的残差密集块(Residual in Residual Dense Block,RRDB)架构作为其基本构建模块,相较于ESRGAN中的普通残差块,RRDB包含多个残差块,每个残差块又包含了2个子残差块,增加了网络的容量和表征能力,提高了图像重建的质量。Real−ESRGAN更加注重重建图像的真实感和自然性,不仅能增加图像的细节和清晰度,还能保持图像的自然纹理和特征。因此,本文采用Real−ESRGAN对岩石CT图像进行超分辨率重建,对不同放大倍数下的重建效果进行分析,并运用三维可视化分析软件Avizo对重建图像进行三维重构,分析岩石内部细观结构,有助于更准确地表征砂岩的微纳米孔隙结构特征。
1. 岩石CT扫描试验
1.1 试验装置
在单轴抗压强度试验中,使用电液伺服压缩试验机,其最大轴向荷载为600 kN,加载速率为0.50 kN/s。通过该试验机进行岩石的抗压强度测试,得到砂岩的峰值强度、弹性模量、峰值应变等力学参数。
为进行CT扫描,使用NanoVoxel−3000工业X射线显微镜,该设备将X光显微成像技术与三维数字重建技术结合,可有效对样品的复杂构造进行高精度三维数字成像,实现微米级别的三维数字表征,并允许对样品的物质属性进行分析,而无需损伤样品本身。CT扫描的主要参数:空间分辨率为60.63 μm,探测器为16位,感光单元尺寸为74.8 μm,探测器像素尺寸为127 μm×127 μm,灰度范围为0~65 536。
1.2 试验方案
试验岩样取自山西晋城无烟煤矿业集团有限责任公司赵庄煤矿15号煤层底板的砂岩。CT扫描系统的分辨率与样品尺寸直接相关。因此,在合理范围内尽可能减少样品尺寸,可以最大程度地提高扫描的精细程度。为实现这一目标,在本试验中,通过套孔取心、切割和打磨等工序,将砂岩加工成4个直径为20 mm、高度为30 mm的圆柱形试件。声波探测显示其中1个试件内部存在明显的初始节理,因此选择该试件进行CT扫描,其余3个试件用于砂岩抗压强度测试,并统计3个试件的峰值强度,通过计算平均值确定本批岩样的峰值强度。
在CT扫描试验阶段,目标是追踪参考岩石在单轴压缩荷载下的变形全过程并记录全应力−应变曲线。这个变形过程可以分为4个主要阶段:初始孔隙压实阶段、弹性变形和裂隙稳定发展阶段、非稳定破裂扩展阶段、破裂后阶段。
结合单轴压缩荷载下的全应力−应变曲线,对内部存在明显初始节理的试件进行4次不同荷载水平的CT扫描,如图1所示。
试验加载前,采取措施确保岩石试件在加载时端部应力分布均匀,其中包括垫聚四氟乙烯片及涂抹硅脂。首先,对岩石试件在初始状态(对应零荷载)进行CT扫描,以获取有关其内部初始缺陷、矿物组分形态和分布等微观结构特征的信息。接着,以0.12 mm/min的加载速率进行加载试验,在轴向荷载达到目标值时,对试件进行扫描,以获取岩石内部裂隙网络的分布信息。然后,继续加载直到试件完全失稳并发生破坏。最后,对破坏后的试件进行CT扫描,试验结束。
2. 图像超分辨率重建试验
2.1 Real−ESRGAN原理
Real−ESRGAN由生成器和判别器2个部分组成。生成器用于对低分辨率图像进行超分辨率重建,而判别器则用于判断输入的图像是否为真实图像,通过不断训练增强网络的重建能力。Real−ESRGAN是在ESRGAN的基础上发展而来,它采用高阶退化模型和Sinc滤波器构建更优秀的数据集进行训练,但其生成器与ESRGAN相同。
本文使用经过训练的Real−ESRGAN生成器来进行岩石CT图像重建。Real−ESRGAN生成器结构如图2所示,采用改进的超分辨率残差网络(Super-Resolution Residual Network,SRResNet)[18]作为骨干网络。当CT图像输入该网络后,通过下采样压缩图像尺寸,并扩充图像通道。之后图像输入改进的SRResNet,去除所有的批量归一化(Batch Normalization,BN)层[19],增强网络性能。在改进的SRResNet中,原有的残差模块被替换为RRDB模块,融合了多级残差网络和密集连接的思想,进一步增强网络的稳定性。
Real−ESRGAN的判别器采用带有光谱归一化的U−Net结构,能够对单个生成的像素进行真假判断。这种结构在确保生成的高分辨率CT图像整体真实性的同时,也特别关注图像细节的保留。
2.2 数据来源
在4组扫描试验中,本文从原始CT图像中筛选和剪切了不同位置的480像素×480像素二维切片,形成了一个包含2 430张图像的数据集。采用DIV2K数据集格式,训练集包含1 944张图像,验证集、测试集各包含243张图像。
为得到低分辨率的岩心图像,使用OpenCV库中的resize函数,选择双三次插值法,从而降低图像的分辨率。对原始图像进行不同倍数的下采样处理,获得不同倍数的低分辨率图像,如图3所示。随着岩心图像的放大倍数增加到6倍,可明显观察到许多孔隙内部细节的丢失。
2.3 模型训练及评价
硬件设备包括AMD Ryzen 9 3950X 16−Core处理器(主频为3.70 GHz、内存为32 GiB)及NVIDIA GeForce RTX 3080显卡。使用PyTorch框架构建Real−ESRGAN模型,并在训练期间采用Adam优化器。学习率设定为0.000 1,同时分别设置一阶动量项为0.9、二阶动量项为0.999。训练迭代时,设置批次大小为8,共进行400 000次迭代训练(2 d)。每迭代5 000次,保存1次训练权重。
超分辨率是一个涉及不确定性的问题,不同方法可能会产生不同的视觉印象和结果。通常情况下,超分辨率可靠性的评估方法有主观评估和客观评估2种。主观评估是由测试人员根据个人感受对重建图像进行打分。这种评价方法更加主观,因为评分结果会受不同个体的主观因素影响。客观评估则采用制定好的计算公式对重建图像与原始高清图像之间的误差进行评估。常见的客观评估指标包括峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)和结构相似性(Structural Similarity,SSIM)[20]。
PSNR是一种用于评估图像质量的指标,通过比较信号的最大功率与信号噪声功率来衡量图像的重建质量。通常情况下,PSNR越高,表示重建图像与原始图像之间的差异越小,噪声水平越低,图像质量越好。PSNR计算公式为[21]
$$ P=10{{{\mathrm{lg}}}}\frac{{255}^{2}}{\dfrac{1}{mn}\displaystyle\sum _{i=0}^{m-1}\displaystyle\sum _{j=0}^{n-1}{\left[I\left(i,j\right)-K\left(i,j\right)\right]}^{2}} $$ (1) 式中:$ P $为图像的PSNR;m,n分别为图像行、列的像素数;$ I $(i,j)为原始图像的第i行、第j列像素值;$ K $(i,j)为重建的高分辨率图像的第i行、第j列像素值。
SSIM是一种通过比较图像的亮度、对比度及结构信息来评估2幅图像相似程度的指标,取值范围为0~1。当2幅图像的SSIM接近1时,表示它们的结构和内容非常相似,即重建图像与原始图像非常接近,图像质量好。SSIM计算公式为[22]
$$ M\left(a,b\right)=\frac{\left(2{\mu }_{a}{\mu }_{b}+{c}_{1}\right)\left(2{\sigma }_{ab}+{c}_{2}\right)}{\left({\mu }_{a}^{2}{\mu }_{b}^{2}+{c}_{1}\right)\left({\sigma }_{a}^{2}{\sigma }_{b}^{2}+{c}_{2}\right)} $$ (2) 式中:$ M\left(a,b\right) $为图像$ a $和$ b $的SSIM;$ {\mu }_{a},{\mu }_{b} $分别为图像$ a,b $灰度的平均值;$ {c}_{1} $和$ {c}_{2} $为用来维持稳定的常数,$ {c}_{1}={\left({k}_{1}L\right)}^{2} $,$ {c}_{2}={\left({k}_{2}L\right)}^{2} $,$ {k}_{1}=0.01 $,$ {k}_{2}=0.03 $,L为像素;$ {\sigma }_{ab} $为图像$ a $和$ b $灰度协方差;$ {\sigma }_{a},{\sigma }_{b} $分别为图像$ a,b $灰度方差。
2.4 试验结果与分析
本试验的主要目标是对岩石CT低分辨率图像进行2倍、4倍和6倍的超分辨率重建。为验证Real−ESRGAN算法的有效性,将其与SRCNN算法、SRGAN算法、EDSR算法、ESRGAN算法进行比较。
从4组CT扫描试验中选择15张图像作为测试集Z1,以验证训练后的图像超分辨率重建算法的可靠性。对Z1进行2倍、4倍、6倍的超分辨率重建后,对各种图像超分辨率重建算法的客观评估结果见表1和表2。可以发现,各算法重建图像PSNR和SSIM随着放大倍数的增加逐渐减小。Real−ESRGAN重建图像的PSNR和SSIM均优于其他算法。与PSNR相比,SSIM更能反映重建图像的结构信息和感知质量,Real−ESRGAN更注重图像细节的重建。
表 1 不同算法超分辨率重建图像PSNR比较Table 1. Comparison of PSNR of super-resolution reconstruction images with different algorithms放大倍数 SRCNN SRGAN EDSR ESRGAN Real−ESRGAN 2 34.653 35.592 36.865 36.871 36.880 4 32.452 34.429 35.735 35.736 35.742 6 29.236 30.513 32.769 32.773 32.781 表 2 不同算法超分辨率重建图像SSIM比较Table 2. Comparison of SSIM of super-resolution reconstruction images with different algorithms放大倍数 SRCNN SRGAN EDSR ESRGAN Real−ESRGAN 2 0.896 0.907 0.920 0.924 0.933 4 0.875 0.881 0.905 0.910 0.917 6 0.855 0.868 0.875 0.891 0.896 为更直观地感受Real−ESRGAN算法在图像重建的视觉效果,各超分辨率重建算法在测试集Z1上进行2倍、4倍和6倍超分辨率重建的结果如图4−图6所示。图中白色区域代表砂岩内部高密度矿物质颗粒,浅灰色区域代表岩样基质,深灰色及黑色区域代表内部孔(裂)隙。
从图4−图6可观察到:① SRCNN算法重建的超分辨率图像存在一定程度的模糊,并且随着图像放大倍数的增大,模糊程度加深。特别是图6中的Image2,SRCNN无法准确重建裂隙的弯曲走向,导致视觉效果较差。② SRGAN算法的重建图像整体质量优于SRCNN。该算法基于GAN,引入内容损失,更注重原始图像的语义特征差异,从而减少图像的模糊感。③ ESRGAN算法的重建图像细节优于SRGAN和ESDR。从图4可看出,ESRGAN算法重建的白色区域和黑色区域相较于SRGAN和ESDR更加清晰,伪影较少。然而,ESRGAN在重建微小的矿物质颗粒方面存在一定的局限性。④ Real−ESRGAN算法的重建图像在视觉上比其他算法表现更出色,能够更清晰地展示砂岩内部高密度矿物质,裂隙边缘更加突出。尤其在图5的Image1和Image2中,黑色孔隙也更加清晰可见。然而,随着图像放大倍数的增加,Real−ESRGAN算法重建图像中的白色区域逐渐出现模糊现象,如图6所示。
为验证Real−ESRGAN算法的优越性,对测试集Z1中的其余部分重建图像进行比较,如图7所示。可明显看出Real−ESRGAN重建的图像整体更清晰、更亮,裂隙的轮廓和高密度矿物质颗粒在重建图像中比原始图像更加清晰,而孔隙的分布形态与原始图像差异不大。
3. 三维图像重构及分析
在本试验中,选取轴向荷载为30 kN时CT扫描得到的图像(共540张),并通过OpenCV对CT图像进行2倍、4倍和6倍的下采样,获得低分辨率图像。使用训练好的SRCNN算法、SRGAN算法、EDSR算法、ESRGAN算法、Real−ESRGAN算法对图像进行重建,分别得到轴向荷载为30 kN时的原始CT图像(1倍)和放大2倍、4倍、6倍的超分辨率图像。运用Avizo软件对每组图像进行三维重构,并按切片进行孔隙率分析,结果如图8和图9所示。
从图8可看出,Real−ESRGAN重建的原始CT图像(Real−ESRGAN−1x)和放大2倍图像(Real−ESRGAN−2x)的孔隙率与原始CT图像的孔隙率基本吻合,表明Real−ESRGAN重建图像在孔隙率方面与原始图像一致。然而,随着放大倍数的增加,放大6倍图像上的孔隙出现模糊。这是因为使用Real−ESRGAN算法进行高倍数的超分辨率重建时,由于细小孔隙的复杂性,难以重建这些微小的细节,导致重建图像的孔隙率低于原始CT图像。然而,从图9可看出,相对于其他算法所重建的图像,Real−ESRGAN在重建放大4倍图像(Real−ESRGAN−4x)和放大6倍图像(Real−ESRGAN−6x)时,其重建图像的孔隙率更加接近原始CT图像的孔隙率,并且Real−ESRGAN重建图像整体孔隙率走向与原始CT图像保持一致。
孔隙网络模型用来描述岩石复杂孔隙结构,通常由孔隙和喉道2个部分组成,其中喉道代表连接孔隙的细长通道[23]。通过Avizo软件获取每组图像的孔隙网络模型,并获得喉道长度分布占比,结果如图10和图11所示。
从图10可看出,Real−ESRGAN重建1倍、2倍和4倍高分辨率图像的喉道长度分布占比趋势与原始CT图像基本一致。从图11可看出,在相同放大倍数下,Real−ESRGAN重建图像的喉道长度分布占比相比于其他算法更接近原始CT图像。
4. 结论
1) Real−ESRGAN算法在2倍超分辨率重建后图像的PSNR高达36.880 dB,SSIM达0.933。随着原始图像放大倍数的增加,6倍超分辨率重建图像上的孔隙出现模糊,PSNR降至32.781 dB,SSIM为0.896。这表明Real−ESRGAN算法在超分辨率图像重建方面表现出色,但也需注意在高倍率放大情况下可能出现一定的模糊问题。
2) 基于Real−ESRGAN算法重建图像放大倍数不超过4时,Real−ESRGAN生成的高分辨率CT图像与原始CT图像非常相似,并且能够成功重建微小的矿物质颗粒,显著提高了微纳米孔隙图像的分辨率。
3) Real−ESRGAN重建超分辨图像的孔隙率和喉道长度分布占比与原始CT图像基本吻合,尤其是重建的原始CT图像和放大2倍的图像与原始CT图像的孔隙率吻合较好,表明Real−ESRGAN算法能够准确重建岩石内部复杂的孔隙网络结构。
-
表 1 工作面目标区域语义分割网络实验结果
Table 1 Experimental results of semantic segmentation network for key areas at the working face
目标区域 底座 推杆 线缆槽 煤壁 浮煤 刮板输送机 mAP50/% 97.9 98.3 99.5 98.7 98.0 95.4 表 2 语义分割网络对比实验结果
Table 2 Comparison of experimental results for the semantic segmentation network
模型 Mask2former Mask R−CNN YOLOv8 平均精度/% 82.4 94.7 98.0 表 3 改进前后ResNet50丢架状态识别精度
Table 3 Accuracy of loss state recognition using ResNet50 before and after improvement
模型 准确率/% 召回率/% 单帧图像处理时间/ms 改进ResNet50
分类模型99.17 99.43 36 ResNet50分类模型 92.63 92.86 36 -
[1] 王国法,任怀伟,赵国瑞,等. 智能化煤矿数据模型及复杂巨系统耦合技术体系[J]. 煤炭学报,2022,47(1):61-74. WANG Guofa,REN Huaiwei,ZHAO Guorui,et al. Digital model and giant system coupling technology system of smart coal mine[J]. Journal of China Coal Society,2022,47(1):61-74.
[2] 任怀伟,巩师鑫,刘新华,等. 煤矿千米深井智能开采关键技术研究与应用[J]. 煤炭科学技术,2021,49(4):149-158. REN Huaiwei,GONG Shixin,LIU Xinhua,et al. Research and application on key techniques of intelligent mining for kilo-meter deep coal mine[J]. Coal Science and Technology,2021,49(4):149-158.
[3] 张超,张旭辉,毛清华,等. 煤矿智能掘进机器人数字孪生系统研究及应用[J]. 西安科技大学学报,2020,40(5):813-822. ZHANG Chao,ZHANG Xuhui,MAO Qinghua,et al. Research on key technology of intelligent tunneling robotic system in coal mine[J]. Journal of Xi'an University of Science and Technology,2020,40(5):813-822.
[4] 原铖. 液压支架乳化液泵站智能控制系统的应用研究[J]. 山东煤炭科技,2022,40(5):18-20. DOI: 10.3969/j.issn.1005-2801.2022.05.007 YUAN Cheng. Study and application of intelligent control system of hydraulic support emulsion pumping station[J]. Shandong Coal Science and Technology,2022,40(5):18-20. DOI: 10.3969/j.issn.1005-2801.2022.05.007
[5] REN Huaiwei,ZHANG Desheng,GONG Shixin,et al. Dynamic impact experiment and response characteristics analysis for 1∶2 reduced-scale model of hydraulic support[J]. International Journal of Mining Science and Technology,2021,31(3):347-356. DOI: 10.1016/j.ijmst.2021.03.004
[6] 张帅,任怀伟,韩安,等. 复杂条件工作面智能化开采关键技术及发展趋势[J]. 工矿自动化,2022,48(3):16-25. ZHANG Shuai,REN Huaiwei,HAN An,et al. Key technology and development trend of intelligent mining in complex condition working face[J]. Journal of Mine Automation,2022,48(3):16-25.
[7] 徐刚. 综采工作面配套技术研究[J]. 煤炭学报,2010,35(11):1921-1924. XU Gang. Study on match technology for fully mechanized longwall coal mining face[J]. Journal of China Coal Society,2010,35(11):1921-1924.
[8] 李俊士. 一种基于多种传感器的工作面找直方法[J]. 煤矿机电,2014(6):11-12,15. DOI: 10.3969/j.issn.1001-0874.2014.06.004 LI Junshi. A straightness control technology based on multi-sensor of fully mechanized coal face[J]. Colliery Mechanical & Electrical Technology,2014(6):11-12,15. DOI: 10.3969/j.issn.1001-0874.2014.06.004
[9] 谭超,刘婷,王忠宾,等. 一种根据液压支架有效推移行程调直刮板输送机的方法:CN108518237A[P]. 2018-09-11. TAN Chao,LIU Ting,WANG Zhongbin,et al. A method of straightening the scraper conveyor according to the hydraulic support:CN108518237A[P]. 2018-09-11.
[10] 王鹏星. 综采工作面液压支架工作状态监测技术的应用[J]. 机械管理开发,2021,36(11):163-164. WANG Pengxing. Working condition monitoring technology of hydraulic support at header working face[J]. Mechanical Management and Development,2021,36(11):163-164.
[11] 王宝录. 推移偏差补偿下的煤层倾斜综采面液压支架控制方法设计[J]. 液压气动与密封,2024,44(6):85-90. DOI: 10.3969/j.issn.1008-0813.2024.06.013 WANG Baolu. Design of hydraulic support control method for coal seam inclined fully mechanized mining face under displacement deviation compensation[J]. Hydraulics Pneumatics & Seals,2024,44(6):85-90. DOI: 10.3969/j.issn.1008-0813.2024.06.013
[12] 李伟,张行,朱真才,等. 综采工作面刮板输送机机身自动调直装置及方法:CN105000328A[P]. 2015-10-28. LI Wei,ZHANG Xing,ZHU Zhencai,et al. Automatic straightening device and method of fully mechanized mining face scraper conveyor:CN105000328A[P]. 2015-10-28.
[13] 杨学军,王然风,王怀法,等. 基于机器人的工作面液压支架姿态和直线度检测装置及方法:CN108663032A[P]. 2018-10-16. YANG Xuejun,WANG Ranfeng,WANG Huaifa,et al. The device and method of hydraulic support in working face:CN108663032A[P]. 2018-10-16.
[14] 刘旭. 综采工作面模拟装置与模拟试验研究[D]. 徐州:中国矿业大学,2019. LIU Xu. Research on simulation device and simulation test of longwall mining[D]. Xuzhou:China University of Mining and Technology,2019.
[15] 夏婷. 综采工作面刮板输送机直线度检测方法研究[D]. 徐州:中国矿业大学,2019. XIA Ting. Research on straightness detection method of scraper conveyor in fully mechanized mining face[D]. Xuzhou:China University of Mining and Technology,2019.
[16] HE Kaiming,GKIOXARI G,DOLLAR P,et al. Mask R-CNN[C]. IEEE International Conference on Computer Vision,Venice,2017. DOI: 10.1109/ICCV.2017.322.
[17] RONNEBERGER O,FISCHER P,BROX T. U-net:convolutional networks for biomedical image segmentation[M]. Cham:Springer International Publishing,2015:234-241.
[18] BADRINARAYANAN V,KENDALL A,CIPOLLA R. SegNet:a deep convolutional encoder-decoder architecture for image segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(12):2481-2495. DOI: 10.1109/TPAMI.2016.2644615
[19] CHEN L C,PAPANDREOU G,KOKKINOS I,et al. DeepLab:semantic image segmentation with deep convolutional nets,atrous convolution,and fully connected CRFs[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2018,40(4):834-848. DOI: 10.1109/TPAMI.2017.2699184
[20] CHENG Bowen,MISRA I,SCHWING A G,et al. Masked-attention mask transformer for universal image segmentation[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition,New Orleans,2022:1290-1299.
[21] REDMON J,DIVVALA S,GIRSHICK R,et al. You only look once:unified,real-time object detection[C]. IEEE Conference on Computer Vision and Pattern Recognition,Las Vegas,2016:779-788.
[22] KRIZHEVSKY A,SUTSKEVER I,HINTON G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM,2017,60(6):84-90. DOI: 10.1145/3065386
[23] SIMONYAN K,ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[EB/OL]. [2024-05-20]. https://arxiv.org/abs/1409.1556v6.
[24] SZEGEDY C,LIU Wei,JIA Yangqing,et al. Going deeper with convolutions[C]. IEEE Conference on Computer Vision and Pattern Recognition,Boston,2015. DOI: 10.1109/CVPR.2015.7298594.
[25] HE Kaiming,ZHANG Xiangyu,REN Shaoqing,et al. Deep residual learning for image recognition[C]. IEEE Conference on Computer Vision and Pattern Recognition,Las Vegas,2016. DOI: 10.1109/CVPR.2016.90.
-
期刊类型引用(1)
1. 田帅,李盛,王露曼,邱博之. 基于超分辨率重建的反无人机检测方法研究. 无线互联科技. 2024(08): 103-105 . 百度学术
其他类型引用(4)