A multi-modal detection method for holding ladders in underground climbing operations
-
摘要: 目前大多数的井下人员不安全行为识别研究侧重于在计算机视觉上提高精度,但井下易出现遮挡、光照不稳定、反光等情况,仅采用计算机视觉技术难以实现对不安全行为的准确识别,尤其登高作业中的爬梯、扶梯等相似动作在识别过程中易被混淆,存在安全隐患。针对上述问题,提出一种基于多模态的井下登高作业专人扶梯检测方法。该方法从视觉和音频2个模态对监控视频数据进行分析。视觉模态方面,采用YOLOv8模型检测登高梯是否存在,如果存在,获得登高梯的位置坐标,并将视频段放入OpenPose算法中进行姿态估计,得到人体的各个骨骼关节点的特征,将这些骨骼关节点序列放入改进的时空注意图卷积网络(SAT−GCN)中,得到人体动作标签及其对应概率。音频模态方面,采用飞桨自动语言识别系统将语音转换为文本,使用双向编码器表示(BERT)模型对文本信息进行特征分析与提取,得到文本标签及其对应的概率。最后将视觉模态与音频模态得到的信息进行决策级融合,判断井下登高作业是否有专人扶梯。实验结果表明:基于骨架数据的动作识别中,优化后的SAT−GCN模型对于扶梯、爬梯、站立3种动作的识别精度分别提升了3.36%,2.83%,10.71%;基于多模态的检测方法比单模态方法具有更高的识别准确率,达到98.29%。Abstract: Currently, most research on recognizing unsafe behaviors of underground personnel focuses on improving precision through computer vision. However, underground areas are prone to occlusion, unstable lighting, and reflection, making it difficult to accurately recognize unsafe behaviors using computer vision technology alone. Especially, similar actions such as climbing ladders and holding ladders during climbing operations are easily confused during the recognition process, posing safety hazards. In order to solve the above problems, a multi-modal detection method for holding ladders in underground climbing operations is proposed. This method analyzes surveillance video data from two modalities: visual and audio. In terms of visual modality, the YOLOv8 model is used to detect the presence of ladder. If there is a ladder, the position coordinates of the ladder are obtained, and the video segment is put into the OpenPose algorithm for pose estimation to obtain the features of various skeletal joint points of the human body. These skeletal joint point sequences are then placed into improved spatial attention temporal graph convolutional networks(SAT-GCN) to obtain human action labels and their corresponding probabilities. In terms of audio modality, the PaddlePaddle automatic language recognition system is used to convert speech into text, and the bidirectional encoder representations from transformers (BERT) model is used to analyze and extract the features of text information, so as to obtain the text label and its corresponding probability. Finally, the information obtained from the visual and audio modalities is fused at the decision-making level to determine whether there is a dpersonnel holding ladders for underground climbing operations. The experimental results show that in action recognition based on skeleton data, the optimized SAT-GCN model improves the recognition precision of three types of actions: holding, climbing, and standing by 3.36%, 2.83%, and 10.71%, respectively. The multi-modal detection method has a higher recognition accuracy than the single modal method, reaching 98.29%.
-
Keywords:
- climbing operation /
- personnel holding ladders /
- multi-modal fusion /
- visual modality /
- audio modality /
- YOLOv8 /
- OpenPose /
- SAT-GCN /
- BERT
-
0. 引言
随着智慧矿山的发展,利用图像对矿井安全进行监控得到了广泛应用[1]。然而受煤矿井下光源分布不均、整体光线弱等影响,监控图像呈亮度低、不清晰等特点,给后续的图像分析带来较大困难[2]。因此,增强矿井图像的亮度和清晰度对煤矿安全具有重要意义。
目前,针对矿井低照度图像增强大多采用Retinex算法,其中多尺度Retinex(Multi-Scale Retinex,MSR)算法对矿井图像亮度增强有较好的效果,但容易造成图像产生光晕和色彩失真等问题。张立亚等[3]提出了一种融合双边滤波和MSR算法的井下图像增强方法,能有效减少光晕模糊的现象,但图像边缘不够清晰。Hu Haokun等[4]提出了基于形态学Retinex算子的低照度图像增强算法,能有效提高图像清晰度,但算法较为复杂,需设置参数多。智宁等[5]采用引导滤波提取光照分量来对Retinex算法进行改进,但对光晕处理效果不佳。李晓宇等[6]通过引入快速引导滤波改进Retinex算法,实现了矿井图像的亮度增强,但对图像暗部细节增强不明显。Mu Qi等[7]在引导滤波的基础上提出了一种加权引导滤波(Weighted Guided Filtering,WGIF)算法,通过引入权重因子改进引导滤波的权重,降低了光晕的影响,然而WGIF算法中基于图像局部方差的权重估计[8]对于低照度图像的边缘增强效果并不明显。
针对上述算法存在的不足,本文提出了一种基于TopHat加权引导滤波(TopHat Weighted Guided Filtering,THWGIF)的Retinex算法(以下简称THWGIF−Retinex算法),并用于矿井图像增强。该算法通过引入TopHat变换改进WGIF的权重因子,实现光照分量提取,可提升图像边缘的清晰度,避免产生光晕现象;采用自适应Gamma校正函数对图像的光照分量和饱和度分量进行增强,可改善图像细节信息和色彩失真情况,有效提高矿井图像质量。
1. THWGIF−Retinex算法
采用THWGIF−Retinex算法对矿井图像进行增强,流程如图1所示,具体步骤如下:
(1) 将输入图像从RGB空间转换到HSV空间[9],并将其分离成色调(H)、饱和度(S)、亮度(V)3个通道分量。
(2) 通过THWGIF算法对亮度分量进行光照分量提取;分别对光照分量和饱和度分量进行自适应Gamma校正,得到校正后的光照分量和饱和度分量。
(3) 根据步骤(2)得到的校正后光照分量,采用Retinex算法求得反射分量。
(4) 将色调分量、校正后饱和度分量、反射分量进行通道合并后转回RGB空间,输出增强图像。
1.1 光照分量提取
引导滤波是一种能保持图像边缘的滤波技术[10],将其应用到矿井图像增强中可保留图像细节。假设引导图像与输出图像存在局部线性关系:
$$ {q}_{i}{{ = a}}_{{k}}{I}_{i}{{+ b}}_{{k}}\;\; \forall i\in {\omega }_{{k}} $$ (1) 式中:
$ {q_i} $ 为输出图像中第$ i $ 个像素点的值;$ {{{a}}_{{k}}} $ ,$ {{{b}}_{{k}}} $ 为以像素$ {{k}} $ 为中心的滤波窗口$ {\omega _{{k}}} $ 的线性系数;$ {I_i} $ 为引导图像中第$ i $ 个像素点的值。采用最小二乘法对
$ {{{a}}_{{k}}} $ 和$ {{{b}}_{{k}}} $ 进行求解,代价函数为$$ { E}\left({{a}}_{{k}},{{b}}_{{k}}\right)={\displaystyle \sum\limits_{i{ }\in { }{\omega }_{{k}}}\left[{\left({{a}}_{{k}}{I}_{i}{{+ b}}_{{k}}-{p}_{i}\right)}^{2}+\varepsilon {{a}}_{{k}}{}^{2}\right]} $$ (2) 式中:
$ {p_i} $ 为输入图像中第$ i $ 个像素点的值;$ \varepsilon $ 为正则化参数,其对滤波效果有较大影响。由于引导滤波对所有窗口均选取相同的
$ \varepsilon $ ,未考虑窗口的像素差异,导致图像边缘不清晰。WGIF选取窗口内的方差作为边缘权重因子,用于调节$ \varepsilon $ ,使有明显纹理区域的图像方差更大,对应的权值也更高,从而更好地保留图像边缘信息[11-12]。但方差大不代表图像的边缘信息强,对于井下低照度图像,仅通过计算方差很难得到合适的边缘权重因子。TopHat变换是图像处理中一种形态学变换方式,能够完成较暗背景图像中局部较亮区域的提取[13]。当光照较强时图像边缘有所模糊,通过TopHat变换处理后,光亮区域的边缘效果会有所提升[14]。
为进一步提高边缘检测的准确性,本文将TopHat变换融合到边缘权重因子计算中:
$$ {\varphi _n}{\text{ = }}\frac{1}{N}\sum\limits_{n = 1}^N {\frac{{T\left( m \right) + \alpha }}{{T\left( n \right) + \alpha }}} $$ (3) 式中:
$ {\varphi _n} $ 为边缘权重因子;N为引导图像的像素点个数;$ T\left( m \right) $ 为经过TopHat变换后的图像以像素点$ m $ 为窗口中心的均值;$ T\left( n \right) $ 为引导图像以像素点$ n $ 为窗口中心的均值;$ \alpha $ 为常数,取值$ 1 \times {10^{ - 4}} $ 。对于图像亮度较高的区域,边缘权重因子较大,则对应的
$ \varepsilon $ 较小,能更好地保留亮度较高区域的图像边缘信息。对于图像亮度较低的区域,边缘权重因子较小,则对应的$ \varepsilon $ 较大,对低照度区域有更好的平滑效果。THWGIF对应的代价函数为
$$ { E}\left( {{{{a}}_{{k}}}{{,}}{{{b}}_{{k}}}} \right){{ = }}\sum\limits_{i{{ }} \in {{ }}{\omega _{{k}}}} {\left[ {{{\left( {{{{a}}_{{k}}}{{{I}}_i}{{ + }}{{{b}}_{{k}}}} \right)}^2} + \frac{\varepsilon }{{{\varphi _n}}}{{{a}}_{{k}}}^2} \right]} $$ (4) THWGIF在保持WGIF优势的基础上,能有效减少图像光晕,具有更好的图像边缘保持效果。本文采用THWGIF对光照分量进行提取:
$$ {F}\left( {x,y} \right) = G\left( {I,{r_i},\varepsilon ,s} \right) $$ (5) 式中:
$ {F}\left( {x,y} \right) $ 为根据引导图像 I估计出的光照分量;$ G\left( \bullet \right) $ 为作用于引导图像I的THWGIF运算;$ {r_i} $ 为引导滤波窗口大小;$ s $ 为下采样倍数。WGIF和THWGIF算法对同一幅矿井图像的滤波效果对比如图2所示。可看出在平滑效果相近的前提下,THWGIF算法能更好地保留图像边缘信息。
1.2 光照分量及饱和度分量校正
煤矿大多采用矿灯对矿井进行照明,光源集中在某几处地方,使得图像部分区域过亮,难以观测到暗区域的信息,影响视觉效果。为解决该问题,本文采用自适应Gamma校正函数对光照分量进行增强,使图像不仅在亮度上有所提高,并保证亮度分布更加均匀[15-16]。
$$ Z\left( {x,y} \right) = 255{\left( {\frac{{F\left( {x,y} \right)}}{{255}}} \right)^\gamma } $$ (6) 式中:
$ Z\left( {x,y} \right) $ 为经过校正后的光照分量;$ \gamma $ 为自适应Gamma校正系数。$ \gamma $ 是影响图像亮度的关键。选取不同$ \gamma $ 时的图像增强效果如图3所示。当$ \gamma $ =0.2时,图像出现亮度过饱和的现象;当$ \gamma $ =0.5时,图像暗区域的亮度有明显增强效果,且图像亮区域没有出现过度增强的现象;当$ \gamma $ =0.8时,图像整体亮度增强不明显。因此本文采用的光照分量校正系数为0.5。在HSV空间模型中,当亮度增加,饱和度就会有所降低。为保证图像的饱和度细节不丢失,在对光照分量进行增强后,图像的饱和度分量也要进行相应的增强。本文采用自适应Gamma校正函数对饱和度分量进行增强,经实验可得,当饱和度校正系数为1.1时,图像增强效果最佳。
1.3 反射分量获取
Retinex算法是一种以颜色恒常性为基础的图像增强方法。该算法认为物体的颜色不是由反射光的绝对值决定的,而是由物体的反射能力决定的。
$$ L(x,y) = R(x,y) * F(x,y) $$ (7) 式中:
$ L(x,y) $ 为原始图像;$ R(x,y) $ 为反射分量,通常具有大量的高频信息。为求解反射分量,一般先将式(7)转换到对数域,再移项使原始图像与光照分量相减:
$$ \ln R(x,y) = \ln L(x,y) - \ln F(x,y) $$ (8) 对
$ \ln R(x,y) $ 进行指数运算,得到最终的反射分量。2. 实验分析
选取煤矿井下低照度图像,从主观评价和客观评价2个方面对MSR算法、WGIF−Retinex算法及本文THWGIF−Retinex算法对图像增强效果进行对比。
2.1 主观评价
不同算法下无强光直射的矿井图像增强效果及灰度直方图分别如图4和图5所示,不同算法下有强光直射的矿井图像增强效果及灰度直方图分别如图6和图7所示。
从图4可看出,对于无强光直射的矿井低照度原始图像1,经MSR算法增强后的图像亮度有所增强,但图像细节丢失,整体色彩偏浅;经WGIF−Retinex算法增强后的图像整体亮度较为均匀,在饱和度方面有较好的改善,但图像边缘较为模糊;经THWGIF−Retinex算法增强后的图像与经WGIF−Retinex算法增强后的图像相比,色彩还原度较高,且图像边缘更清晰,视觉效果明显增强。从图6可看出,对于有强光直射的矿井低照度原始图像2,经MSR算法增强后的图像在光源处存在光晕现象;经WGIF−Retinex算法和THWGIF−Retinex算法增强后的图像对光晕有很好的改善效果,且经THWGIF−Retinex算法增强后的图像在还原暗区域的细节信息和清晰度上优于WGIF−Retinex算法增强后的图像。
从图5可看出,原始图像1的灰度级主要分布在0~100之间,经MSR算法增强后的图像直方图灰度级分布在100~250之间,经WGIF−Retinex算法和THWGIF−Retinex算法增强后的图像直方图灰度级分布在0~255之间,灰度级分布范围越广,表明图像对比度越高。从图7可看出,原始图像2的灰度级大多分布在在0~50之间;经MSR算法增强后的图像直方图灰度级分布在100~255之间,表明增强后图像亮度过强;经WGIF−Retinex和THWGIF−Retinex算法增强后的图像直方图灰度级在0~250范围内均匀分布,表明增强后图像的对比度较高;经THWGIF−Retinex算法增强后图像在100~200灰度级范围内的像素点个数大于经WGIF−Retinex算法增强后的图像,表明THWGIF−Retinex算法对图像整体亮度增强效果优于WGIF−Retinex算法。
2.2 客观评价
采用信息熵[17]、平均梯度[18]、标准差[19]、无参考结构清晰度(No-Reference Structural Sharpness,NRSS)[20]作为图像质量客观评价指标。信息熵反映图像的信息量;平均梯度反映图像的清晰度;标准差反映图像的对比度;NRSS是衡量图像质量优劣的重要指标。上述指标的值越大,表明图像质量越好。
表 1 矿井图像1客观评价结果Table 1. Objective evaluation results of mine image 1图像 信息熵 平均梯度 标准差 NRSS 原始图像 6.427 9 3.599 5 26.060 7 0.428 2 MSR算法增强后图像 6.839 3 3.887 1 32.778 3 0.422 7 WGIF−Retinex算法增强后图像 7.311 7 5.347 2 40.859 0 0.551 2 THWGIF−Retinex算法增强后图像 7.231 6 7.525 6 39.728 8 0.622 9 表 2 矿井图像2客观评价结果Table 2. Objective evaluation results of mine image 2图像 信息熵 平均梯度 标准差 NRSS 原始图像 6.511 8 4.855 3 33.418 9 0.399 5 MSR算法增强后图像 7.263 5 4.984 2 36.312 5 0.442 0 WGIF−Retinex算法增强后图像 7.455 9 5.247 3 46.694 2 0.487 7 THWGIF−Retinex算法增强后图像 7.355 0 9.043 4 42.932 8 0.604 1 从表1可看出,对于无强光直射的矿井低照度图像,经MSR算法增强后的图像在NRSS方面略低于原始图像,而经WGIF−Retinex算法和THWGIF−Retinex算法增强后的图像在各指标上均有明显提高;与原始图像相比,经THWGIF−Retinex算法增强后的图像信息熵提高了12.50%,平均梯度提高了109.07%,标准差提高了52.44%,NRSS提高了45.46%;与经WGIF−Retinex算法增强后的图像相比,经THWGIF−Retinex算法增强后的图像在平均梯度和NRSS上分别提高了40.73%和13.00%,但在信息熵和标准差方面略小。从表2可看出,对于有强光直射的矿井低照度图像,3种算法增强后的图像在各指标上均有不同程度的改善;与经MSR算法增强后的图像相比,经THWGIF−Retinex算法增强后的图像信息熵提高了1.24%,平均梯度提高了81.44%,标准差提高了18.23%,NRSS提高了36.67%;与WGIF−Retinex算法相比,THWGIF−Retinex算法在信息熵方面有所降低,但在平均梯度和NRSS方面有较大改善,分别提高了72.34%和23.87%。
3. 结语
针对矿井低照度图像增强,提出了一种THWGIF−Retinex算法。首先,通过THWGIF算法提取图像光照分量,增强光照分量的边缘保持效果;其次,通过自适应Gamma校正函数增强图像光照分量和饱和度分量;然后,利用Retinex算法从增强后的光照分量中获取图像反射分量;最后,将色调分量、反射分量、校正后的饱和度分量合并,得到增强图像。实验结果表明:该算法能有效提高图像的亮度、清晰度和对比度,抑制亮度过饱和、光晕等现象,对抗色彩失真、边缘保持具有明显的作用;经该算法增强后的矿井图像在信息熵、平均梯度、标准差、NRSS方面均有明显提高,矿井图像增强效果好。
-
表 1 部分文本训练数据
Table 1 Partial text training data
数据 标签 你自己小心点上去就行,不用找人扶梯子,没必要的。
我上次就是一个人上去的,没问题的。0 我来帮你扶一下梯子吧。不用,我熟练得很,没事。 0 我现在要搬个梯子上去维修一下顶板的支架,你来帮我扶着吧。 1 那地面不太平整,梯子放不稳,我来帮你扶着。 1 表 2 模型对不同动作的识别精度对比
Table 2 Comparison of recognition precision of models on different actions
% 动作类别 ST−GCN SAT−GCN 扶梯 94.31 97.67 爬梯 72.89 75.72 站立 75.00 85.71 表 3 模型在自建数据集上的实验对比
Table 3 Experimental comparison of models on self-builting datasets
% 模型 准确率 ST−GCN 80.39 SAT−GCN 82.35 VA−RNN 77.25 2s−AGCN 84.97 基于多模态融合的井下登高作业专人扶梯检测模型 98.29 -
[1] 张瑜,冯仕民,杨赛烽,等. 矿工不安全行为影响因素本体构建与推理研究[J]. 煤矿安全,2019,50(5):300-304. ZHANG Yu,FENG Shimin,YANG Saifeng,et al. Ontology construction and reasoning research on influencing factors of miners' unsafe behavior[J]. Safety in Coal Mines,2019,50(5):300-304.
[2] 登高作业操作规程[EB/OL]. (2021-11-08)[2023-10-08]. https://www.mkaq.org/html/2021/11/08/593666.shtml. Operation procedures for climbingoperations[EB/OL]. (2021-11-08)[2023-10-08]. https://www.mkaq.org/html/2021/11/08/593666.shtml.
[3] 刘浩,刘海滨,孙宇,等. 煤矿井下员工不安全行为智能识别系统[J]. 煤炭学报,2021,46(增刊2):1159-1169. LIU Hao,LIU Haibin,SUN Yu,et al. Intelligent recognition system of unsafe behavior of underground coal miners[J]. Journal of China Coal Society,2021,46(S2):1159-1169.
[4] 饶天荣,潘涛,徐会军. 基于交叉注意力机制的煤矿井下不安全行为识别[J]. 工矿自动化,2022,48(10):48-54. RAO Tianrong,PAN Tao,XU Huijun. Unsafe action recognition in underground coal mine based on cross-attention mechanism[J]. Journal of Mine Automation,2022,48(10):48-54.
[5] 王宇,于春华,陈晓青,等. 基于多模态特征融合的井下人员不安全行为识别[J]. 工矿自动化,2023,49(11):138-144. WANG Yu,YU Chunhua,CHEN Xiaoqing,et al. Recognition of unsafe behaviors of underground personnel based on multi modal feature fusion[J]. Journal of Mine Automation,2023,49(11):138-144.
[6] 赵登阁,智敏. 用于人体动作识别的多尺度时空图卷积算法[J]. 计算机科学与探索,2023,17(3):719-732. DOI: 10.3778/j.issn.1673-9418.2106102 ZHAO Dengge,ZHI Min. Spatial multiple-temporal graph convolutional neural network for human action recognition[J]. Journal of Frontiers of Computer Science and Technology,2023,17(3):719-732. DOI: 10.3778/j.issn.1673-9418.2106102
[7] LI Peilin,WU Fan,XUE Shuhua,et al. Study on the interaction behaviors identification of construction workers based on ST-GCN and YOLO[J]. Sensors,2023,23(14). DOI: 10.3390/S23146318.
[8] SHI Xiaonan,HUANG Jian,HUANG Bo. An underground abnormal behavior recognition method based on an optimized Alphapose-ST-GCN[J]. Journal of Circuits,Systems and Computers,2022,31(12). DOI: 10.1142/S0218126622502140.
[9] 苏晨阳,武文红,牛恒茂,等. 深度学习的工人多种不安全行为识别方法综述[J]. 计算机工程与应用,2024,60(5):30-46. SU Chenyang,WU Wenhong,NIU Hengmao,et al. Review of deep learning approaches for recognizing multiple unsafe behaviors in workers[J]. Computer Engineering and Applications,2024,60(5):30-46.
[10] YAN Sijie,XIONG Yuanjun,LIN Dahua. Spatial temporal graph convolutional networks for skeleton-based action recognition[C]. AAAI Conference on Artificial Intelligence,New Orleans,2018:7444-7452.
[11] SONG Sijie,LAN Cuiling,XING Junliang,et al. Spatio-temporal attention-based LSTM networks for 3D action recognition and detection[J]. IEEE Transactions on Image Processing,2018,27(7):3459-3471. DOI: 10.1109/TIP.2018.2818328
[12] CAO Zhe,SIMON T,WEI S E,et al. Realtime multi-person 2D pose estimation using part affinity fields[C]. IEEE Conference on Computer Vision and Pattern Recognition,Honolulu,2017:1302-1310.
[13] 许奇珮. 基于ST−GCN的人体骨架动作识别方法研究[D]. 长春:长春工业大学,2023. XU Qipei. Research on human skeleton action recognition method based on ST-GCN[D]. Changchun:Changchun University of Technology,2023.
[14] DEVLIN J,CHANG Mingwei,LEE K,et al. BERT:pre-training of deep bidirectional transformers for language understanding[EB/OL]. (2018-10-11)[2023-10-08]. https://doi.org/10.48550/arXiv.1810.04805.
[15] LIU Shu,QI Lu,QIN Haifeng,et al. Path aggregation network for instance segmentation[C]. IEEE Conference on Computer Vision and Pattern Recognition,Salt Lake City,2018:8759-8768.
[16] 李雯静,刘鑫. 基于深度学习的井下人员不安全行为识别与预警系统研究[J]. 金属矿山,2023(3):177-184. LI Wenjing,LIU Xin. Research on underground personnel unsafe behavior identification and early warning system based on deep learning[J]. Metal Mine,2023(3):177-184.
[17] 刘耀,焦双健. ST−GCN在建筑工人不安全动作识别中的应用[J]. 中国安全科学学报,2022,32(4):30-35. LIU Yao,JIAO Shuangjian. Application of ST-GCN in unsafe action identification of construction workers[J]. China Safety Science Journal,2022,32(4):30-35.
[18] WOO S,PARK J,LEE J Y,et al. CBAM:convolutional block attention module[C]. European Conference on Computer Vision,Cham,2018:3-19.
[19] 景永霞,苟和平,刘强. 基于BERT语义分析的短文本分类研究[J]. 兰州文理学院学报(自然科学版),2023,37(6):46-49. JING Yongxia,GOU Heping,LIU Qiang. Classification study on online short text based on BERT semantic analysis[J]. Journal of Lanzhou University of Arts and Science(Natural Sciences),2023,37(6):46-49.
[20] 姜长三,曾桢,万静. 多源信息融合研究进展综述[J]. 现代计算机,2023,29(18):1-9,29. JIANG Changsan,ZENG Zhen,WAN Jing. A review of research advances in multi-source information fusion[J]. Modern Computer,2023,29(18):1-9,29.
[21] ZHANG Pengfei,LAN Cuiling,XING Junliang,et al. View adaptive neural networks for high performance skeleton-based human action recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2019,41(8):1963-1978. DOI: 10.1109/TPAMI.2019.2896631
[22] SHI Lei,ZHANG Yifan,CHENG Jian,et al. Two-stream adaptive graph convolutional networks for skeleton-based action recognition[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition,Long Beach,2019:12018-12027.
-
期刊类型引用(5)
1. 谢赛. 矿用电磁先导阀在线自动检测工艺研究及装备研制. 煤矿机械. 2025(03): 52-55 . 百度学术
2. 姜苏龙,郭蒲,赵继云,满家祥,曹超. 液压支架推溜油缸电液缓冲控制阀设计与试验研究. 工矿自动化. 2025(02): 27-33 . 本站查看
3. 刘闯,臧家林,张福海,金志江,钱锦远. 核电主蒸汽阀站中电磁先导阀的动态响应仿真研究. 机电工程. 2024(05): 894-900+932 . 百度学术
4. 刘国强,董军科,樊宏升. 一种先导阀螺钉螺母高度调节自锁装置的设计. 今日制造与升级. 2024(06): 135-137 . 百度学术
5. 张登山,杨浩,刘隽宁. PMW控制比例多路阀低温特性研究. 工矿自动化. 2024(S2): 215-219 . 本站查看
其他类型引用(0)