基于长短期存储的聚合增强型煤矸石视频识别模型

杨军

杨军. 基于长短期存储的聚合增强型煤矸石视频识别模型[J]. 工矿自动化,2023,49(3):39-44, 62. DOI: 10.13272/j.issn.1671-251x.18058
引用本文: 杨军. 基于长短期存储的聚合增强型煤矸石视频识别模型[J]. 工矿自动化,2023,49(3):39-44, 62. DOI: 10.13272/j.issn.1671-251x.18058
YANG Jun. Aggregation enhanced coal-gangue video recognition model based on long and short-term storage [J]. Journal of Mine Automation,2023,49(3):39-44, 62. DOI: 10.13272/j.issn.1671-251x.18058
Citation: YANG Jun. Aggregation enhanced coal-gangue video recognition model based on long and short-term storage [J]. Journal of Mine Automation,2023,49(3):39-44, 62. DOI: 10.13272/j.issn.1671-251x.18058

基于长短期存储的聚合增强型煤矸石视频识别模型

基金项目: 陕西省秦创原“科学家+工程师”队伍建设项目(2022KXJ-38)。
详细信息
    作者简介:

    杨军(1982—),男,宁夏平罗人,工程师,主要从事煤矿智能化技术研究工作,E-mail:273364857@qq.com

  • 中图分类号: TD67

Aggregation enhanced coal-gangue video recognition model based on long and short-term storage

  • 摘要: 采用煤矸石图像识别技术进行煤矸石识别会错过一些关键目标的识别。视频目标识别模型比图像目标识别模型更贴近煤矸石识别分选场景需求,对视频数据中的煤矸石特征可以进行更广泛、更有深度的提取。但目前煤矸石视频目标识别技术未考虑视频帧重复性、帧间相似性、关键帧偶然性对模型性能的影响。针对上述问题,提出了一种基于长短期存储(LSS)的聚合增强型煤矸石视频识别模型。首先,采用关键帧与非关键帧对海量信息进行初筛。对煤矸石视频帧序列进行多帧聚合,通过时空关系网络 (TRN)将关键帧与相邻帧特征信息相聚合,建立长期视频帧和短期视频帧,在不丢失关键特征信息的同时减少模型计算量。然后,采用语义相似性权重、可学习权重和感兴趣区域(ROI)相似性权重融合的注意力机制,对长期视频帧、短期视频帧与关键帧之间的特征进行权重再分配。最后,设计用于存储增强的LSS模块,对长期视频帧与短期视频帧进行有效特征存储,并在关键帧识别时加以融合,增强关键帧特征的表征能力,以实现煤矸石识别。基于枣泉选煤厂自建煤矸石视频数据集对该模型进行实验验证,结果表明:相较于记忆增强全局−局部聚合(MEGA)网络、基于流引导的特征聚合视频目标检测(FGFA)、关系蒸馏网络(RDN)、视频识别的深度特征流(DFF)模型,基于LSS的聚合增强型煤矸石视频识别模型的平均精度均值优于其他模型,为77.12%;模型视频目标运动速度与识别精度呈负相关,基于LSS的聚合增强型煤矸石视频识别模型在慢速运动的目标检测上识别精度最高达83.82%。
    Abstract: Some key targets will be missed when using coal-gangue image recognition technology to recognize coal-gangue. Compared with the image target recognition model, the video target recognition model is closer to the requirements of the coal-gangue recognition and separation scene. The coal-gangue features in the video data can be extracted more widely and deeply. However, the influence of frame repetition, frame similarity and contingency of key frame on the model performance is not considered in the current coal-gangue video target recognition technology. In order to solve the above problems, this paper proposes an aggregation enhanced coal-gangue video recognition model based on long and short-term storage (LSS) model. Firstly, the key frames and non-key frames are used to screen the massive information. Multi-frame aggregation is carried out on the video frame sequence of the coal-gangue. The feature information of the key frame and the adjacent frame is aggregated through temporal relation networks (TRN), and a long-term video frame and a short-term video frame are established. The calculation amount of the model is reduced while the key feature information is not lost. Secondly, the feature weights among the long-term video frames, the short-term video frames and the keyframes are reallocated by using an attention mechanism that integrates semantic similarity weights, learnable weights and region of interest (ROI) similarity weights. Finally, the LSS module is designed to store the effective features of long-term video frames and short-term video frames. The module fuses them in the key frame recognition to enhance the characterization capability of the key frame features, so as to realize coal-gangue recognition. The model is tested based on the coal-gangue video data set in Zaoquan Coal Preparation Plant. The results show that in comparison with the memory enhanced global-local aggregation (MEGA) network, the flow-guided feature aggregation for video object detection (FGFA), the relation distillation networks (RDN) and deep feature flow for video recognition (DFF) model for video recognition, the mean average precision of the aggregation enhanced coal-gangue video recognition model based on LSS is 77.12 % and better than that of other models. The recognition precision of the modes is negatively correlated with the moving speed of the target in the video. The recognition precision of the model in this paper is 83.82% for the slow-moving target detection, and the performance is the best.
  • 在煤炭开采过程中,不可避免地会混入大量热值低、含碳量低的矸石,影响煤炭质量。目前常用的煤矸石分选方法包括手动选矸、动筛跳汰分选、重介质分选和选择性破碎等。这些方法存在效率低、配置困难、工艺复杂等局限性[1-2]。亟需一种智能程度高、识别性能好的煤矸石识别方法。

    随着计算机视觉技术的发展,目标识别技术开始应用到煤矸石识别领域。基于计算机视觉的目标识别技术分为图像目标识别和视频目标识别。在煤矸石图像识别方面,文献[3]采用改进的卷积神经网络算法对煤和矸石图像进行数据扩充,并结合迁移学习方法对煤矸石图像进行处理,提升了模型识别精度;文献[4]基于改进的tiny YOLO V3算法对煤矸石进行识别,通过SPPNet、SE模块和扩张卷积的组合,提升了模型对煤矸石图像的识别精度。煤矸石图像识别技术对目标的识别精度较高,但通过采集图像进行煤矸石识别的方式会错过一些关键目标的识别,采集到的低质量图像也会影响系统整体的识别精度。视频目标识别模型比图像目标识别模型更贴近煤矸石识别分选场景需求,对视频数据中的煤矸石特征可以进行更广泛、更有深度的提取。在煤矸石视频目标识别方面,文献[5]提出基于光流的特征聚合方法,增强了当前帧特征表示能力,提高了模型泛化性,对煤矸石的识别精度达73.4%;文献[6]提出一种基于视频处理的煤矸石识别方法,对视频中的原煤图像进行分类,在多工况识别实验中取得了较好的识别效果;文献[7]采用改进的高斯混合模型实现煤矸石的识别,并使用粒子群算法对高斯混合模型参数进行优化与自整定,对矸石的检测准确率达95.83%。上述研究通过巧妙的模型和实验设计获得了较好的研究结果,但未考虑视频帧重复性、帧间相似性、关键帧偶然性对模型性能的影响。

    针对上述问题,本文提出了一种基于长短期存储(Long and Short-term Storage, LSS)的聚合增强型煤矸石视频识别模型。该模型设计LSS模块对长短期视频帧特征进行存储,以增强关键帧特征表征能力,结合多帧聚合、注意力机制减少冗余信息,增加重要特征权重,提升模型的识别性能。

    视频目标识别与图像目标识别相比,需要考虑的因素更多、更复杂[8-10]。视频数据中大量的重复信息和丰富的时空信息为其识别带来了更大的挑战[11]。因此,本文采用关键帧与非关键帧对海量信息进行初筛。

    将视频切片中每个视频帧按时间顺序叠加在一起,这时视频帧在图像坐标系中的特征矢量呈现出一个轨迹,与轨迹中特征值相对应的帧即为关键帧,其余为非关键帧[12-13]。关键帧的选取和处理对于煤矸石视频识别有着重要作用。非关键帧通常为关键帧的检测提供辅助信息。煤矸石视频中的关键帧与非关键帧示例如图1所示。

    图  1  煤矸石视频中的关键帧与非关键帧
    Figure  1.  Key frames and non-key frames in coal-gangue video

    本文基于视频特征的得分矩阵设计了关键帧选取框架,如图2所示。将视频切片作为关键帧框架的输入,通过卷积层对视频切片进行深度特征提取,再将提取的特征值输入得分矩阵中,根据得分矩阵的输出结果来判断视频切片中的关键帧。

    图  2  关键帧选取框架
    Figure  2.  Key frame selection frame

    不同视频切片之间共享深度特征,通过Sigmoid激活函数后得到一个得分矩阵:

    $$ {\boldsymbol{S}} = \left\{ {{s_{k,n}}} \right\} \;\;\;\;\; k = 1,2, \cdots ,K;n = 1,2, \cdots ,N $$ (1)

    式中:${s_{k,n}}$为第$n$个分类器在第$k$个视频切片处的响应;$K$为视频切片总数;$N$为分类器总数。

    关键帧选取框架根据得分矩阵的响应进行更新,从得分矩阵的响应中得到含关键帧的概率:

    $$ {p_n} = \left\{ \begin{gathered} {\text{Max}}\left( {{s_{:,n}}} \right){\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} n \ne Y \\ {\text{Stochastic}}\left( {{s_{:,n}}} \right){\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} n = Y \\ \end{gathered} \right. $$ (2)

    式中:$ {s_{:,n}} $为第$ n $个分类器在所有视频切片处的响应;$Y$为视频类别数;$ {{\rm{Stochastic}}} $为随机选取函数。

    针对视频帧重复性、帧间相似性、关键帧偶然性等问题,本文提出的基于LSS的聚合增强型煤矸石视频识别模型如图3所示。该模型主要包括多帧聚合、注意力机制和LSS模块3个部分。首先,对煤矸石视频帧序列进行多帧聚合,通过时空关系网络 (Temporal Relation Networks,TRN)[14]将关键帧与相邻帧特征信息相聚合,建立长期视频帧和短期视频帧;然后,采用语义相似性权重、可学习权重和感兴趣区域(Region of Interest,ROI)[15]相似性权重融合的注意力机制对长期视频帧、短期视频帧与关键帧之间的特征进行权重再分配;最后,设计用于存储增强的LSS模块,对长期视频帧与短期视频帧进行有效特征存储,并在关键帧识别时加以融合,增强关键帧特征的表征能力[16],以实现煤矸石的识别。

    图  3  基于LSS的聚合增强型煤矸石视频识别模型
    Figure  3.  Aggregation enhanced coal-gangue video recognition model based on LSS

    多帧聚合操作可以密集计算每帧特征,同时将视频帧特征进行不同尺度的加权聚合。煤矸石视频帧具有小目标多、帧间相似度高、画面冗余度较高等特性,逐帧计算耗费算力且效率不高。因此,采用多帧聚合对煤矸石视频帧进行初步处理,以减少煤矸石视频帧中小目标图像信息的丢失。该方法通过调整参数将多个视频帧的重要特征进行聚合,在不丢失视频帧特征信息的同时,减轻模型的计算负担和处理工作量。

    TRN方法简单有效,可以在获得良好特征融合效果的同时减少计算量,平衡模型的识别精度与速度,因此采用TRN进行多尺度视频帧聚合,融合过程如图4所示。首先,TRN每次处理15帧视频帧作为输入,经过卷积之后得到15张特征图;其次,选取前3帧、中间5帧和后7帧这3个尺度的视频帧分别进行特征融合;最后,将上述3个尺度的特征融合结果相加得到最终特征。

    图  4  TRN特征融合过程
    Figure  4.  The TRN feature fusion process

    基于LSS的聚合增强型煤矸石视频识别模型隶属于两阶段识别模型,先通过区域提议网络(Region Proposal Network,RPN)[17] 提取输入煤矸石视频帧序列的特征,并生成候选框,再进行识别目标的分类与回归。在相同环境、相同拍摄设备、固定拍摄角度及相同传送带的外部因素下,所采集视频呈现出视频帧相似性较高、有效视频帧特征较少的特性。因此,采用注意力机制将长期视频帧特征、短期视频帧特征与关键帧特征按照语义相似度权重、可学习权重和ROI[18]相似度权重进行重新融合,降低图像中相似度较高区域的语义相似性权重,增加有效特征区域的权重,以提高融合后特征图的有效性。

    注意力机制计算原理如图5所示。首先,采用多头注意力机制对长期视频帧特征、短期视频帧特征和关键帧特征同时进行注意力池化。然后,将这3组注意力池化的输出拼接在一起,通过其他可学习的线性投影进行变换,以获得最终的融合特征。最后,将这些视频帧特征进行存储,在后续关键帧处理时加以融合,可有效增强关键帧表征能力。

    图  5  注意力机制计算原理
    Figure  5.  The tational principle of attention mechanism

    注意力机制通过参数调节长短期视频帧对于关键帧的权重,形成一个权重渐小的循环机制。

    $$ {h_i} = f\left( {W_i^{\left( q \right)}q,W_i^{\left( e \right)}e,W_i^{\left( v \right)}v} \right) \in {{\bf{R}}}^{P_v} $$ (3)

    式中:hi为第i个注意力头;$ f $为注意力池化函数;$ W_i^{\left( q \right)}q, W_i^{\left( e \right)}e,W_i^{\left( v \right)}v $分别为查询q、键e、值v对应的权重参数;Pv为值v的维度。

    在模型预测过程中,关键帧对预测结果的影响较大,但关键帧图像具有偶发性,可能会遗漏掉重要特征从而影响识别效果[19]。因此,本文设计LSS模块将非关键帧中长期视频帧、短期视频帧特征进行存储,在预测时增强关键帧特征,提升模型整体的识别精度。

    通过LSS模块将煤矸石视频光线变化帧、遮挡前后帧、模糊前后帧的图像特征进行存储,在关键帧预测中与其图像特征相融合。LSS模块在设计上受长短期记忆(Long Short-Term Memory,LSTM)算法[20]门控思想的启发,在特征数据输入、输出部分采用门控处理,LSS模块更注重数据的存储。

    通过固定时长采样选取长短期视频帧,经过多次实验验证可知,当长期视频帧选取关键帧之前第18~20帧图像,短期视频帧选取关键帧之前3~5帧图像时模型性能最优。随着关键帧的遍历,长短期视频帧也相应发生改变。

    LSS模块包括继承、存储、输出3个部分,如图6所示。继承主要是将上一时刻的输出数据进行承接,作为当前时刻的输入数据来源;存储是对输入的数据进行有选择的处理,摒弃无效数据;输出是将保存数据与上一时刻的输入数据进行整合处理,处理结果作为当前时刻输出数据。

    图  6  LSS模块设计原理
    Figure  6.  The LSS module design principle

    1) 继承。是每个LSS单元的输入,将上一时刻t−1的输出状态继承下来,作为当前时刻t的输入。

    $$ {g_t} = \sigma ({\omega _g} [{C_{t - 1}},{u_{t - 1}},{x_t}] + {b_g}) $$ (4)

    式中:${g_t}$为继承的输出信息;$ \sigma $为Sigmoid函数;$ {\omega _g} $为当前输入的权重;${C_{t - 1}}$为上一时刻的继承信息; ${u_{t - 1}}$为上一时刻的输出信息;${x_t}$为当前时刻输入的新信息;${b_g}$为当前时刻输入的偏置。

    2) 存储。先采用tanh函数对${C_{t - 1}}$${x_t}$中的有效信息${\tilde C_t}$进行提取,再通过Sigmoid函数控制存储信息${I_t}$

    $$ {\tilde C_t} = \tanh \left( {{\omega _{{c}}}\left[ {{u_{t - 1}},{x_t}} \right] + {b_{{c}}}} \right) $$ (5)
    $$ {I_t} = \sigma ({\omega _{{I}}} [{u_{t - 1}},{x_t}] + {b_{{I}}}) $$ (6)

    式中:$ {\omega _{{c}}} $为有效信息中输入的权重;bc为有效信息中输入的偏置;$ {\omega _{{I}}} $为存储信息中输入的权重;bI为存储信息中输入的偏置。

    3) 输出。输出层需将当前时刻存储信息$ {C_t} $与上一时刻输出信息$ {u_{t - 1}} $进行整合。

    $$ {r_t} = \sigma ({\omega _{{r}}} [{C_{t - 1}},{u_{t - 1}},{x_r}] + {b_r}) $$ (7)
    $$ {C_t} = {g_t} * {C_{t - 1}} + {i_t} * {\tilde C_t} $$ (8)
    $$ {u_t} = {r_t} * \tanh {C_t} $$ (9)

    式中:${r_t}$为当前时刻的整合信息;$ {\omega _{{r}}} $为整合信息中输入的权重;br为整合信息中输入的偏置;$ {u_t} $为当前时刻的输出信息;${C_t}$为当前时刻的继承信息。

    在显存为32 GiB的NVIDIA GeForce RTX 2080 Ti硬件环境中进行实验设计、实验验证及数据分析。

    实验用煤矸石自建视频数据集(VID数据集和DET数据集)来自国家能源集团宁夏煤业有限责任公司枣泉选煤厂,该数据集来源于真实煤矸石分选场景,涵盖了不同大小、形态的煤矸石视频切片。该数据集共3 028个视频切片,包含视频帧90 840张,其中80%作为训练集和验证集,20%用作测试集。

    根据加载训练产生的预测模型进行视频数据的检测。根据目标运动速度的不同将其分为快、中、慢3个等级,分别计算检测精度。

    采用平均精度均值(mean Average Precision,mAP)和损失值2个指标来评估基于LSS的聚合增强型煤矸石视频识别模型的性能。

    记忆增强全局−局部聚合(Memory Enhanced Global-local Aggregation,MEGA)网络模型参考了全局语义特征和局部位置特征来实现关键帧目标识别,以获得更加全面的特征信息。基于流引导的特征聚合视频目标检测(Flow-Guided Feature Aggregation for video object detection,FGFA)模型主要根据流导向,将光流导向的特征用在光流聚合道附近帧的特征图上。关系蒸馏网络(Relation Distillation Networks,RDN)[21]模型通过聚合目标特征,传播目标关系以增强目标特征。视频识别的深度特征流(Deep Feature Flow for video recognition,DFF)[22]模型主要采用光流法,通过流场将目标深度特征图传播到其他帧,显著提高了识别速度。在视频目标识别中MEGA,FGFA,RDN,DFF模型的识别性能相对显著。

    为了验证本文模型的优越性,将本文模型与MEGA,FGFA,RDN,DFF模型在煤矸石视频数据集上进行对比,结果见表1,其中“101”表示骨干网络为ResNet-101模型,“50”表示骨干网络为ResNet-50模型。可看出本文模型的mAP优于其他模型,为77.12%。本文模型在慢速运动的目标检测上识别精度最好,达83.82%,这是因为门控存储增强模块提高了慢速运动目标的识别精度。各模型快速运动目标识别精度低于中速运动目标识别精度、中速运动目标识别精度低于慢速运动目标识别精度,说明模型视频目标运动速度与识别精度呈负相关。

    表  1  本文模型与MEGA,FGFA,RDN,DFF模型mAP对比
    Table  1.  The mAP comparison of the proposed model and MEGA,FGFA,RDN,DFF models %
    模型识别精度mAP
    快速运动目标中速运动目标慢速运动目标
    本文模型55.1276.0283.8277.12
    MEGA-10155.6376.2482.3976.65
    MEGA-5049.5370.5879.8372.63
    RDN-10151.6571.9582.1074.68
    RDN-5045.2767.4680.2270.40
    FGFA-10143.9769.8681.0771.91
    FGFA-5040.7566.5778.9068.68
    DFF-10137.4766.8779.3268.42
    DFF-5035.6562.1974.1463.50
    下载: 导出CSV 
    | 显示表格

    模型训练时设置训练迭代次数为120 000,批尺寸为64,长期视频为18~20帧,短期视频为3~5帧。本文选取训练中前80 000次迭代数据绘制损失函数曲线,如图7所示。可看出在迭代过程中,损失值在训练开始后明显下降,并在30 000次迭代后趋于平稳且最终收敛于0.23,说明了本文模型具有良好的鲁棒性和拟合性。

    图  7  损失函数曲线
    Figure  7.  Loss function curve

    1) 针对视频帧冗余度高的问题,采用煤矸石视频前后多帧聚合的处理思路,将多个视频帧按照权重进行聚合,加快模型整体的识别速度。采用注意力机制将图像中相似度较高区域的语义相似性权重降低,将有效特征区域的权重增加,以提高融合后特征图的有效性。将非关键帧中长期视频帧、短期视频帧特征进行存储,进而在关键帧预测时加以增强其特征,提升模型整体的识别精度。

    2) 相较于MEGA,FGFA,RDN,DFF模型,基于LSS的聚合增强型煤矸石视频识别模型的mAP优于其他模型,为77.12%;所有模型视频目标运动速度与识别精度呈负相关,且基于LSS的聚合增强型煤矸石视频识别模型在慢速运动的目标检测上识别精度最高,达83.82%。

  • 图  1   煤矸石视频中的关键帧与非关键帧

    Figure  1.   Key frames and non-key frames in coal-gangue video

    图  2   关键帧选取框架

    Figure  2.   Key frame selection frame

    图  3   基于LSS的聚合增强型煤矸石视频识别模型

    Figure  3.   Aggregation enhanced coal-gangue video recognition model based on LSS

    图  4   TRN特征融合过程

    Figure  4.   The TRN feature fusion process

    图  5   注意力机制计算原理

    Figure  5.   The tational principle of attention mechanism

    图  6   LSS模块设计原理

    Figure  6.   The LSS module design principle

    图  7   损失函数曲线

    Figure  7.   Loss function curve

    表  1   本文模型与MEGA,FGFA,RDN,DFF模型mAP对比

    Table  1   The mAP comparison of the proposed model and MEGA,FGFA,RDN,DFF models %

    模型识别精度mAP
    快速运动目标中速运动目标慢速运动目标
    本文模型55.1276.0283.8277.12
    MEGA-10155.6376.2482.3976.65
    MEGA-5049.5370.5879.8372.63
    RDN-10151.6571.9582.1074.68
    RDN-5045.2767.4680.2270.40
    FGFA-10143.9769.8681.0771.91
    FGFA-5040.7566.5778.9068.68
    DFF-10137.4766.8779.3268.42
    DFF-5035.6562.1974.1463.50
    下载: 导出CSV
  • [1]

    SHARMA V,GUPTA M,KUMAR A,et al. Video processing using deep learning techniques:a systematic literature review[J]. IEEE Access,2021,9:139489-139507. DOI: 10.1109/ACCESS.2021.3118541

    [2]

    AICH A, ZHENG M, KAEANAM S, et al. Spatio-temporal representation factorization for video-based person re-identification[C]. International Conference on Computer Vision, Montreal, 2021: 152-162.

    [3] 孙立新. 基于卷积神经网络的煤矸石识别方法研究[D]. 邯郸: 河北工程大学, 2020.

    SUN Lixin. Research on coal gangue recognition method based on convolutional neural network[D]. Handan: Hebei University of Engineering, 2020.

    [4]

    PAN Hongguang,SHI Yuhong,LEI Xinyu,et al. Fast identification model for coal and gangue based on the improved tiny YOLO V3[J]. Journal of Real-Time Image Processing,2022,19(3):687-701. DOI: 10.1007/s11554-022-01215-1

    [5]

    ZHU Xizhou, WANG Yujie, DAI Jifeng, et al. Flow-guided feature aggregation for video object detection[C]. IEEE International Conference on Computer Vision, Venice, 2017, 408-417.

    [6] 张勇. 基于视频处理的煤矸石识别研究[D]. 徐州: 中国矿业大学, 2018.

    ZHANG Yong. Research on gangue identification based on video processing[D]. Xuzhou: China University of Mining and Technology, 2018.

    [7] 程健,王东伟,杨凌凯,等. 一种改进的高斯混合模型煤矸石视频检测方法[J]. 中南大学学报(自然科学版),2018,49(1):118-123.

    CHENG Jian,WANG Dongwei,YANG Lingkai,et al. An improved Gaussian mixture model for coal gangue video detection[J]. Journal of Central South University (Science and Technology),2018,49(1):118-123.

    [8]

    LEI Xinyu,PAN Hongguang,HUANG Xiangdong. A dilated CNN model for image classification[J]. IEEE Access,2019,7:124087-124095. DOI: 10.1109/ACCESS.2019.2927169

    [9]

    PAN Hongguang,WEN Fan,HUANG Xiangdong,et al. The enhanced deep plug-and-play super-resolution algorithm with residual channel attention networks[J]. Journal of Intelligent & Fuzzy Systems:Applicationgs in Engineering and Technology,2021,41(2):4069-4078.

    [10]

    ZHU Xizhou, DAI Jifeng, YUAN Lu, et al. Towards high performance video object detection[C]. The IEEE Conference on Computer Vision and Pattern Recognition, Salt Lake City, 2018: 7210-7218.

    [11]

    WANG Shiyao, ZHOU Yucong, YAN Junjie, et al. Fully motion-aware network for video object detection[C]. Proceedings of the European Conference on Computer Vision, Munich, 2018: 542-557.

    [12]

    WU Haiping, CHEN Yuntao, WANG Naiyan, et al. Sequence level semantics aggregation for video object detection[C]. The IEEE/CVF International Conference on Computer Vision, Seoul, 2019: 9217-9225.

    [13]

    FEICHTENHOFER C, PINZ A, ZISSERMAN A. Detect to track and track to detect[C]. The IEEE International Conference on Computer Vision, Venice, 2017: 3038-3046.

    [14]

    ZHOU Bolei, ANDONIAN A, TORRALBA A. Temporal relational reasoning in videos[C]. European Conference on Computer Vision, Munich, 2018: 803-818.

    [15]

    LIN T Y, DOLLAR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]. IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, 2017: 936-944.

    [16]

    HE Kaiming, GKIOXARI G, DOLLAR P, et al. Mask R-CNN[C]. International Conference on Computer Vision, Venice, 2017: 2961-2969.

    [17]

    REN Shaoqing,HE Kaiming,GIRSHICK R,et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149. DOI: 10.1109/TPAMI.2016.2577031

    [18]

    CHEN Yihong, CAO Yue, HU Han, et al. Memory enhanced global-local aggregation for video object detection[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, 2020: 10337-10346.

    [19]

    GIRSHICK R. Fast R-CNN[C]. IEEE International Conference on Computer Vision, Santiago, 2015, 1440-1448.

    [20]

    HOCHREITER S,SCHMIDHUBER J. Long short-term memory[J]. Neural Computation,1997,9(8):1735-1780. DOI: 10.1162/neco.1997.9.8.1735

    [21]

    DENG Jiajun, PAN Yingwei, YAO Ting, et al. Relation distillation networks for video object detection[C]. The IEEE/CVF International Conference on Computer Vision, Seoul, 2019: 7023-7032.

    [22]

    ZHU Xizhou, XIONG Yuwen, DAI Jifeng, et al. Deep feature flow for video recognition[C]. The IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, 2017: 2349-2358.

  • 期刊类型引用(1)

    1. 张先韬. 煤矿井下移动平台视频监控APP设计与开发. 煤矿机电. 2023(06): 1-6 . 百度学术

    其他类型引用(0)

图(7)  /  表(1)
计量
  • 文章访问数:  163
  • HTML全文浏览量:  53
  • PDF下载量:  28
  • 被引次数: 1
出版历程
  • 收稿日期:  2022-11-21
  • 修回日期:  2023-02-19
  • 网络出版日期:  2023-03-26
  • 刊出日期:  2023-03-24

目录

/

返回文章
返回