UeDiff-GAN-based target detection and twin synchronization mapping for fully mechanized mining faces
-
摘要:
矿井综采工作面数字孪生模型的构建过程需要手动构建实体的数字孪生3D模型,然后对实体进行目标检测,并根据实时检测结果控制3D模型,以确保孪生体与实体之间的同步映射关系。因此,对井下目标的实时、准确检测是实现虚实同步映射控制的关键。目前主流的目标检测方法需要在传统模型中引入或改进模块,使得模型网络结构复杂、训练周期较长,降低了目标检测的实时性;同时,对于一些含高强度噪声的图像难以精确检测。针对上述问题,提出了一种基于UeDiff−GAN的综采工作面目标检测与孪生体同步映射方法。通过扩散模型对高质量样本进行加噪扩散,得到不同程度的加噪样本,然后使用生成对抗网络(GAN)模型进行训练;设计了平滑扩散算法,以控制扩散步长,加入不均衡扩散模块,以得到与预识别样本匹配的检测算法模型。使用Unity3D构建综采工作面3D模型并进行渲染,实现井下物理实体的对象孪生,据此构建综采工作面实体与其孪生模型的映射关系,根据井下不同位置的检测结果控制对应机器运动状态及姿态,实现孪生模型协同控制,从而实现过程孪生。在自制数据集上的实验结果表明:UeDiff−GAN模型对井下移动目标的平均检测精度较SSD,R−CNN,YOLOv7和Diff−GAN模型分别提升了19.4%,14.3%,9.1%,24.3%;检测速度较SSD,R−CNN分别提升了13.86,42.73 帧/s;孪生模型与实体的实时性延迟至多为0.873 s。
Abstract:The construction of a digital twin model for fully mechanized mining faces requires manually creating a digital twin 3D model of a physical entity, performing target detection on the entity, and adjusting the 3D model based on real-time detection results to ensure synchronization mapping between the twin and the physical entity. Therefore, real-time and accurate detection of underground targets is crucial for achieving virtual-physical synchronization mapping control. Current mainstream target detection methods require incorporating or modifying modules within traditional models, resulting in complex network structures and prolonged training cycles, which reduce the real-time performance of target detection. Moreover, these methods struggle with precisely detecting targets in images with high-intensity noise. To address these issues, this study proposed a UeDiff-GAN-based target detection and twin synchronization mapping method for fully mechanized mining faces. The diffusion model was used to add noise into high-quality samples to generate samples of varying levels, which were then used to train a generative adversarial network (GAN) model. A smooth diffusion algorithm was designed to regulate the diffusion step sizes, while an imbalanced diffusion module was incorporated to obtain a detection algorithm model that matches pre-identified samples. A 3D model of the fully mechanized mining face was constructed and rendered using Unity3D, achieving a digital twin of underground physical entities. Based on this model, a mapping relationship between the physical entity and its twin model was established. The corresponding machine's motion state and posture are controlled according to the detection results at different underground locations. This approach enabled twin model coordinated control, thereby achieving process-level twinning. Experimental results on a self-developed dataset demonstrated that the UeDiff-GAN model improved the average detection accuracy of underground moving targets by 19.4%, 14.3%, 9.1%, and 24.3% compared to SSD, R-CNN, YOLOv7, and Diff-GAN models, respectively. The detection speed improved by 13.86, 42.73 frames per second (fps) compared to SSD and R-CNN models, respectively. The real-time delay between the twin model and the physical entity was at a maximum of 0.873 seconds.
-
0. 引言
近年来,我国开始大力推进煤矿智能化建设。2024年4月,国家矿山安监局等七部门联合印发《关于深入推进矿山智能化建设促进矿山安全发展的指导意见》,指出要“重点攻克复杂条件无人驾驶等关键技术[1]”。煤矿井下有轨电机车是一种煤矿辅助运输设备,承担对作业人员、设备、物料等的运输任务,具有运行频繁、运输量大、运行距离长等特点[2]。人工驾驶电机车的方式受巷道狭窄、运输道路崎岖不平、交通信号不完善等影响,经常出现驾驶员违章行驶、机车安全性能不高等问题[3-4]。同时由于驾驶员长时间驾驶、注意力分散等原因,容易造成运输事故。因此,研究煤矿井下电机车无人驾驶技术,对保障煤矿安全高效生产具有重要意义[5]。
在低光照、多粉尘的井下恶劣环境实现精准的目标检测是无人驾驶过程中的重要一环。近年来,在卷积神经网络快速发展的背景下,基于深度学习的目标检测算法趋于成熟[6]。目前基于深度学习的主流目标检测算法主要分为2类:以Faster−RCNN[7],R−CNN[8],Mask R−CNN[9]等为代表的两阶段检测算法;以SSD[10],YOLO系列[11-12]为代表的一阶段检测算法。两阶段检测算法检测精度高,却无法避免计算成本大、速度慢等缺点,不适用于煤矿场景。而YOLO系列算法在计算模型较小的情况下仍能保持良好精度。曹帅等[13]在YOLOv7中将模拟退火(Simulated Annealing,SA)算法与k−means++聚类算法融合,优化初始锚框值,准确捕捉井下小目标。张传伟等[14]对YOLOv8颈部的C2f模型进行改进,增强了对低光照、复杂背景中重点区域注意程度,同时设计了DicPSA模块来替换主干网络中的空间金字塔池化模块,增强了模型对关键特征信息的捕获提取能力。郑嘉祺[15]将改进型YOLO系列目标检测算法应用于煤矿井下行人检测数据集,在目标检测速度和精度上均有所提高。李忠飞等[16]使用轻量化特征提取网络S−MobileNetV2替换YOLOv4的特征提取网络CSPDarknet53,减少了相关参数量的同时改善了特征之间的联系,并将原有颈部结构中的部分卷积修改为深度可分离卷积,在保证检测精度的前提下进一步降低了模型的参数量和计算量。陈伟等[17]使用slim−neck对基础模型的颈部进行改造,将原有YOLOv8l模型中的卷积替换为感受野注意卷积(Receptive-Field Attention Convolution,RFAConv),满足了模型实时性和轻量化的需求。Wang Wenshan等[18]提出了一种YOLOv3−4L算法用于煤矿井下巷道内多种目标检测,通过简化Darknet53特征提取网络、添加浅层检测尺度、优化损失函数,提升了目标检测的平均精度及检测速度。上述研究虽取得了一定成果,但在井下高噪声、低光照和运动模糊等环境因素影响下,部分目标检测难度大,模型识别精度低等问题仍然存在。
本文提出一种基于YOLOv8n的改进模型——DYCS−YOLOv8n模型,并将其应用于井下无人驾驶电机车多目标检测。在YOLOv8n的基础上,引入卷积注意力模块(Convolutional Block Attention Module,CBAM),增强对复杂环境下目标的特征提取能力;添加小目标检测层,针对井下小尺寸目标提升模型检测能力;采用动态上采样算子DySample,在复杂背景中更好地保留图像细节。
1. DYCS−YOLOv8n模型
YOLOv8n是一种单阶段目标检测模型,由输入端(Input)、主干网络(Backbone)、颈部网络(Neck)和检测头(Head)4个部分组成,具有高检测精度、速度和灵活性。输入端主要进行数据增强、自适应锚框计算等图像预处理操作。主干网络采用改进的CSP−Darknet网络,将C3模块替换为C2f模块,这种改进方式利用特征融合技术来提高模型对复杂特征的表达能力,可以更好地捕捉和提取更丰富的特征信息。颈部网络使用特征金字塔网络(Feature Pyramid Network,FPN)和路径聚合网络(Path Aggregation Network,PAN)的双层结构,通过构建多尺度FPN并促进跨层信息的流通,使网络能够更精准地捕捉不同尺度目标的特征。
DYCS−YOLOv8n在YOLOv8n的基础上进行了如下改进:① 在颈部网络最后一层C2f层和检测头之间引入CBAM,结合空间和通道双注意力,提高模型对井下恶劣环境下图像特征的提取能力。② 添加小目标检测层,由原来的3层增加至4层,提升模型对小目标的检测能力。③ 采用动态上采样算子DySample,替换原模型中的Upsample算子,避免图像关键信息损失。DYCS−YOLOv8n模型结构如图1所示。
1.1 CBAM
煤矿井下无人驾驶电机车在行驶过程中采集到的图像质量受低光照、多粉尘等影响,增加了模型对图像特征提取的难度,目标特征损失严重。
相较于一般的注意力机制,CBAM结合了空间和通道双重注意力,能够更深层次地提升网络的特征提取能力,进一步提高目标检测任务的性能。通过引入CBAM,模型能够更加有效地聚焦于重要特征区域,提升整体目标检测性能。CBAM主要由通道注意力模块和空间注意力模块组成[19],如图2所示。
通道注意力模块的核心思想是让网络学习各个通道的重要性。对输入特征图进行全局平均池化和全局最大池化,以获得每个通道的描述向量。通道注意力模块结构如图3所示。
空间注意力模块采用全局平均池化和全局最大池化的方法,生成2个二维特征图。将这2个特征图沿通道维度连接,形成1个新的特征图,反映各个空间位置的重要性。空间注意力模块结构如图4所示。
1.2 小目标检测层
井下无人驾驶电机车在行驶过程中,由于小目标的尺寸较小,特征不明显,在复杂的环境背景下,容易被周围环境淹没。传统模型的检测能力欠缺,在实际应用中容易出现漏检,不能准确识别信号灯等小目标。
为解决这一问题,在YOLOv8n模型中引入小目标检测层,增强模型对小目标的关注度,使得更底层的特征信息得到进一步融合,显著提高识别率。小目标检测层结构如图5所示。
1.3 动态上采样
上采样是计算机视觉和图像处理领域中的一种重要技术,用于提高图像分辨率或特征图的尺寸,使模型更容易识别对象的边界和细节,常见于图像重建、目标检测和图像分割等任务。YOLOv8中使用了最近邻插值的上采样方式,实现简单,但常常导致细节模糊和信息损失。而最近的基于内核的动态上采样算子(例如CARAFE,FADE和SAPA),虽检测性能获得较大提升,但同时也增加了计算量,提高了计算成本。
DySample结合了动态上采样的优点,避免了复杂性和高成本,用一种简单而高效的方法来生成内容感知的上采样结果。DySample结构[20]如图6所示。输入大小为C×H×W(C为通道特征维度,H为空间垂直维度,W为空间水平维度)的特征图$ x $,通过采样点生成器[21]生成大小为2g×sH×sW(g为采样点数,s为上采样比例因子)的采样集S,并与输入特征图$ x $通过网格采样得到大小为C×sH×sW的上采样特征图:
$$ x'=\mathrm{g}\mathrm{r}\mathrm{i}\mathrm{d}\_\mathrm{s}\mathrm{a}\mathrm{m}\mathrm{p}\mathrm{l}\mathrm{e}\left(x,S\right) $$ (1) 式中$ \mathrm{g}\mathrm{r}\mathrm{i}\mathrm{d}\_\mathrm{s}\mathrm{a}\mathrm{m}\mathrm{p}\mathrm{l}\mathrm{e}\left(\cdot \right) $为网格采样函数。
2. 实验分析
2.1 实验设置
实验环境:操作系统为Windows10,CPU为12th Gen Intel(R) Core(TM) i5−12400F,GPU为NVIDIA GeForce RTX4060,深度学习环境配置为PyTorch 2.4.1,Python 3.12及CUDA12.4。
超参数设置:批量大小(batch size)为16,动量(momentum)为0.937,衰减率(decay)为0.000 5,学习率(learning rate)为0.01,训练轮次(epochs)为300。
2.2 数据采集与预处理
本实验的数据集来源于安徽省淮南矿业(集团)有限责任公司潘集第一煤矿井下无人驾驶电机车运输巷道的实际拍摄,使用防爆相机等设备收集了1 264张电机车行驶场景的图像,其中包含行人目标1 189张,轨道目标1 264张,信号灯目标1 046张,图像分辨率为1 920×1 080。为提升数据集的多样性和检测算法的鲁棒性,并更真实地模拟井下环境,本文通过添加噪声、运动模糊和低光照等对数据集进行扩充。扩充后,总计有5 056张图像,随后使用labelimg进行标注,标注类别包括“person”、“track”和“light”,分别代表行人、轨道和信号灯。最后,数据集按照8∶1∶1的比例划分为训练集、验证集和测试集,其中包括训练集4 044张图像,验证集和测试集各506张图像。
2.3 评价指标
为准确评估模型的性能,本文选取以下评价指标:平均精度(Average Precision,AP)、平均精度均值(mean Average Precision,mAP)、浮点运算次数(Giga Floating-point Operations Per Second,GFLOPs)、参数量(Params)、帧率(Frame Per Second,FPS)。
2.4 不同注意力机制对比
为验证CBAM注意力机制在煤矿井下环境的适用性,与挤压−激励注意力机制(Squeeze-and-Excitation Attention,SE)[22]、坐标注意力机制(Coordinate Attention,CA)[23]、高效多尺度注意力机制(Efficient Multi-scale Attention,EMA)[24]、全局注意力机制(Global Attention Mechanism,GAM)[25]进行对比实验,结果见表1。可看出在引入的各项注意力机制中,SE,EMA,CA和GAM均会降低mAP@0.5,而CBAM注意力机制能提升mAP@0.5,且未增加GFLOPs。
表 1 不同注意力机制对比Table 1. Comparison of different attention mechanisms模型 AP/% mAP@0.5/% GFLOPs/109 person track light YOLOv8n+SE 96.1 97.7 85.5 93.1 8.2 YOLOv8n+CA 96.0 97.1 87.1 93.4 8.2 YOLOv8n+EMA 96.3 97.2 89.4 94.3 8.3 YOLOv8n+GAM 96.4 97.0 85.3 92.9 9.5 YOLOv8n+CBAM 97.9 98.4 89.6 95.3 8.2 2.5 消融实验
为验证各改进方法对YOLOv8n模型性能的影响,设计了4组消融实验,结果见表2,其中mAP@0.5曲线如图7所示。模型A为YOLOv8n模型,模型B在模型A的基础上添加了CBAM注意力机制,模型C在模型B的基础上采用了DySample动态上采样,模型D在模型C的基础上添加了小目标检测层。
表 2 消融实验结果对比Table 2. Comparison of ablation experiment results模型 AP/% mAP@0.5/% GFLOPs/109 Params/
106个FPS/
(帧·s−1)person track light A 97.6 97.8 87.8 94.4 8.2 3.01 49.82 B 97.9 99.0 89.0 95.3 8.2 3.08 46.86 C 98.1 98.7 91.3 96.0 8.2 3.09 41.57 D 98.5 98.7 95.3 97.5 12.7 3.06 46.35 从表2和图7可看出:① 在YOLOv8n模型中添加CBAM后,在170轮迭代之后,模型B的mAP@0.5逐渐高于模型A,并一直保持到训练结束。模型B的GFLOPs,Params基本不变且FPS略微降低,mAP@0.5提升了0.9%,其中针对light的AP提升了1.2%,有效提高了模型精度。② 将传统的上采样替换为动态上采样DySample后,在50轮迭代之前,模型C比模型B收敛更快,且在150轮迭代之后模型C的mAP@0.5渐渐高于模型B并保持领先。模型C的GFLOPs不变,Params基本无变化,FPS虽然有所减少却依旧保持41.57帧/s的较高推理速度,mAP@0.5从95.3%提高到96.0%,表明DySample在不增加计算量和模型大小的同时,整体上增强了模型性能。③ 增加额外小目标检测层后,在50轮迭代之前模型D的mAP@0.5曲线的收敛速度快于所有曲线,在迭代100轮之后,模型D的mAP@0.5也一直高于其他模型,且整体上更加稳定、平滑。模型D的GFLOPs小幅增加,Params基本不变,FPS增加到46.35帧/s,满足目标检测任务实时性的要求,mAP@0.5从96.0%提升到97.5%,其中针对light的AP增加了4%,达95.3%,说明添加小目标检测层对小目标的检测效果提升显著,模型性能获得较大提升。
2.6 对比实验
为验证DYCS−YOLOv8n模型性能的优越性,选择YOLOv5n,YOLOv6,YOLOv8s,YOLOv10n,YOLOv11n等主流目标检测模型进行对比实验,结果见表3。
表 3 对比实验结果Table 3. Comparative experiment results模型 AP/% mAP@0.5/% Params/
106个GFLOPs/
109person track light YOLOv5n 97.8 98.6 90.1 95.5 2.51 7.2 YOLOv6 98.0 98.1 87.7 94.6 4.20 11.8 YOLOv8s 95.6 98.4 87.7 93.9 11.13 28.6 YOLOv10n 97.9 98.5 89.8 95.4 2.71 8.2 YOLOv11n 98.2 98.7 89.6 95.5 2.60 6.4 DYCS−YOLOv8 98.5 98.7 95.3 97.5 3.06 12.7 从表3可看出,DYCS−YOLOv8n各项AP均高于其他模型,其中针对light的AP高达95.3%;DYCS−YOLOv8n的mAP@0.5较YOLOv11n和YOLOv5n高2.0%,较YOLOv10n,YOLOv6和YOLOv8s分别高2.1%,2.9%和3.6%;Params为3.06×106个,仅略高于YOLOv5n,YOLOv10n和YOLOv11n,远低于YOLOv8s;GFLOPs远低于YOLOv8s,在保持轻量化的同时保证了较快的计算速度。
为进一步验证DYCS−YOLOv8n模型的实际检测效果,使用相同数据集,将其与YOLOv5n,YOLOv8n,YOLOv10n及YOLOv11n进行检测效果对比实验,结果如图8所示。可看出在正常场景下,YOLOv8n和YOLOv10n均存在1处信号灯漏检,而YOLOv5n和YOLOv8n信号灯检测的置信度较低;在噪声场景下,YOLOv5n和YOLOv8n均存在1处行人漏检;在黑暗环境下,YOLOv8n存在信号灯检测的置信度低的问题,且除了DYCS−YOLOv8n模型外,其他模型均存在行人漏检的问题;DYCS−YOLOv8n模型在上述场景中均能准确检测出信号灯、轨道和行人,平均目标检测置信度较高。
3. 结论
1) DYCS−YOLOv8n模型在YOLOv8n的基础上引入CBAM,抑制模糊和噪声的影响,增强重要特征的提取能力,提升模型在复杂环境中的鲁棒性和准确性;增加小目标检测层,提升模型对小目标的检测性能;将传统的上采样替换为动态上采样,根据输入特征自适应地调整采样策略,有效避免图像细节的模糊和信息丢失。
2) 消融实验结果表明,针对YOLOv8模型引入CBAM、增加小目标检测层、采用动态上采样等改进方法能有效提升目标检测精度,mAP@0.5分别提升了0.9%,0.7%,1.5%。
3) 对比实验结果表明:DYCS−YOLOv8n相较于其他主流目标检测模型mAP@0.5最优,在保持轻量化的同时保证了较快的计算速度;在噪声、低光照等复杂井下场景下,DYCS−YOLOv8n对行人、轨道、信号灯的平均检测置信度较高,未出现漏检与误检情况。
-
表 1 各模型对比结果
Table 1 Comparison of different models
模型 检测精度% 平均检测
精度%检测速度/
(帧·s−1)采煤机 人 车辆 SSD 72.3 87.1 71.9 77.1 45.60 R−CNN 77.4 88.2 75.8 80.5 16.73 YOLOv7 82.6 90.9 81.0 84.8 70.56 Diff−GAN 67.4 74.9 65.1 69.1 59.71 UeDiff−GAN 91.7 92.4 91.0 91.7 59.46 表 2 消融实验结果
Table 2 Results of ablation experiment
模型 检测精度% 平均检测
精度%检测速度/
(帧·s−1)采煤机 人 车辆 Diff−GAN 67.4 74.9 65.1 69.1 59.71 模型1 88.7 89.3 88.1 88.7 59.50 模型2 74.3 83.0 73.1 76.8 59.66 UeDiff−GAN 91.7 92.4 91.0 91.7 59.46 -
[1] 邢震. 面向智能矿山的数字孪生技术研究进展[J]. 工矿自动化,2024,50(3):22-34,41. XING Zhen. Research progress on digital twin technology for intelligent mines[J]. Journal of Mine Automation,2024,50(3):22-34,41.
[2] 张旭辉. 打造数字孪生行业生态,突破采掘装备远程控制[J]. 西安科技大学学报,2023,43(1):2. ZHANG Xuhui. Creating digital twin industry ecology,advancing remote control of mining equipment[J]. Journal of Xi'an University of Science and Technology,2023,43(1):2.
[3] 鲍久圣,张可琨,王茂森,等. 矿山数字孪生MiDT:模型架构、关键技术及研究展望[J]. 绿色矿山,2023(1):166-177. BAO Jiusheng,ZHANG Kekun,WANG Maosen,et al. Mine digital twin:model architecture,key technologies and research prospects[J]. Journal of Green Mine,2023(1):166-177.
[4] 张帆,葛世荣,李闯. 智慧矿山数字孪生技术研究综述[J]. 煤炭科学技术,2020,48(7):168-176. ZHANG Fan,GE Shirong,LI Chuang. Research summary on digital twin technology for smart mines[J]. Coal Science and Technology,2020,48(7):168-176.
[5] 张帆,葛世荣. 矿山数字孪生构建方法与演化机理[J]. 煤炭学报,2023,48(1):510-522. ZHANG Fan,GE Shirong. Construction method and evolution mechanism of mine digital twins[J]. Journal of China Coal Society,2023,48(1):510-522.
[6] 熊思博,王琦,刘光洁. 三维重建技术的发展与现状研究综述[J]. 电脑知识与技术,2022,18(36):114-117. XIONG Sibo,WANG Qi,LIU Guangjie. A review on the development and current status of 3D reconstruction technology[J]. Computer Knowledge and Technology,2022,18(36):114-117.
[7] 齐海明,李俊林,罗广利. 基于三维激光扫描技术的地下矿山三维模型重建方法研究[J]. 经纬天地,2023(1):79-81. DOI: 10.3969/j.issn.1673-7563.2023.01.023 QI Haiming,LI Junlin,LUO Guangli. Research on 3D model reconstruction method of underground mine based on 3D laser scanning technology[J]. Survey World,2023(1):79-81. DOI: 10.3969/j.issn.1673-7563.2023.01.023
[8] 苗丙,葛世荣,郭一楠,等. 煤矿数字孪生智采工作面系统构建[J]. 矿业科学学报,2022,7(2):143-153. MIAO Bing,GE Shirong,GUO Yinan,et al. Construction of digital twin system for intelligent mining in coal mines[J]. Journal of Mining Science and Technology,2022,7(2):143-153.
[9] 郭虎升. 目标检测综述:从传统方法到深度学习[J]. 新兴科学和技术趋势,2024(2):128-145. DOI: 10.12405/j.issn.2097-1486.2024.02.002 GUO Husheng. Object detection:from traditional methods to deep learning[J]. Emerging Science and Technology,2024(2):128-145. DOI: 10.12405/j.issn.2097-1486.2024.02.002
[10] 高涵,赵培培,于正,等. 基于特征增强与Transformer的煤矿输送带异物检测[J]. 煤炭科学技术,2024,52(7):199-208. GAO Han,ZHAO Peipei,YU Zheng,et al. Coal mine conveyor belt foreign object detection based on feature enhancement and Transformer[J]. Coal Science and Technology,2024,52(7):199-208.
[11] 王宇,于春华,陈晓青,等. 基于多模态特征融合的井下人员不安全行为识别[J]. 工矿自动化,2023,49(11):138-144. WANG Yu,YU Chunhua,CHEN Xiaoqing,et al. Recognition of unsafe behaviors of underground personnel based on multi modal feature fusion[J]. Journal of Mine Automation,2023,49(11):138-144.
[12] 陈伟,江志成,田子建,等. 基于YOLOv8的煤矿井下人员不安全动作检测算法 [J/OL]. 煤炭科学技术:1-19[2024-08-18]. http://kns.cnki.net/kcms/detail/11.2402.td.20240322.1343.003.html. CHEN Wei,JIANG Zhicheng,TIAN Zijian,et al. YOLOv8-based algorithm for detecting unsafe movements of underground personnel in coal mines[J/OL]. Coal Science and Technology:1-19[2024-08-18]. http://kns.cnki.net/kcms/detail/11.2402.td.20240322.1343.003.html.
[13] 杨伟康,吕文生,杨鹏,等. 基于倒置残差的井下无人车目标检测研究[J]. 矿业研究与开发,2024,44(4):222-227. YANG Weikang,LYU Wensheng,YANG Peng,et al. Research on target detection of underground unmanned vehicle based on inverted residual[J]. Mining Research and Development,2024,44(4):222-227.
[14] 周浩,叶夏磊,包志舟,等. 数字孪生机器人虚实双向控制方法研究[J]. 机电工程技术,2024,53(12):135-140. ZHOU Hao,YE Xialei,BAO Zhizhou,et al. Research on virtual real bidirectional control method for digital twin robots[J]. Mechanical & Electrical Engineering Technology,2024,53(12):135-140.
[15] 牛进鑫,孙文磊,刘国良,等. 基于数字孪生驱动的机器人运动仿真与状态虚实同步映射研究[J]. 现代制造工程,2024(5):48-55. NIU Jinxin,SUN Wenlei,LIU Guoliang,et al. Research on robot motion simulation and virtual-real synchronized mapping driven by digital twins[J]. Modern Manufacturing Engineering,2024(5):48-55.
[16] SA Guodong,SUN Jiacheng,HOU Mingjie,et al. A digital twin synchronous evolution method of CNC machine tools associated with dynamic and static errors[J]. The International Journal of Advanced Manufacturing Technology,2024,134(5):2753-2763.
[17] WANG Zhendong,ZHENG Huangjie,HE Pengcheng,et al. Diffusion-GAN:training GANs with diffusion[EB/OL]. [2024-08-16]. https://arxiv.org/abs/2206.02262.
[18] HO J,JAIN A,ABBEEL P. Denoising diffusion probabilistic models[J]. Advances in Neural Information Processing Systems,2020,33:6840-6851.
[19] GOODFELLOW I J,POUGET-ABADIE J,MIRZA M,et al. Generative adversarial nets[C]. 28th Annual Conference on Neural Information Processing Systems,Montreal,2014:2672-2680.
[20] 王鑫,吴士良. 智能综采工作面系统设计及关键技术研究[J]. 中国煤炭,2024,50(9):73-79. WANG Xin,WU Shiliang. Research on system design and key technology of intelligent fully mechanized mining face[J]. China Coal,2024,50(9):73-79.
[21] 张捷. UG软件在汽车车身CAD建模中的使用[J]. 内燃机与配件,2021(19):206-207. DOI: 10.3969/j.issn.1674-957X.2021.19.097 ZHANG Jie. Application of UG software in auto body CAD modeling[J]. Internal Combustion Engine & Parts,2021(19):206-207. DOI: 10.3969/j.issn.1674-957X.2021.19.097
[22] 王进峰,问丛川,花广如,等. 基于Unity3D的数控机床数字孪生系统设计与实现[J]. 中国工程机械学报,2023,21(5):443-448. WANG Jinfeng,WEN Congchuan,HUA Guangru,et al. Design and implementation of digital twin system for CNC machine tools based on Unity3D[J]. Chinese Journal of Construction Machinery,2023,21(5):443-448.
[23] 陈述,鲁世立,王建平,等. 融合Unity3D的缆索起重机安全运行数字孪生模型构建方法[J]. 中国安全生产科学技术,2024,20(1):154-159. CHEN Shu,LU Shili,WANG Jianping,et al. Construction method of digital twin model for safe operation of cable crane by integrating Unity3D[J]. Journal of Safety Science and Technology,2024,20(1):154-159.