基于双目视觉的掘锚机器人行驶位移检测方法

马宏伟, 晁勇, 薛旭升, 毛清华, 王川伟

马宏伟,晁勇,薛旭升,等. 基于双目视觉的掘锚机器人行驶位移检测方法[J]. 工矿自动化,2022,48(12):16-25. DOI: 10.13272/j.issn.1671-251x.2022100066
引用本文: 马宏伟,晁勇,薛旭升,等. 基于双目视觉的掘锚机器人行驶位移检测方法[J]. 工矿自动化,2022,48(12):16-25. DOI: 10.13272/j.issn.1671-251x.2022100066
MA Hongwei, CHAO Yong, XUE Xusheng, et al. Binocular vision-based displacement detection method for anchor digging robot[J]. Journal of Mine Automation,2022,48(12):16-25. DOI: 10.13272/j.issn.1671-251x.2022100066
Citation: MA Hongwei, CHAO Yong, XUE Xusheng, et al. Binocular vision-based displacement detection method for anchor digging robot[J]. Journal of Mine Automation,2022,48(12):16-25. DOI: 10.13272/j.issn.1671-251x.2022100066

基于双目视觉的掘锚机器人行驶位移检测方法

基金项目: 国家自然科学基金面上项目(51975468,52174150);西安市科技计划项目(22GXFW0067);陕煤联合基金项目(2021JLM-03)。
详细信息
    作者简介:

    马宏伟(1957—),男,陕西兴平人,教授,博士,博士研究生导师,研究方向为智能检测与控制、机器人技术、现代无损检测与评价等,E-mail:mahw@xust.edu.cn

  • 中图分类号: TD632.2

Binocular vision-based displacement detection method for anchor digging robot

  • 摘要: 针对掘锚机器人在行驶过程中存在行驶位移检测精度低的问题,以已支护锚杆为定位基准,通过分析掘锚机器人与已支护锚杆之间的距离关系,建立“掘锚机器人−已支护锚杆”定位模型,提出一种基于双目视觉的掘锚机器人行驶位移检测方法。煤矿井下环境复杂,采用传统的Census变换算法得到的视差图具有局限性,通过分析双目视觉测距原理,提出一种改进Census变换算法获取锚杆的视差图,得到锚杆图像的深度信息;提出一种锚杆特征的识别与定位方法,利用边缘检测算法对视差图中的锚杆进行轮廓提取,采用最小外接矩形与最大外接矩形算法对锚杆轮廓进行框选,提取锚杆特征点的像素坐标,通过分析坐标转换关系将特征点像素坐标转换为世界坐标,采用最小二乘法将特征点空间坐标拟合成一条直线,经过该直线建立平行于巷道截面的平面,解算双目相机与该平面之间的距离,进而得到掘锚机器人与该平面之间的距离。搭建移动机器人平台进行掘锚机器人行驶位移检测实验,结果表明:改进后的Census变换算法使误匹配率从19.85%降低到11.52%,较传统Census变换算法的误匹配率降低了41.96%;锚杆特征点识别与定位方法能够有效提取锚杆特征点的空间坐标,经过直线拟合得到相机与3个平行截面之间的距离分别为3 010.428,2 215.910,1 415.127 mm。在机器人定位实验中,将真实计算位移与理论位移进行对比,结果表明,真实计算位移曲线与理论位移曲线基本重合,理论位移与计算位移误差不超过20 mm,可实现掘锚机器人的自主、准确、实时位移检测。
    Abstract: The problem of low detection accuracy of driving displacement exists in the driving process of anchor digging robots. In order to solve the above problem, taking the supporting bolt as the positioning benchmark, by analyzing the distance relationship between the anchor digging robot and the supporting bolt, the positioning model of "anchor digging robot-supported anchor" is established. This paper proposes a binocular vision-based displacement detection method for anchor digging robots. Due to the complexity of the underground coal mine environment, the disparity map obtained by using the traditional Census transform algorithm has limitations. By analyzing the binocular vision ranging principle, an improved Census transform algorithm is proposed to obtain the disparity map of the anchor and the depth information of the anchor image. This paper presents a method of anchor feature recognition and positioning, and uses edge detection algorithm to extract the anchor contour in disparity map. The minimum circumscribed rectangle and the maximum circumscribed rectangle algorithm are used to frame the anchor outline and extract the pixel coordinates of anchor feature points. By analyzing coordinate conversion relationships, the pixel coordinates of feature points are converted to world coordinates. By using the least square method, the spatial coordinates of feature points are fitted into a straight line. The plane parallel to the roadway section is established through the straight line. The distance between the binocular camera and the plane is calculated, and then the distance between the anchor digging robot and the plane is obtained. A mobile robot platform is set up to carry out the displacement detection experiment of the anchor digging robot. The results show the following points. The improved Census transform algorithm reduces the mismatch rate from 19.85% to 11.52%, which is 41.96% lower than the traditional Census transform algorithm. The method of anchor feature point recognition and positioning can effectively extract the spatial coordinates of anchor feature points. The distance between the camera and the three parallel sections is 3 010.428, 2 215.910, 1 415.127 mm respectively through straight line fitting. In the robot positioning experiment, the real calculated displacement is compared with the theoretical displacement. The results show that the real calculated displacement curve coincides with the theoretical displacement curve basically. The error between the theoretical displacement and the calculated displacement is less than 20 mm. The autonomous, accurate and real-time displacement detection of the anchor digging robot can be realized.
  • 掘锚机器人是实现综掘工作面掘进与支护作业的集成装备,能够有效提高工人的工作效率。目前在巷道掘进过程中,主要依靠工人的施工经验调整掘锚机器人以完成掘进与钻锚作业,难以保证其定位精度和效率,容易造成工作面严重的超挖、欠挖与锚杆安装偏移等问题[1]。因此,为了实现巷道断面的高质量成型及精准支护,必须保证对掘锚机器人的行驶位移实现精准把控,以提升掘锚机器人系统的安全性、可靠性、自动化和智能化。

    目前常用于井下掘锚机器人的定位方法主要有惯性导航系统、超声定位、全站仪定位、激光雷达定位及超宽带定位等[2]。惯性导航系统能够在短时间内精确检测位姿信息,但在长时间的运行过程中累计误差较大[3];超声定位性价比高,但受距离、温度、光线等因素影响较大[4];全站仪定位速度快,精度高,但需要人工搬运[5];激光雷达体积小,分辨率高,但抗干扰能力差[6];超宽带定位功耗低、抗干扰能力强,但通信距离短[7]。由于煤矿巷道环境复杂,各种机械设备繁多,使用传统定位方法具有局限性。双目视觉定位技术是一种基于双目视差原理计算像素点深度信息的技术,其采用非接触的视觉测量方式,能够有效利用巷道环境中已有特征,从中提取出必要的特征信息,以此解算机器人的位姿信息,能够有效降低定位系统的复杂度,极大地提升掘锚机器人定位系统的自主性[8]。双目视觉定位技术的核心是立体匹配算法,Census变换算法是目前使用最广泛的立体匹配算法[9],但是采用传统Census变换算法得到的视差图具有局限性,为了增强传统Census变换算法的立体匹配性能,本文对Census变换算法进行了改进。文献[10]针对纹理弱和深度不连续区域误匹配的问题,在传统Census变换算法中引入像素差平均值的计算来自动调整匹配窗口的大小,该方法能够有效减少算法的运行时间并降低误匹配率,但对于遮挡区域的大面积视差失真现象仍不能有效地解决。文献[11]针对中心像素点突变问题,在传统Census变换算法中引入自适应中心像素值权重的视差估计,通过计算邻域像素点的平均值,以此来代替中心像素值,该方法减少了因中心像素点突变而发生的误匹配,但在色差变化过大的场景下,邻域像素平均值与中心像素值相差过大,仍然会造成较多误匹配。文献[12]在传统Census变换算法中引入自适应支持权值方法,在计算中心像素的同时,考虑欧氏距离与辐射差异的权重,能够有效保持图像边缘信息,但会将轮廓边缘的黑洞区域填满,呈现错误的物体轮廓。文献[13]在传统Census变换算法中引入多中心点融合监督方法,通过扩大匹配窗口,将1个中心像素点增加到4个像素点,通过相互融合监督的方式排除误匹配点,该方法能够大幅提升匹配率,但是增加了计算量,导致运行时间过长。

    针对掘锚机器人行驶过程中存在位移检测精度低的问题,本文提出了一种基于双目视觉的掘锚机器人行驶位移检测方法。首先,针对煤矿井下复杂环境,对传统Census变换算法中的相似性检测函数进行改进,提高了双目立体匹配的精度;其次,利用图像处理算法识别并提取锚杆特征点,对特征点进行最小二乘法空间直线拟合,在此直线上建立平行于截面的平面;最后建立“掘锚机器人−已支护锚杆”定位模型,进行模拟定位实验并分析定位误差。

    通过在掘锚机器人机身顶部安装双目相机,监测机器人后方巷道顶部的已支护锚杆,分析掘锚机器人、双目相机与已支护锚杆的空间位置关系,建立基于分布式锚杆的双目视觉测距模型,并通过模型计算得出双目相机位置信息,求解掘锚机器人在巷道中相对于锚杆的行驶距离。

    视觉定位原理如图1所示。以双目相机光心为坐标原点,以沿掘锚机器人垂直于侧帮方向、竖直方向和前进方向分别为x轴、y轴和z轴,建立三维坐标系,设D为双目相机与锚杆特征点之间的空间距离,E为双目相机与锚杆所在平行于截面的平面(简称平行截面)之间的垂直距离,通过几何关系解算E,即可得到掘锚机器人相对于已支护锚杆的行驶距离。

    图  1  视觉定位原理
    Figure  1.  Visual positioning principle

    视觉测距系统主要由视觉信息获取模块、误差分析模块和机身运动控制模块组成,如图2所示。视觉信息获取模块对图像进行预处理,提取图像中所需的特征信息,并将其转换为视觉信息。误差分析模块对视觉信息进行分析,将计算得到的位移距离与理论位移距离进行对比,得到机身行驶位移误差。将运动距离误差传入机身运动控制模块,由机身运动控制卡发送误差补偿数据,同时向行驶机构下发控制指令以驱动机身行驶到预计的位置。

    图  2  视觉测距系统结构
    Figure  2.  Structure of vision ranging system

    视觉信息获取模块是视觉测距系统的核心部分,主要步骤如下:

    (1) 相机标定与立体校正。通过双目相机采集锚杆的原始图像,再通过相机标定后得到相机的畸变系数、内外参矩阵等参数,对采集到的图像进行立体校正。

    (2) 双目立体匹配。对校正后的左右视图采用Census变换算法进行匹配代价计算,得到视差图,由此可得到图像中像素点的深度信息。

    (3) 锚杆轮廓特征提取。采用Sobel边缘检测算法对视差图中的锚杆进行轮廓特征提取,突出锚杆轮廓特征。

    (4) 锚杆特征点提取。根据锚杆轮廓特征,采用最小外接矩形与最大外接矩形组合算法(简称组合外接矩形算法)提取锚杆轮廓的边界点,选取锚杆与顶板相接处的边界点为特征点,输出其像素坐标。

    (5) 特征点坐标转换。通过分析锚杆特征点像素坐标与掘锚机器人世界坐标的转换关系,将锚杆特征点像素坐标转换为世界坐标。

    (6) 特征点空间直线拟合。采用最小二乘法将同一排锚杆的特征点世界坐标拟合成一条直线,在该直线上建立平行截面,计算相机与平行截面的距离。

    双目视觉测距原理如图3所示。其中,P为锚杆特征点,OlOr分别为左右相机光心,PlPr分别为P点在左右相机成像平面上的成像点,OCl${\text{-}} $XYlZlOCr${\text{-}} $XYrZr分别为左右相机的图像坐标系。左右相机光心发射2条射线,在同名点处相交,以此确定唯一目标点,通过三角法计算出目标点与相机之间的距离信息[14]

    图  3  双目视觉测距原理
    Figure  3.  Binocular vision ranging principle

    根据掘锚机器人作业需求及锚杆分布特点,建立基于分布式锚杆的双目视觉定位模型,如图4所示。其中Pii=0,1,···,nn为特征点总数)为第i个锚杆特征点,f为相机焦距,B为光心之间的距离(基线),Z为被测特征点与相机光心之间的距离,xlxr分别为特征点在左右相机像素坐标系上的x轴坐标值,两值相减即为该特征点的视差值d

    图  4  双目视觉定位模型
    Figure  4.  Binocular vision positioning model
    $$ d = {x_{\text{l}}} - {x_{\text{r}}} $$ (1)

    根据相似三角原理有

    $$ \frac{{B - d}}{B} = \frac{{Z - f}}{Z} $$ (2)
    $$ Z = \frac{{fB}}{d} $$ (3)

    传统Census变换算法是在一幅图像中以某个像素为中心创建一个3×3矩形窗口,将窗口内邻域与中心像素的灰度值进行比较,若邻域像素灰度值比中心像素灰度值小,则比特串相应位置的值记为1,反之记为0[15]

    $$ \xi \left( {p,q} \right) = \left\{ {\begin{array}{*{20}{c}} {1 \quad p > q} \\ {0\quad p \leqslant q} \end{array}} \right. $$ (4)

    式中:ξ 为结果判定函数;pq分别为窗口中心像素灰度值和其他邻域像素灰度值。

    将判定结果串联,得到Census变换算法的比特串CT

    $$ {C_{\rm{T}}} = \mathop \otimes \limits_{q \in W} \xi \left( {p,q} \right) $$ (5)

    式中:W为中心像素灰度值p的邻域;$ \otimes $为按位连接符。

    窗口中所有像素点经过Census变换算法后,得到相应的比特串,通过汉明距离对2个比特串值进行异或运算,以此作为匹配代价的值。

    $$ A\left( {s,d} \right) = H({C_{{\text{Tl}}}}(s),{C_{{\text{Tr}}}}(s,d)) $$ (6)

    式中:A(s,d)为2个比特串对应位数值不同的数量,即匹配代价值;s为左图像素点;H为汉明距离计算函数;CTls)为左图像素点的比特串;CTrsd)为右图中对应像素点的比特串。

    传统Census变换算法的核心思想是由匹配代价值A(s,d)来判定2个像素点的相似性,A(s,d)的值越小,则2个像素点的相似度越高。

    煤矿井下环境中存在大量重复纹理与深度不连续区域,采用传统Census变换算法的误匹配率高。因此,本文在传统Census变换算法的基础上加入绝对值比较参数,对传统Census变换算法进行改进,使原算法获得更好的匹配窗口判断性,提高匹配精度与视差图效果,以适应煤矿井下的复杂环境。

    将2个待匹配窗口的中心像素点p与其他邻域像素点q的像素值相减并将结果进行串联,再将2组串联结果按位做差并取绝对值。

    $$ {L_{\text{T}}}(p) = \mathop \otimes \limits_{q \in W} (p - q) $$ (7)
    $$ {R_{\text{T}}}(p) = \mathop \otimes \limits_{q \in W} (p - q) $$ (8)
    $$ {W_{\text{T}}} = \left| {{L_{\text{T}}}(p) - {R_{\text{T}}}(p)} \right| $$ (9)

    式中:LTp)为左图窗口经过变换得到的比特串;RTp)为右图窗口经过变换得到的比特串;WT为2组比特串按位做差并取绝对值得到的新比特串。

    再取2组WT中的元素按位进行比较,其值大的元素在相应位上记为1,反之记为0。

    $$ \varphi ({W_{\text{T}}}) = \left\{ {\begin{array}{*{20}{c}} {1\quad {W_{{\text{T}}1}} > {W_{{\text{T}}2}}} \\ {0\quad{W_{{\text{T}}1}} \leqslant {W_{{\text{T}}2}}} \end{array}} \right. $$ (10)

    式中$\varphi$(WT)为WT的相似度比较函数。

    将相似度比较函数$\varphi$(WT)得到的比较结果相加,其值越小则2个窗口的相似度越大,其值越大则2个窗口的相似度越小,取值最小的窗口作为正确的匹配窗口。

    传统Census变换算法和改进Census变换算法对3个高相似度窗口的匹配结果如图5所示。可看出传统算法中,左图窗口与2个右图窗口内的像素信息都存在不同程度的差异,经过传统Census变换算法得到的比特串一致,由汉明距离计算得到相同的匹配代价值,表明左图窗口与2个右图窗口有着相同的相似度,而实际上,左图窗口与右图窗口2的相似度更高,故在匹配过程中容易发生误匹配现象;经过改进Census变换算法对2组窗口进行相似度计算并选择最小值,成功匹配到了相似度更高的窗口。由此可知,改进Census变换算法具有更强的相似度判断性,可以更精确地反映2组窗口的相似程度。

    图  5  Census变换算法改进前后对比
    Figure  5.  Comparison of Census transform algorithm before and after improvement

    为了保证锚杆特征点处在一条水平线上,选取锚杆与巷道顶板的相接点作为特征点,对其进行识别与提取。采用图像处理技术在改进Census变换算法得到的视差图中分割并提取出感兴趣区域(ROI)[16],将ROI作为输入图像进行处理,如图6所示。

    图  6  图像处理流程
    Figure  6.  Image processing flow

    首先将获取的锚杆视差图转为灰度图像,对其进行高斯去噪处理,并采用Sobel算子计算图像梯度,得到图像边缘幅值与角度。然后沿梯度方向进行非极大值抑制,对锚杆轮廓进行边缘细化,经过双阈值边缘连接处理,消除细小的尖刺,修复断开的连接并去除局部小面积的干扰特征,输出较为完整的锚杆轮廓的二值化图像。最后对二值化图像采用组合外接矩形算法提取锚杆特征点,选取最顶部的点作为特征点,并输出其像素坐标,实现锚杆特征点提取的目标。

    经过图像处理后得到锚杆特征点的像素坐标值,采用坐标转换原理将像素坐标值转换为世界坐标值,转换关系如图7所示。其中,OW${\text{-}} $XWYWZW为世界坐标系,OC${\text{-}} $XCYCZC为相机坐标系,oxy为图像坐标系,uv为像素坐标系,像素坐标系是以像素为单位,其余坐标系均以毫米为单位。Q点为世界坐标系中的任意一点,其在世界坐标系下的坐标为Q(xWyWzW),在相机坐标系下的坐标为Q(xCyCzC),G点为Q点在图像中的成像点,在图像坐标系中的坐标为(xy),在像素坐标系中的坐标为(u0v0)。

    图  7  坐标系转换关系
    Figure  7.  Coordinate system conversion relationship

    从世界坐标系到相机坐标系的转换涉及到旋转和平移,绕着不同的坐标轴旋转不同的角度,得到相应的矩阵。Q点在相机坐标系中的坐标为

    $$ \left[ {\begin{array}{*{20}{c}} {{x_{\rm{C}}}} \\ {{y_{\rm{C}}}} \\ {{{\textit{z}}_{\rm{C}}}} \\ 1 \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {\boldsymbol{S}}&{\boldsymbol{T}} \\ { 0}&1 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{x_{\rm{W}}}} \\ {{y_{\rm{W}}}} \\ {{{\textit{z}}_{\rm{W}}}} \\ 1 \end{array}} \right] $$ (11)

    式中:S为机身坐标系与世界坐标系间的旋转矩阵;T为相机坐标系与世界坐标系间的平移向量。

    结合双目视差原理和坐标系转换关系,即可求得图像中像素点对应的世界坐标值。从相机坐标系到图像坐标系的转换属于透视投影关系,由相似三角形原理可得

    $$ \left\{ {\begin{array}{*{20}{c}} {x = f\dfrac{{{x_{\text{C}}}}}{{{{\textit{z}}_{\text{C}}}}}} \\ {y = f\dfrac{{{y_{\text{C}}}}}{{{{\textit{z}}_{\text{C}}}}}} \end{array}} \right. $$ (12)

    图像坐标系到像素坐标系的转换关系为

    $$ \left[ {\begin{array}{*{20}{c}} u \\ v \\ 1 \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {\dfrac{1}{{{\text{d}}x}}}&0&{{u_0}} \\ 0&{\dfrac{1}{{{\text{d}}y}}}&{{v_0}} \\ 0&0&1 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} x \\ y \\ 1 \end{array}} \right] $$ (13)

    像素坐标系到世界坐标系的转换关系为

    $$\begin{split} & Z\left[ {\begin{array}{*{20}{c}} u \\ v \\ 1 \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {\dfrac{1}{{{\text{d}}x}}}&0&{{u_0}} \\ 0&{\dfrac{1}{{{\text{d}}y}}}&{{v_0}} \\ 0&0&1 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} f&0&0&0 \\ 0&f&0&0 \\ 0&0&1&0 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {\boldsymbol{S}}&{\boldsymbol{T}} \\ { 0}&1 \end{array}} \right]\\&\quad \left[ {\begin{array}{*{20}{c}} {{x_{\text{W}}}} \\ {{y_{\text{W}}}} \\ {{{\textit{z}}_{\text{W}}}} \\ 1 \end{array}} \right]= \left[ {\begin{array}{*{20}{c}} {{f_x}}&0&{{u_0}}&0 \\ 0&{f{}_y}&{{v_0}}&0 \\ 0&0&1&0 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {\boldsymbol{S}}&{\boldsymbol{T}} \\ { 0}&1 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{x_{\text{W}}}} \\ {{y_{\text{W}}}} \\ {{{\textit{z}}_{\text{W}}}} \\ 1 \end{array}} \right] \end{split}$$ (14)

    式中$ \left[ {\begin{array}{*{20}{c}} {{f_x}}&0&{{u_0}}&0 \\ 0&{{f_y}}&{{v_0}}&0 \\ 0&0&1&0 \end{array}} \right] $$\left[ {\begin{array}{*{20}{c}} {\boldsymbol{S}}&{\boldsymbol{T}} \\ { 0}& 1 \end{array}} \right]$分别为相机的内部参数与外部参数。

    根据掘锚机器人定位原理,需将同一排锚杆特征点拟合成平行于截面的直线。由于受到锚杆安装误差及计算误差影响,在同一排锚杆中,各个特征点与相机间的距离各不相同,故采用最小二乘法对同一排锚杆特征点进行空间直线拟合[17]。因为特征点空间坐标的y值只影响拟合直线的上下位置,与前后位置无关,故在直线拟合时只需考虑x值与z值。

    $$ K_\varepsilon ^2 = \sum\limits_{i = 1}^n {{{({{\textit{z}}_i} - {\textit{z}})}^2} = } \sum\limits_{i = 1}^n {{{({{\textit{z}}_i} - (a{x_i} + b))}^2}} $$ (15)
    $$\left\{\begin{array}{l} a=\dfrac{{n }\displaystyle\sum \left( x_i {\textit{z}}_i\right)- \displaystyle\sum x_i \displaystyle\sum {\textit{z}}_i }{{n } \displaystyle\sum x_i^2 -\left(\displaystyle\sum x_i\right)^2} \\ b=\dfrac{ \displaystyle\sum x_i^2 \displaystyle\sum {\textit{z}}_i - \displaystyle\sum x_i \displaystyle\sum \left( x_i {\textit{z}}_i\right)}{{n }\displaystyle\sum x_i^2 -\left(\displaystyle\sum x_i\right)^2} \end{array}\right. $$ (16)

    式中:Kε为真实值与预测值误差;(xizi)为已知坐标点;zzi的拟合值;a为直线斜率;by轴截距。

    因为要求拟合出的空间直线在平行截面中,故该直线必须平行于x轴,即令a=0,可得

    $$\left\{ \begin{array}{l} \begin{split}& {t}_{1}={\displaystyle \sum {x}_{i}}\text{,}{t}_{2}={\displaystyle \sum {{\textit{z}}}_{i}}\\& {t}_{3}={\displaystyle \sum {x}_{i}{{\textit{z}}}_{i},{t}_{4}={\displaystyle \sum {x}_{i}^{2}}}\\& a=0,b=\dfrac{{t}_{4} {t}_{3}-{t}_{1} {t}_{3}}{n {t}_{4}-{t}_{1}^{2}} \end{split} \end{array} \right.$$ (17)

    由此可根据坐标点得到拟合直线所在平面xoz上的垂直投影。

    $$ l= {\textit{z}} $$ (18)

    式中l为相机与平行截面之间的垂直距离。

    经过直线方程构建平行截面,建立“掘锚机器人−已支护锚杆”定位模型,如图8所示。其中α,β,χ分别为锚杆特征点拟合直线所建立的平行截面,l1l2l3分别为相机光心与平行截面之间的垂直距离。将li作为相机与平行截面之间的距离信息,来计算掘锚机器人的行驶位移。

    图  8  “掘锚机器人−已支护锚杆”定位模型
    Figure  8.  Positioning model of “anchor digging robot-supported bolt”

    为了验证掘锚机器人定位方法的可行性,搭建移动机器人平台进行行驶位移检测实验。位移检测系统由双目相机、锚杆、计算机及履带式移动机器人组成,其实验平台如图9所示。将锚杆并排放置在地面上,代替安装在巷道顶部的锚杆;将双目相机置于距离锚杆1 m处进行拍摄,在实验过程中,保持相机水平向前移动,以模拟掘锚机器人在巷道中的行驶状态。

    图  9  位移检测系统实验平台
    Figure  9.  Experiment platform of displacement detection system

    以掘锚机器人为研究对象,相机光心为坐标系原点,建立世界坐标系。其中以垂直于侧帮方向为x轴,垂直于顶板方向为y轴,掘锚机器人前进方向为z轴。实验场地如图10所示,设锚杆排距I=800 mm,每排锚杆的分布距离M=2 000 mm,相机距第3排锚杆的距离N=1 400 mm。由于双目相机的有效测距范围为4 000 mm,故仅取距相机最近的前3排锚杆进行测量。通过对测量值与理论模型计算值进行误差分析,从而实现实验平台的视觉测距、移动控制和轨迹跟踪。

    图  10  实验场地
    Figure  10.  Sketch map of experimental filed

    为了获取准确的锚杆图像,在定位系统实验平台采用Matlab双目相机工具箱进行相机标定与立体校正,校正前后结果如图11所示。

    图  11  校正前后结果
    Figure  11.  Results before and after correction

    使用双目相机采集一排锚杆图像,提取其ROI图形,分别采用改进前后Census变换算法对ROI图形进行视差图处理,如图12所示。可看出改进后Census变换算法改善了锚杆边缘的失真区域,得到了较明显的锚杆轮廓特征及更准确的深度信息。

    图  12  改进前后视差图效果对比
    Figure  12.  Effect comparison of disparity before and after improvement

    算法性能对比结果见表1。可看出改进Census变换算法的匹配精度显著提升,比传统Census变换算法误匹配率降低了41.96%,但是由于计算过程较为复杂,导致运行时间也有一定的增加。

    表  1  算法性能对比
    Table  1.  Comparison of algorithm performance
    算法误匹配率/%运行时间/s
    传统Census变换算法19.854.21
    改进Census变换算法11.525.63
    下载: 导出CSV 
    | 显示表格

    为验证不同视差初始值对算法性能的影响,取初始视差值为[−13,7]对算法性能进行验证,对比结果如图13所示。可看出当视差范围缩小时,误匹配率及运行时间均有所降低。因此,在保留完整锚杆图像的情况下,可设定较大的视差初始值,以降低误匹配率并减少运行时间。

    图  13  不同视差初始值下的性能对比
    Figure  13.  Performance comparison under different parallax initial values

    (1) 锚杆特征点提取与坐标转换。对校正后的锚杆图像进行特征点坐标提取,由于锚杆放置在地面上,故以锚杆底部的端点为特征点,对其进行提取。首先采用改进后的Census变换算法对相机原图进行处理,得到锚杆图像的视差图,然后对视差图进行Sobel算子轮廓检测提取锚杆轮廓,最后采用组合外接矩形算法对锚杆轮廓进行处理并将锚杆特征点用蓝色圆点标记出来,锚杆特征点提取结果如图14所示。

    图  14  特征点提取结果
    Figure  14.  Extraction results of anchor feature points

    将提取出的特征点像素坐标转换为世界坐标,坐标转换结果见表2

    表  2  特征点坐标转换结果
    Table  2.  Coordinate conversion results of feature points
    排数编号特征点像素

    坐标/pixel
    特征点世界
    坐标/mm

    1
    排锚杆
    1(213,345)(−1012.970,1005.375,
    3012.562)
    2(265,348)(−514.383,1009.098,
    3008.901)
    3(313,345)(−8.745,1008.787,
    3006.125)
    4(369,351)(479.382,1003.812,
    3009.351)
    5(425,355)(996.156,1011.176,
    3015.203)

    2
    排锚杆
    6(157,391)(−1008.506,1013.185,
    2214.812)
    7(237,324)(−513.062,1024.289,
    2207.625)
    8(317,330)(−15.085,1037.623,
    2218.191)
    9(293,325)(483.410,1025.478,
    2215.165)
    10(472,329)(979.406,1013.367,
    2223.757)

    3
    排锚杆
    11(143,428)(−1015.214,1031.156,
    1410.816)
    12(247,420)(−521.467,1013.049,
    1415.250)
    13(359,414)(−12.891,1016.475,
    1417.441)
    14(462,413)(507.231,1023.125,
    1417.541)
    15(575,413)(1051.398,1006.156,
    1414.587)
    下载: 导出CSV 
    | 显示表格

    (2) 特征点直线拟合。由于同一排锚杆特征点位置在z轴上存在偏差,所以无法确定相机与这排锚杆之间的距离,因此,根据特征点直线拟合原理,将特征点拟合成平行于x轴的直线,拟合结果如图15所示。可看出经过直线拟合后,消除了不同特征点间的位置误差,得到了与特征点位置紧密关联的直线。

    图  15  特征点拟合直线结果
    Figure  15.  Straight line fitting results of feature points

    (3) 特征点平行截面建立。经过特征点拟合直线建立平行截面,如图16所示。可看出相机与3个平行截面之间的距离分别为3 010.428,2 215.910,1 415.127 mm。

    图  16  特征点平行截面
    Figure  16.  Parallel section of feature points

    在机器人移动过程中,通过计算得到相机与平行截面之间的距离,根据锚杆在模拟巷道中的安装位置,即可得到移动机器人在世界坐标系下的行驶位移。

    在实验场地上放置10排锚杆,排距为800 mm,移动机器人起始位置在距第1排锚杆800 mm处,控制移动机器人沿着z轴方向前进8 000 mm,前进速度为0.25 m/s,双目相机采集锚杆图像频率为5 Hz。以第1排锚杆为定位基准,控制机器人沿z轴前进,依次拍摄锚杆图像,计算相机与锚杆平行截面的距离,以此求解机器人行驶的位移。

    在进行机器人定位实验时,将计算位移与理论位移进行对比,如图17所示。可看出移动机器人在整个定位实验过程中,理论位移曲线与计算位移曲线基本重合。

    图  17  运动轨迹对比曲线
    Figure  17.  Comparison curve of motion track

    通过对比相机的理论位移与计算位移得到两者的误差分布,如图18所示。可看出理论位移与计算位移误差不超过20 mm,能够保证掘锚机器人的定位精度,可实现掘锚机器人的自主、准确、实时位移检测。

    图  18  运动轨迹误差分布
    Figure  18.  Error distribution of motion track

    针对掘锚机器人行驶过程中存在位移检测精度低的问题,提出了一种基于双目视觉的掘锚机器人行驶位移检测方法。该方法以已支护锚杆为定位基准,利用双目视觉检测掘锚机器人的行驶位移,解决了掘锚机器人在井下行驶无参考目标的问题,提高了双目视觉在煤矿井下环境中的适应性与定位精度,实现了掘锚机器人行驶位移的精确检测,为掘锚机器人的定位提供了有效解决方案。

    (1) 改进后的Census变换算法修复了锚杆图像的失真区域,能够得到效果较好的视差图,并使误匹配率从19.85%降低到11.52%,较传统Census变换算法的误匹配率降低了41.96%。

    (2) 当视差范围缩小时,误匹配率及运行时间均有所降低。因此,在保留完整锚杆图像的情况下,可设定较大的视差初始值,以降低误匹配率并减少运行时间。

    (3) 经过直线拟合后,消除了不同特征点间的位置误差,得到了与特征点位置紧密关联的直线。在拟合直线上建立平行截面,得到相机与3个平行截面的距离分别为3 010.428,2 215.910,1 415.127 mm。

    (4) 由模拟实验可知,理论位移曲线与计算位移曲线基本重合,理论位移与计算位移误差不超过20 mm。说明基于双目视觉的掘锚机器人行驶位移检测方法能够保证掘锚机器人的定位精度,可实现掘锚机器人的自主、准确、实时位移检测。

    【编者按】实现煤矿智能化,煤矿智能装备是基础。煤矿机器人是煤矿智能装备的典型代表,是煤矿智能化系统的重要成员。随着我国煤矿智能化建设步伐的不断加快,用机器人替人的呼声越来越高,对煤矿机器人的需求越来越大,有力地推动着煤矿机器人研发的不断深入。多年来,我国煤炭科技工作者立足学科发展前沿,致力于煤矿机器人技术攻关,突破了一系列关键技术难题,构建了先进的技术体系。为了进一步提升我国煤矿机器人研发水平,加强学术交流,《工矿自动化》编辑部特邀西安科技大学马宏伟教授担任客座主编,西安科技大学毛清华教授、薛旭升讲师担任客座副主编,2022年12期策划出版“煤矿机器人关键技术”专题。在专题出刊之际,衷心感谢各位专家学者的大力支持。
  • 图  1   视觉定位原理

    Figure  1.   Visual positioning principle

    图  2   视觉测距系统结构

    Figure  2.   Structure of vision ranging system

    图  3   双目视觉测距原理

    Figure  3.   Binocular vision ranging principle

    图  4   双目视觉定位模型

    Figure  4.   Binocular vision positioning model

    图  5   Census变换算法改进前后对比

    Figure  5.   Comparison of Census transform algorithm before and after improvement

    图  6   图像处理流程

    Figure  6.   Image processing flow

    图  7   坐标系转换关系

    Figure  7.   Coordinate system conversion relationship

    图  8   “掘锚机器人−已支护锚杆”定位模型

    Figure  8.   Positioning model of “anchor digging robot-supported bolt”

    图  9   位移检测系统实验平台

    Figure  9.   Experiment platform of displacement detection system

    图  10   实验场地

    Figure  10.   Sketch map of experimental filed

    图  11   校正前后结果

    Figure  11.   Results before and after correction

    图  12   改进前后视差图效果对比

    Figure  12.   Effect comparison of disparity before and after improvement

    图  13   不同视差初始值下的性能对比

    Figure  13.   Performance comparison under different parallax initial values

    图  14   特征点提取结果

    Figure  14.   Extraction results of anchor feature points

    图  15   特征点拟合直线结果

    Figure  15.   Straight line fitting results of feature points

    图  16   特征点平行截面

    Figure  16.   Parallel section of feature points

    图  17   运动轨迹对比曲线

    Figure  17.   Comparison curve of motion track

    图  18   运动轨迹误差分布

    Figure  18.   Error distribution of motion track

    表  1   算法性能对比

    Table  1   Comparison of algorithm performance

    算法误匹配率/%运行时间/s
    传统Census变换算法19.854.21
    改进Census变换算法11.525.63
    下载: 导出CSV

    表  2   特征点坐标转换结果

    Table  2   Coordinate conversion results of feature points

    排数编号特征点像素

    坐标/pixel
    特征点世界
    坐标/mm

    1
    排锚杆
    1(213,345)(−1012.970,1005.375,
    3012.562)
    2(265,348)(−514.383,1009.098,
    3008.901)
    3(313,345)(−8.745,1008.787,
    3006.125)
    4(369,351)(479.382,1003.812,
    3009.351)
    5(425,355)(996.156,1011.176,
    3015.203)

    2
    排锚杆
    6(157,391)(−1008.506,1013.185,
    2214.812)
    7(237,324)(−513.062,1024.289,
    2207.625)
    8(317,330)(−15.085,1037.623,
    2218.191)
    9(293,325)(483.410,1025.478,
    2215.165)
    10(472,329)(979.406,1013.367,
    2223.757)

    3
    排锚杆
    11(143,428)(−1015.214,1031.156,
    1410.816)
    12(247,420)(−521.467,1013.049,
    1415.250)
    13(359,414)(−12.891,1016.475,
    1417.441)
    14(462,413)(507.231,1023.125,
    1417.541)
    15(575,413)(1051.398,1006.156,
    1414.587)
    下载: 导出CSV
  • [1] 马宏伟,王鹏,张旭辉,等. 煤矿巷道智能掘进机器人系统关键技术研究[J]. 西安科技大学学报,2020,40(5):751-759.

    MA Hongwei,WANG Peng,ZHANG Xuhui,et al. Research on key technologies of intelligent tunneling robot system for coal mine[J]. Journal of Xi'an University of Science and Technology,2020,40(5):751-759.

    [2] 张羽飞,马宏伟,毛清华,等. 视觉与惯导融合的煤矿移动机器人定位方法[J]. 工矿自动化,2021,47(3):46-52.

    ZHANG Yufei,MA Hongwei,MAO Qinghua,et al. Coal mine mobile robot positioning method based on fusion of vision and inertial navigation[J]. Industry and Mine Automation,2021,47(3):46-52.

    [3] 马宏伟,杨金科,毛清华,等. 煤矿护盾式掘进机器人系统精确定位研究[J]. 工矿自动化,2022,48(3):63-70.

    MA Hongwei,YANG Jinke,MAO Qinghua,et al. Research on precise positioning of shield roadheader robot system in coal mine[J]. Journal of Mine Automation,2022,48(3):63-70.

    [4] 王媛媛,马宏伟,张广明,等. 基于光纤布拉格光栅的超声无损检测系统研究[J]. 现代电子技术,2022,45(9):143-146.

    WANG Yuanyuan,MA Hongwei,ZHANG Guangming,et al. Research on ultrasonic nondestructive testing system based on fiber Bragg grating[J]. Modern Electronics Technique,2022,45(9):143-146.

    [5] 马宏伟,毛金根,毛清华,等. 基于惯导/全站仪组合的掘进机自主定位定向方法[J]. 煤炭科学技术,2022,50(8):189-195.

    MA Hongwei,MAO Jingen,MAO Qinghua,et al. Autonomous positioning and orientation method of roadheader based on combinaiton of INS and digital total station[J]. Coal Science and Technology,2022,50(8):189-195.

    [6] 马宏伟,姚阳,薛旭升,等. 基于多传感器组合的钻锚机器人机身定位方法研究[J]. 煤炭科学技术,2021,49(1):278-285.

    MA Hongwei,YAO Yang,XUE Xusheng,et al. Research on body positioning method of drilll-anchor robot based on multi-sensor combination[J]. Coal Science and Technology,2021,49(1):278-285.

    [7] 陈美蓉,王凯,张嘉纯,等. 煤矿井下超宽带定位混合解算方法[J]. 工矿自动化,2021,47(3):53-59.

    CHEN Meirong,WANG Kai,ZHANG Jiachun,et al. Hybrid solution method for ultra-wideb and positioning in coal mines[J]. Industry and Mine Automation,2021,47(3):53-59.

    [8] 薛旭升,张旭辉,毛清华,等. 基于双目视觉的掘进机器人定位定向方法研究[J]. 西安科技大学学报,2020,40(5):781-789.

    XUE Xusheng,ZHANG Xuhui,MAO Qinghua,et al. Localization and orientation method of road header robot based on binocular vision[J]. Journal of Xi'an University of Science and Technology,2020,40(5):781-789.

    [9] 顾梦娇,朱宇锋,郭迎庆,等. 基于半全局立体匹配算法的改进研究[J]. 电子测量技术,2020,43(19):89-93.

    GU Mengjiao,ZHU Yufeng,GUO Yingqing,et al. Improvement research based on semi-global stereo matching algorithm[J]. Electronic Measurement Technology,2020,43(19):89-93.

    [10] 黄超,赵华治. 根据灰度值信息自适应窗口的半全局匹配[J]. 中国图象图形学报,2019,24(8):1381-1390.

    HUANG Chao,ZHAO Huazhi. Semi-global stereo matching with adaptive window based on grayscale value[J]. Journal of Image and Graphics,2019,24(8):1381-1390.

    [11]

    CHANG Y C,TSAI T H,HSU B H,et al. Algroithm and architecture of disparity estimation with mini-census adaptive support weight[J]. IEEE Transactions on Circuits and Systems for Video Technology,2010,20(6):792-805. DOI: 10.1109/TCSVT.2010.2045814

    [12]

    YOON K J,KWEON I S. Adaptive support-weight approach for correspondence search[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2006,28(4):650-656. DOI: 10.1109/TPAMI.2006.70

    [13] 李大华,沈洪宇,于晓,等. 一种改进Census变换的双目匹配测距方法[J]. 激光与光电子学进展,2019,56(11):197-202.

    LI Dahua,SHEN Hongyu,YU Xiao,et al. Binocular ranging method using stereo matching based on improved Census transform[J]. Laser & Optoelectronics Proress,2019,56(11):197-202.

    [14] 王浩,张善房,朱建高,等. 基于双目视觉的测距系统研究[J]. 家电科技,2022(4):92-95. DOI: 10.19784/j.cnki.issn1672-0172.2022.04.016

    WANG Hao,ZHANG Shanfang,ZHU Jiangao,et al. Research on ranging system based on binocular vision[J]. Journal of Appliance Science & Technology,2022(4):92-95. DOI: 10.19784/j.cnki.issn1672-0172.2022.04.016

    [15] 虞文杰,叶嵩,郭毓,等. 基于改进Census变换与多特征融合的立体匹配算法[J]. 激光与光电子学进展,2022,59(8):157-163.

    YU Wenjie,YE Song,GUO Yu,et al. Stereo matching algorithm based on improved Census transform and multi-feature fusion[J]. Laser & Optoelectronics Progress,2022,59(8):157-163.

    [16] 杨文娟,张旭辉,张超,等. 基于三激光束标靶的煤矿井下长距离视觉定位方法[J]. 煤炭学报,2022,47(2):986-1001. DOI: 10.13225/j.cnki.jccs.xr21.1762

    YANG Wenjuan,ZHANG Xuhui,ZHANG Chao,et al. Long distance vision localization method based on triple laser beams target in coal mine[J]. Journal of China Coal Society,2022,47(2):986-1001. DOI: 10.13225/j.cnki.jccs.xr21.1762

    [17] 谢孟辛,张捍卫,李鹏杰,等. 基于整体最小二乘原理的GPS轨道坐标拟合[J]. 导航定位学报,2021,9(4):11-18. DOI: 10.16547/j.cnki.10-1096.20210402

    XIE Mengxin,ZHANG Hanwei,LI Pengjie,et al. GPS orbit coordinate fitting method based on total least squares[J]. Journal of Navigation and Positioning,2021,9(4):11-18. DOI: 10.16547/j.cnki.10-1096.20210402

  • 期刊类型引用(1)

    1. 马宏伟,苏浩,薛旭升,李超,郭逸风,王星,周文剑,崔闻达,喻祖坤,成佳帅. 煤矿井下移动机器人激光标靶定位方法研究. 煤炭科学技术. 2024(11): 60-73 . 百度学术

    其他类型引用(3)

图(18)  /  表(2)
计量
  • 文章访问数:  790
  • HTML全文浏览量:  59
  • PDF下载量:  55
  • 被引次数: 4
出版历程
  • 收稿日期:  2022-10-19
  • 修回日期:  2022-12-04
  • 网络出版日期:  2022-11-30
  • 刊出日期:  2022-12-26

目录

/

返回文章
返回