焊接机器人(1)为了验证本文算法的有效性,本文在Intel Core i5 CPU、2.8GHz主频、4G内存、Windows 2007操作系统平台下,利用Matlab R2010a软件进行了仿真实验。采用http://vision.middlebury.edulstere。网站所提供的Tsukuba图片进行立体匹配算法的测试。
如图4.3所示,仿真实验中以Tsukuba左图像为参考图像,Tsukuba右图像为匹配图像。利用角点匹配算法提取初始视差,将视差的搜索区间设置为[0,15],并且进行了双目视差校准,最后将仿真实验得到的匹配视差图与该网站提供的标准视差图进行对比,如图4.4所示。可以看出利用本文的算法可以得到稠密的视差图,而且在视差边界清晰。表4.1为Middlebury所得出的评估结果。
其中,nocc表示图像无遮挡区域错误百分比,a.11表示图像中所有区域总的错误百分比,disc表示图像中视差不连续的区域错误百分比。同时为了对比本文算法,表中还给出了其它一些立体匹配算法的错误率。可以看出本文算法在无遮挡区域的误差率较低,而在视差不连续的区域匹配的误差率还是较高,但总体的匹配误差率还是较低。
综上所述,本文采用的基于自适应窗口的多信息立体匹配算法的匹配精度较高,多次实验鲁棒性较好。
(2)为了测试本文算法对实际焊缝立体匹配的有效性,给出的实验仿真的工件图像如图4.5所示(注明:图4.5是对摄像机获取的图像进行高斯平滑处理,同时对边缘点坐标进行了约束,去除了图像四周的轮廓边缘点,留下待匹配的焊缝边缘点)。
实验中左右图像尺寸为293 x 445像素,自适应窗口的边界闽值设置为15 x 15取a=1.2,b=1.0, y=-2,边缘像素点坐标约束范围:40
为了便于比较,同时采用了文献的SIFT立体匹配算法、文献的SURF立体匹配算法进行了实验,三种算法匹配图片如图4.6, 4.7, 4.8所示,三种算法的匹配效果和性能的统计结果见表4.2。
焊接机器人由表1匹配性能的统计结果可以看出,基于文献的SIFT立体匹配算法的匹配点数最多,误匹配点数最高,匹配时间最长,匹配率较好。基于文献的SURF立体匹配算法的匹配点数最少,误匹配点数较低,但是匹配率较差。采用本文的基于自适应窗口的多信息立体匹配方法与上述两种方法比较,有效提高了匹配率,匹配时间较短,误匹配点数低,匹配点数较低。因此,本文的方法能有效提高匹配率,同时匹配时效性较好。