基于視覺的工件定位與抓取

基于視覺的工件定位與抓取

ID:23519030

大?。?.43 MB

頁數(shù):79頁

時間:2018-11-08

基于視覺的工件定位與抓取_第頁
預覽圖正在加載中,預計需要20秒,請耐心等待
資源描述:

《基于視覺的工件定位與抓取》由會員上傳分享,免費在線閱讀,更多相關內(nèi)容在學術論文-天天文庫

1、西南科技大學研究生學位論文基于視覺的工件定位與抓取年級2015級姓名楊厚易申請學位級別碩士專業(yè)控制科學與工程指導教師張華ClassifiedIndex:TP242.6U.D.C:621.3SouthwestUniversityofScienceandTechnologyMasterDegreeThesisObjectrecognitionandgrabbingbasedonvisionGrade:2015Candidate:YangHouyiAcademicDegreeAppliedfor:MasterSpeciality:ControlScienceandEngine

2、eringSupervisor:Prof.ZhangHuaMarch13th,2018西南科技大學碩士研究生學位論文第II頁摘要自動抓取是工業(yè)機器人生產(chǎn)作業(yè)中的基本任務,傳統(tǒng)的實現(xiàn)方式一般采用離線示教預先先設定機器人的運動軌跡,嚴重依賴于機器人工作環(huán)境的結構化程度與抓取任務的可重復性,無法適用于現(xiàn)代柔性制造中的多規(guī)格產(chǎn)品的動態(tài)生產(chǎn)工藝。本課題立足于現(xiàn)代智能制造對機器人自動抓取的任務需求,針對機器人對作業(yè)目標感知信息不足的問題,重點研究了基于視覺的工件定位與抓取方法,以提升機器人對非結構化作業(yè)任務的適應性,滿足自動檢測和抓取不同目標物體的作業(yè)需求。本文首先深入分析了機器人

3、視覺引導系統(tǒng)的典型結構及其任務適用性,利用Kinova六自由度機器人與Kinect深度相機,構建了一套位置型Eye-To-Hand結構的機器人自主抓取的硬件實驗系統(tǒng)。然后對Tsai-Lenz手眼標定算法進行了研究,完成了對本課題中搭建的機器人自主抓取硬件系統(tǒng)的手眼標定,并以可視化的方式展示了手眼標定的結果,手眼標定的平均位置誤差為4.398mm,最大位置誤差為8.048mm,平均角度誤差為1.322°,最大角度誤差為2.227°。其次為了提高Kinect對場景的感知質(zhì)量,針對Kinect拍攝的深度圖中所存在的空洞噪聲,本文提出了一種基于引導采樣的深度圖修補算法,與MC-

4、UE算法相比有更低的圖像均方誤差,使得Kinect所獲得的深度圖更加接近現(xiàn)實場景。隨后,研究了Drost-PPF算法及其實現(xiàn)方法,實現(xiàn)作業(yè)目標的動態(tài)識別與位姿估計,并針對Drost-PPF算法離散化過程中導致的精度損失問題,引入了ICP算法來對Drost-PPF算法的結果進行后處理,利用ICP算法對位姿估計結果進行校正。ICP校正過后,模型與場景目標相關點之間的累積誤差僅為6mm。最后,在本文構建的機器人自主抓取平臺上進行了大量的抓取實驗,驗證了了本文構建的視覺抓取系統(tǒng)及相關算法,可有效勝任厘米級別的多規(guī)格目標的自主抓取任務。本課題的研究工作對豐富機器人手眼協(xié)調(diào)與自主抓

5、取相關技術有一定的理論意義,同時具有一定的工程應用價值。關鍵詞:視覺引導手眼標定空洞噪聲位姿估計目標抓取西南科技大學碩士研究生學位論文第III頁AbstractAutomaticcaptureisoneofthebasictasksofindustrialrobotsintheproductionoperation,thegeneralimplementationusingthetraditionaloff-lineteachingtrajectoryinadvancetosettherobot,repeatabilityofthestructureddegreeand

6、grasptaskdependsheavilyontheworkenvironmentoftherobot,thedynamicprocessisnotsuitableformodernflexiblemanufacturingofproductswithdifferentspecifications.Thispaperisbasedonthemodernintelligentmanufacturingofrobotautomaticcapturetaskrequirements,forlackofrobotjobtargetperceptioninformation,

7、focusingontheworkpiecepositioningandvisualcapturemethodbasedonrobottoimprovetheunstructuredtaskadaptability,automaticdetectionandmeettheoperationrequirementofgraspingdifferentobjects.Thispaperfirstanalyzesthetypicalstructureandtaskapplicabilityofrobotvisionguidancesystem,

當前文檔最多預覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當前文檔最多預覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學公式或PPT動畫的文件,查看預覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權歸屬用戶,天天文庫負責整理代發(fā)布。如果您對本文檔版權有爭議請及時聯(lián)系客服。
3. 下載前請仔細閱讀文檔內(nèi)容,確認文檔內(nèi)容符合您的需求后進行下載,若出現(xiàn)內(nèi)容與標題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡波動等原因無法下載或下載錯誤,付費完成后未能成功下載的用戶請聯(lián)系客服處理。