資源描述:
《基于均勻特征匹配的無人機影像拼接.pdf》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在行業(yè)資料-天天文庫。
1、第29卷第4期北京建筑工程學(xué)院學(xué)報V01.29NO.42013年12月JournalofBeijingUniversityofCivilEngineeringandArchitectureDee.2013文章編號:1004—6011(2013)04—0047—05基于均勻特征匹配的無人機影像拼接馬超,趙西安,王青松(北京建筑大學(xué)測繪與城市空間信息學(xué)院,北京100044)摘要:通過特征匹配的方法進行無人機影像拼接,不需要地面控制點坐標(biāo)和內(nèi)外方位元素.基于SIFT算法進行特征匹配,對于匹配中容易出現(xiàn)的誤匹配點,
2、通過合理控制算法中的閾值大小并采用唯一性約束和視差約束來進行剔除,采用分塊控制匹配點數(shù)目來剔除密集匹配點對,使匹配點對分布均勻.使用RANSAC算法來計算影像之間的轉(zhuǎn)換模型,實驗證明這種方法具有很好的拼接效果.關(guān)鍵詞:影像拼接;均勻匹配;RANSAC算法中圖分類號:P231.5文獻標(biāo)志碼:AUAVImageMosaicBasedonUniformFeaturesMatchingMaChao,ZhaoXi’an,WangQingsong(SchoolofGeomaticsandUrbanInformation
3、,BeijingUniversityofCivilEngineeringandArchitecture,Beijing100044)Abstract:Anewapproachformosaicingimagesinunmannedaerialvehicle(UAV)isproposedinthepaper.Firstly,theimagefeaturesareextractedbythemulti—scalealgorithm,whichisaSIFTimproved.Basedontheuniquenes
4、sconstraintandparallaxconstraint,theimagesarematched.Thedensematchedpoint—pairsareprocesseduniformlyusingthepartitioningimages.Secondly,thetransformationmodelbetweenimagesisbuiltintheRANSAC.TheexperimentresultsshowthattheapproachiseffectivefortheUAVimagemo
5、saic.Keywords:imagemosaic;uniform—matching;RANSACalgorithm無人機遙感系統(tǒng)具有運行簡單、運行成本低、反需要生成DEM,操作比較復(fù)雜,耗時較長.應(yīng)迅速、能夠獲得高分辨率影像等優(yōu)點,被廣泛應(yīng)用2)根據(jù)相鄰影像的重疊區(qū)域進行影像匹配,根于環(huán)境監(jiān)測、災(zāi)害監(jiān)測、災(zāi)后應(yīng)急響應(yīng)等領(lǐng)域.單張據(jù)匹配結(jié)果求解相鄰影像的空間關(guān)系,采用一種投影無人機影像覆蓋的范圍較小,為了了解整個測區(qū)的變換將所有影像投影到統(tǒng)一的坐標(biāo)系下進行拼接.情況必須要對無人機影像進行快速拼接.影像拼接本
6、文采用特征匹配的方法進行拼接,首先用主要有兩種方法¨:SIFT算法獲取相鄰影像間的均勻同名點對,然后1)生成正射影像,直接將單張影像投影到地面根據(jù)相鄰影像間的同名點對計算相鄰影像間的轉(zhuǎn)換坐標(biāo),然后在統(tǒng)一的地面坐標(biāo)下進行拼接.此種方關(guān)系,最后根據(jù)轉(zhuǎn)換關(guān)系把待拼接影像轉(zhuǎn)換到目標(biāo)法生成正射影像需要獲取影像的內(nèi)外方位元素、并影像的參考坐標(biāo)下.收稿日期:2013—11—29作者簡介:馬超(1989一),男,碩士研究生,研究方向:數(shù)字?jǐn)z影測量與遙感48北京建筑工程學(xué)院學(xué)報1自適應(yīng)多尺度匹配2單應(yīng)矩陣計算1.1SIFT匹
7、配特點目前公認(rèn)的匹配效果最好的特征匹配方法是SIFT算法,SIFT提取的是圖像局部特征.SIFT算法基于尺度空間的思想,將圖像的尺度空間通過不同尺度的高斯函數(shù)與圖像卷積來表示.對兩個相鄰的高斯尺度空間影像相減,得到高斯差分尺度空間圖像(DOG),在DOG圖像中比較每個像元與相鄰尺度和相鄰位置的像元,找到局部極值點,使用子像元插值的方法得到精確的極值點位置,最后剔除掉DOG圖像上極值點對比度小于一定閾值的點并去]㈩除掉邊緣效應(yīng).利用特征點附近像元的梯度方向分布給每個特征點分配方向參數(shù),統(tǒng)計不同方向上的梯度累加
8、值來描述特征點,最后基于特征點特征向量的歐式距離來匹配,歐式距離最小的點作為匹配點,并且剔除掉最近鄰距離與次近鄰距離之比THR大于一定閾值的點.SIFT算法對旋轉(zhuǎn)、尺度縮放、亮度變化保持不變性,但是SIFT匹配在進行無人機影像拼接的時候存在匹配點對分布不均勻問題,在紋理豐富的區(qū)域】+[(2)匹配點對分布密集,在紋理稀少的區(qū)域匹配點過少甚至沒有,這樣在影像拼接的時候會使紋理稀少的區(qū)域拼接誤差較大.I31.2基于格網(wǎng)