眼動(dòng)跟蹤技術(shù)研究

眼動(dòng)跟蹤技術(shù)研究

ID:37379795

大?。?.59 MB

頁數(shù):56頁

時(shí)間:2019-05-23

眼動(dòng)跟蹤技術(shù)研究_第1頁
眼動(dòng)跟蹤技術(shù)研究_第2頁
眼動(dòng)跟蹤技術(shù)研究_第3頁
眼動(dòng)跟蹤技術(shù)研究_第4頁
眼動(dòng)跟蹤技術(shù)研究_第5頁
資源描述:

《眼動(dòng)跟蹤技術(shù)研究》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫

1、摘要眼動(dòng)跟蹤技術(shù)的研究被認(rèn)為是視覺信息加工研究中最有效的手段,吸引了心理學(xué)、工效學(xué)及計(jì)算機(jī)科學(xué)等領(lǐng)域的普遍關(guān)注。其研究成果在工業(yè)、商業(yè)及軍事等領(lǐng)域得到廣泛應(yīng)用。本文首先論述了眼動(dòng)跟蹤的相關(guān)理論基礎(chǔ)。然后在對各種現(xiàn)有眼動(dòng)跟蹤技術(shù)探討的基礎(chǔ)上,結(jié)合眼動(dòng)跟蹤系統(tǒng)的實(shí)用準(zhǔn)則,對基于瞳孔.角膜反射向量法的眼動(dòng)跟蹤技術(shù)做了深入研究。通過對目前瞳孔中心定位的各種實(shí)現(xiàn)方法的詳細(xì)探討,采用延展星射線方法對瞳孔輪廓特征點(diǎn)的定位進(jìn)行了研究,結(jié)果表明該方法顯著地減少了所需處理的數(shù)據(jù)量,并改善了較差起始點(diǎn)猜測情況下算法的魯棒性;隨后進(jìn)行的仿真和分析表明,該算法可以快速收斂,且探測到的可用特征點(diǎn)

2、在數(shù)量上占絕對優(yōu)勢。由于眼動(dòng)跟蹤對實(shí)時(shí)性和準(zhǔn)確性有極高的要求,通過對一般最小二乘法局限性的分析,鑒于隨機(jī)樣本一致性原理與特征點(diǎn)探測算法的特性,本文提出了一種基于隨機(jī)樣本一致性的瞳孔中心定位方法,該方法的最大優(yōu)點(diǎn)是提高了運(yùn)算的速度,且能保持較高的精度。仿真結(jié)果表明,正視時(shí)定位的相對誤差為O.53%,俯視時(shí)定位的相對誤差為O.76%,且該算法耗時(shí)僅為凡氣NSAC算法的0.3203。此外還對遮蔽狀態(tài)下的瞳孔中心定位進(jìn)行了仿真分析,驗(yàn)證了算法的性能。關(guān)鍵詞:眼動(dòng)跟蹤瞳孑L中心定位注視點(diǎn)標(biāo)定最小二乘法隨機(jī)樣本一致性AbstractEyetrackingtecllllologyi

3、sdeemed豁t11emoste療IectivemeallSiIlt11eresearchonVisualinf.omationprocessing,觚dithaS撇actedtheco刪:nonconcemofpsych0109y,ergonomics,computerscienCeaIldotllerfields.nleresultsof“haVebeen晰dely印pliediIlindustrial,co伽nercialandrnilitaryfields.ThetheoreticalfouIldationoftheeye協(xié)acl(ingtechn0109y

4、isdiscussediIlmepaper丘rSt.nen,onthebaSisofa11司yzingaVariet)rofcu仃emteclllloJogies,combined、vithpEacticalguidelines,eye廿acl【ingtecllllologybaSedonpupil·comealVectormethodisdeeplyresearchedin吐lepaper.Tllrou曲thedetailedresearchonthecurrent2LlgoritllIns、Ⅳhichareusedt0detern血etllepupilcenter

5、,themethodnlatdetemlinestllepupilcenterbyextendingradialsisadopted.TheresultsshowmattlledatathatShouldbcprocessedcaIlbesi弘ificalltlyreduced,andtherobustnessisinlprovedwhentllei11itialpointispoor.ThesubsequentsimulationalldaIlaJysesindicatethatnlealgori也mcanconve瑪era枷dly,azldtheimiersdet

6、ectedaredomiI凇t主llthenumber.Duet0mehiglldemandsoft11eeyen.a(chǎn)ckingtechn0109yontimeandaCcuracy,tllrou曲tlleanalysisofthe1imitatioIlsof缸lele敘-squaremetllod,consideringtherandomsampleconsenslls砸nCiple鋤dⅡlecharacteroft11eCh嬲lCteriSticpointsdetectionalgoritllIIl,amethodthatisbaSedonrau[1doms鋤叩l

7、econsensuSisproposedtodete衄irlemepupilcenter,也ebiggeStmeritofwllichismattheoperationSpeedisimpr0Vedandmeaccuracyismaintained.Thesimulationresultsshow協(xié)atWhentlleeyeslookfo陽,ard,merelativeem竹ofthepupilcenteris0.53%,Wh髓theeyeslookdoWn,tllerelativee仃orisO.76%,aIldmet婦et11atⅡlisalgo

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時(shí)聯(lián)系客服。
3. 下載前請仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請聯(lián)系客服處理。