![](https://static.zsdocx.com/FlexPaper/FileRoot/2019-3/6/23/45746b82-d7c9-4ff0-8351-49b54f1b33c1/45746b82-d7c9-4ff0-8351-49b54f1b33c1pic.jpg)
![基于單目視覺(jué)的夜間前方車輛檢測(cè).pdf_第1頁(yè)](https://static.zsdocx.com/FlexPaper/FileRoot/2019-3/6/23/45746b82-d7c9-4ff0-8351-49b54f1b33c1/45746b82-d7c9-4ff0-8351-49b54f1b33c11.gif)
版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、夜間車輛檢測(cè)是計(jì)算機(jī)視覺(jué)領(lǐng)域一個(gè)具有挑戰(zhàn)性的問(wèn)題。夜間光照條件差,車輛外形特征不明顯,導(dǎo)致交通事故頻發(fā)。針對(duì)夜間車輛檢測(cè)誤檢率高、檢測(cè)速率慢的問(wèn)題,本文研究了基于單目視覺(jué)的夜間前方車輛檢測(cè)方法,以提高夜間行車的安全性。論文主要工作包括以下三部分:
?。?)基于CenSurE特征的車燈檢測(cè)算法。由于人工設(shè)定閾值和濾波器線性采樣,導(dǎo)致特征點(diǎn)稀疏、噪聲多,本文在中心環(huán)繞雙層濾波器上利用對(duì)數(shù)尺度采樣獲取密集的特征點(diǎn),并使用多級(jí)Otsu閾
2、值濾除不穩(wěn)定的特征點(diǎn);然后,根據(jù)顏色閾值進(jìn)一步確定車燈區(qū)域;最后,根據(jù)配對(duì)約束條件進(jìn)行車燈配對(duì)。相比于原始CenSurE算法,本文的改進(jìn)方法能提取到密集和噪聲較少的特征點(diǎn),查準(zhǔn)率提高了8.6%,提高到41.2%,查全率提高了12%,提高到53.3%,但是仍誤檢部分路燈、廣告牌等非車燈光源。
?。?)針對(duì)傳統(tǒng)方法優(yōu)秀的人工特征也難以準(zhǔn)確檢測(cè)車輛的問(wèn)題,本文提出了基于Faster RCNN的夜間車輛檢測(cè)算法,使用深層卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)
3、出更好的車輛描述特征。原始Faster RCNN隨機(jī)選取負(fù)樣本的機(jī)制,沒(méi)有專注區(qū)分車燈和非車燈光源,本文通過(guò)改進(jìn)的CenSurE特征啟發(fā)式地挖掘困難樣本,以增強(qiáng)模型分類性能。與原始模型相比,困難樣本挖掘模型的AuC提高了8.1%,提高到84.4%。
?。?)針對(duì)Faster RCNN檢測(cè)速率較慢,難以滿足實(shí)時(shí)性要求的問(wèn)題,本文提出一種基于PCA降維的Faster RCNN模型優(yōu)化方法。首先對(duì)模塊C全連接層參數(shù)進(jìn)行降維,為了保證模
4、型收斂,在原始訓(xùn)練步驟的基礎(chǔ)上增加兩步分別用于學(xué)習(xí)模塊B和模塊C的參數(shù)。然后結(jié)合(2)的在線困難樣本挖掘機(jī)制進(jìn)行模型學(xué)習(xí),相比于原始模型,本文改進(jìn)的模型減少了近5000萬(wàn)個(gè)參數(shù),每一秒的檢測(cè)幀數(shù)由原來(lái)的17幀提升到24幀,AuC提高了9.8%,提高到86.1%。
針對(duì)Faster RCNN,本文除了使用與訓(xùn)練樣本類似的高速路和市區(qū)場(chǎng)景進(jìn)行測(cè)試,還挑戰(zhàn)性地使用與樣本不一致的困難場(chǎng)景進(jìn)行測(cè)試,通過(guò)實(shí)驗(yàn),證實(shí)了本文模型的普適性和泛化
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于單目視覺(jué)的夜間車道線和前方車輛檢測(cè)方法研究.pdf
- 基于單目視覺(jué)的夜間車輛和車距檢測(cè).pdf
- 基于單目視覺(jué)的前方車輛檢測(cè)與跟蹤方法研究.pdf
- 基于單目視覺(jué)的前方車輛檢測(cè)和測(cè)距方法研究.pdf
- 基于單目視覺(jué)的前方車輛檢測(cè)及測(cè)距技術(shù)的研究.pdf
- 基于單目視覺(jué)的分道線檢測(cè)和前方車輛檢測(cè)技術(shù)研究.pdf
- 基于單目視覺(jué)的多特征前方車輛檢測(cè)及測(cè)距方法研究.pdf
- 基于單目視覺(jué)與多特征的前方車輛檢測(cè)算法研究.pdf
- 基于單目視覺(jué)的夜間車輛識(shí)別與測(cè)距方法研究
- 基于單目視覺(jué)的車道線檢測(cè)和前方車輛測(cè)距技術(shù)研究.pdf
- 基于單目視覺(jué)的車輛前方行人識(shí)別方法研究.pdf
- 基于單目視覺(jué)的車輛前方可通行性分析方法.pdf
- 基于單目視覺(jué)的夜間車輛識(shí)別與測(cè)距方法研究.pdf
- 基于單目視頻流的前方車輛檢測(cè)算法研究.pdf
- 基于單目視覺(jué)的路面車輛檢測(cè)與跟蹤.pdf
- 基于單目視覺(jué)的車輛檢測(cè)與跟蹤研究.pdf
- 基于雙目視覺(jué)的前方車輛測(cè)距系統(tǒng)研究.pdf
- 基于雙目視覺(jué)的前方車輛測(cè)距法研究.pdf
- 基于雙目視覺(jué)的結(jié)構(gòu)化道路前方車輛檢測(cè)與距離測(cè)量.pdf
- 基于單目視覺(jué)的車輛檢測(cè)與跟蹤算法研究.pdf
評(píng)論
0/150
提交評(píng)論