![](https://static.zsdocx.com/FlexPaper/FileRoot/2019-3/6/23/41f8a245-0344-4e49-830a-6e5c72a27779/41f8a245-0344-4e49-830a-6e5c72a27779pic.jpg)
![基于卷積神經(jīng)網(wǎng)絡(luò)的注視點(diǎn)檢測(cè).pdf_第1頁(yè)](https://static.zsdocx.com/FlexPaper/FileRoot/2019-3/6/23/41f8a245-0344-4e49-830a-6e5c72a27779/41f8a245-0344-4e49-830a-6e5c72a277791.gif)
版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、人類在面對(duì)復(fù)雜場(chǎng)景時(shí)會(huì)注視最感興趣的區(qū)域,人腦的視覺(jué)注意系統(tǒng)可以快速在復(fù)雜場(chǎng)景中選定注視位置。注視點(diǎn)檢測(cè)系統(tǒng)通過(guò)一定的算法模擬人腦視覺(jué)系統(tǒng),判別圖像中每個(gè)像素被人眼注視的概率。注視點(diǎn)檢測(cè)可以廣泛應(yīng)用于目標(biāo)識(shí)別、視頻壓縮、視覺(jué)跟蹤、圖像分割等復(fù)雜任務(wù)的預(yù)處理環(huán)節(jié)。
深度學(xué)習(xí)近年來(lái)在目標(biāo)檢測(cè),圖像分類等領(lǐng)域取得了很好的效果,這證明了深度學(xué)習(xí)是計(jì)算機(jī)視覺(jué)領(lǐng)域十分有效的工具和方法。深度學(xué)習(xí)結(jié)構(gòu)強(qiáng)大的表達(dá)能力和復(fù)雜特征的提取能力極大地推
2、動(dòng)了注視點(diǎn)檢測(cè)的發(fā)展。
本文通過(guò)總結(jié)現(xiàn)有的注視點(diǎn)檢測(cè)技術(shù)并結(jié)合當(dāng)今前沿技術(shù),提出了兩種注視點(diǎn)檢測(cè)方法:基于局部評(píng)估和全局優(yōu)化的注視點(diǎn)檢測(cè)方法和基于雙流卷積神經(jīng)網(wǎng)絡(luò)的注視點(diǎn)檢測(cè)方法。前者利用已有的神經(jīng)網(wǎng)絡(luò)計(jì)算的深度特征作為圖像的評(píng)估特征,后者是專門的注視點(diǎn)檢測(cè)網(wǎng)絡(luò)。
本文提出的基于局部評(píng)估和全局優(yōu)化的注視點(diǎn)檢測(cè)方法分為兩大部分:局部評(píng)估和全局優(yōu)化。局部評(píng)估分為兩種方式:全局學(xué)習(xí)和具體學(xué)習(xí)。全局學(xué)習(xí)指采用整個(gè)數(shù)據(jù)庫(kù)訓(xùn)練集
3、合的圖像訓(xùn)練評(píng)估分類器,具體學(xué)習(xí)利用半耦合字典學(xué)習(xí)算法,對(duì)于每張測(cè)試圖像,都能重構(gòu)一個(gè)針對(duì)此圖像訓(xùn)練的具體的評(píng)估分類器。全局優(yōu)化階段,包括proposal的子集聚類優(yōu)化和全局上下文優(yōu)化。子集聚類優(yōu)化可以減少離群值,增加局部評(píng)估的置信度,便于設(shè)計(jì)統(tǒng)一的特征來(lái)描述整個(gè)子集。全局上下文優(yōu)化利用圖像上下文信息,在全局尺度對(duì)注視點(diǎn)預(yù)測(cè)結(jié)果進(jìn)行重新優(yōu)化,輸出最終的注視點(diǎn)檢測(cè)圖。
本文提出的另一種基于雙流卷積神經(jīng)網(wǎng)絡(luò)的注視點(diǎn)檢測(cè)算法是一種端
4、到端的卷積神經(jīng)網(wǎng)絡(luò)模型。雙流包括注視點(diǎn)預(yù)測(cè)流和圖像場(chǎng)景分類流,兩個(gè)分支網(wǎng)絡(luò)共享整個(gè)神經(jīng)網(wǎng)絡(luò)的前五個(gè)數(shù)據(jù)塊。本文對(duì)兩個(gè)流同時(shí)進(jìn)行訓(xùn)練,得到的更加豐富的特征表示有利于兩種任務(wù)。多任務(wù)學(xué)習(xí)用來(lái)學(xué)習(xí)注視點(diǎn)檢測(cè)和圖像類別的關(guān)系。另外,本文還設(shè)計(jì)了一種自適應(yīng)融合機(jī)制來(lái)融合語(yǔ)義信息、對(duì)比度信息和中心先驗(yàn)。自適應(yīng)融合機(jī)制利用場(chǎng)景分類網(wǎng)絡(luò)的特征來(lái)判斷對(duì)比特征圖和中心先驗(yàn)的權(quán)重。
本文在MIT300,MIT1003,CAT2000數(shù)據(jù)庫(kù)上測(cè)試了上
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于多通道信息融合的注視點(diǎn)檢測(cè)算法研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的語(yǔ)音端點(diǎn)檢測(cè)方法研究.pdf
- 基于角點(diǎn)檢測(cè)和卷積神經(jīng)網(wǎng)絡(luò)的字符識(shí)別.pdf
- 基于級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的人臉關(guān)鍵點(diǎn)檢測(cè)算法.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測(cè).pdf
- 基于面部法線的注視點(diǎn)定位方法研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的股票交易反轉(zhuǎn)點(diǎn)與異常點(diǎn)檢測(cè).pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的車輛部件檢測(cè).pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測(cè)方法研究.pdf
- 人眼注視點(diǎn)估計(jì)方法的研究.pdf
- 基于可變形卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè).pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測(cè)和識(shí)別研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的Logo檢測(cè)與識(shí)別研究.pdf
- 基于卷積自編碼神經(jīng)網(wǎng)絡(luò)的肺結(jié)節(jié)檢測(cè).pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)模型的研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的自然場(chǎng)景下的車牌檢測(cè).pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的異常音頻事件檢測(cè)的研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人體行為檢測(cè)研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的文獻(xiàn)分析.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類.pdf
評(píng)論
0/150
提交評(píng)論