![](https://static.zsdocx.com/FlexPaper/FileRoot/2019-3/6/23/566b294b-b827-4a20-92c7-27096d22ff03/566b294b-b827-4a20-92c7-27096d22ff03pic.jpg)
![深度學(xué)習(xí)驅(qū)動(dòng)的場(chǎng)景分析和語(yǔ)義目標(biāo)解析.pdf_第1頁(yè)](https://static.zsdocx.com/FlexPaper/FileRoot/2019-3/6/23/566b294b-b827-4a20-92c7-27096d22ff03/566b294b-b827-4a20-92c7-27096d22ff031.gif)
版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、語(yǔ)義目標(biāo)解析和場(chǎng)景分析是計(jì)算機(jī)視覺中重要的研究方向,其主要目的是對(duì)圖像和視頻中的目標(biāo)和場(chǎng)景進(jìn)行分析、理解,在視頻監(jiān)控、自動(dòng)駕駛、智能交通等方面均有廣泛的應(yīng)用。語(yǔ)義目標(biāo)解析涉及對(duì)行人、車輛等目標(biāo)的檢測(cè)、識(shí)別及分析過(guò)程。其中行人細(xì)粒度分析是很多計(jì)算機(jī)視覺應(yīng)用的基礎(chǔ),其目的是將行人圖像分割成語(yǔ)義部件,并識(shí)別其屬性。場(chǎng)景分析主要包括對(duì)場(chǎng)景的深度估計(jì)、運(yùn)動(dòng)分析以及結(jié)構(gòu)分析等。場(chǎng)景的深度估計(jì)是指從圖像中得到場(chǎng)景的深度信息,有助于恢復(fù)場(chǎng)景的三維結(jié)構(gòu)。
2、場(chǎng)景的運(yùn)動(dòng)分析則主要是指從連續(xù)視頻幀中得到光流信息,被用于運(yùn)動(dòng)目標(biāo)的行為識(shí)別和異常事件的檢測(cè)分類。因此,有效的行人細(xì)粒度分析、圖像深度估計(jì)和光流估計(jì)算法具有重要的現(xiàn)實(shí)意義,本文也主要關(guān)注這三個(gè)任務(wù)。近年來(lái),深度學(xué)習(xí)已在目標(biāo)檢測(cè)、人臉識(shí)別、場(chǎng)景標(biāo)注等計(jì)算機(jī)視覺任務(wù)上取得突破,設(shè)計(jì)以任務(wù)為導(dǎo)向的網(wǎng)絡(luò)模型受到學(xué)術(shù)界和工業(yè)界越來(lái)越多的關(guān)注。本文將針對(duì)行人細(xì)粒度分析、單張圖像深度估計(jì)和光流估計(jì)這三個(gè)任務(wù),分別提出不同的基于深度學(xué)習(xí)的模型。
3、 本研究主要內(nèi)容包括:⑴對(duì)于單張圖像深度估計(jì)任務(wù),首先回顧了已有的相關(guān)方法,然后針對(duì)目前基于深度學(xué)習(xí)的深度估計(jì)模型在建??臻g上下文關(guān)系上存在的不足,本文分別提出基于數(shù)據(jù)驅(qū)動(dòng)的上下文特征學(xué)習(xí)模型和基于全變分模型的損失函數(shù)模型。前者通過(guò)數(shù)據(jù)學(xué)習(xí)和像素位置相關(guān)的上下文關(guān)系權(quán)值將鄰域特征融合到深度值預(yù)測(cè),而后者則能夠有效地壓制噪聲并在保留邊緣的同時(shí)使結(jié)果更加的平滑。最后本文將這兩種模型融合,得到更有效的方法。⑵在光流估計(jì)任務(wù)中,相對(duì)于傳統(tǒng)的光
4、流估計(jì)方法,基于深度學(xué)習(xí)的方法具有效率高、易擴(kuò)展的優(yōu)點(diǎn)。然而目前基于深度學(xué)習(xí)的方法并不多,同時(shí)已有的深度模型在大位移光流預(yù)測(cè)問題上存在不足。提出一種基于多尺度的相關(guān)性學(xué)習(xí)的深度卷積網(wǎng)絡(luò)結(jié)構(gòu),能夠有效地處理大位移情況。在一些大位移光流數(shù)據(jù)集上,相對(duì)于基準(zhǔn)算法,本文提出的框架的表現(xiàn)有很明顯的改善。另外,由于預(yù)測(cè)的結(jié)果含有較多的噪聲和較大的誤差,提出將遞歸神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合對(duì)預(yù)測(cè)的結(jié)果進(jìn)一步修正并得到更加精細(xì)的結(jié)果。⑶對(duì)于行人細(xì)粒度
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于高階CRFs和稀疏字典學(xué)習(xí)的場(chǎng)景語(yǔ)義解析.pdf
- 基于語(yǔ)義結(jié)構(gòu)和視覺焦點(diǎn)的場(chǎng)景目標(biāo)識(shí)別.pdf
- 基于深度學(xué)習(xí)的城市交通場(chǎng)景目標(biāo)檢測(cè)算法研究.pdf
- 基于深度學(xué)習(xí)和語(yǔ)義分析的藥物不良反應(yīng)發(fā)現(xiàn).pdf
- 基于深度學(xué)習(xí)的場(chǎng)景識(shí)別研究.pdf
- 基于深度學(xué)習(xí)的無(wú)監(jiān)督型圖像語(yǔ)義分析.pdf
- 基于深度學(xué)習(xí)的圖像語(yǔ)義理解和分類研究.pdf
- 基于深度學(xué)習(xí)的自然場(chǎng)景文字識(shí)別.pdf
- 基于深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)的多目標(biāo)檢測(cè)跟蹤.pdf
- 基于深度學(xué)習(xí)的圖像語(yǔ)義分割研究.pdf
- 基于目標(biāo)與場(chǎng)景的用例驅(qū)動(dòng)需求分析技術(shù)研究.pdf
- 基于深度學(xué)習(xí)和上下文語(yǔ)義的視覺內(nèi)容識(shí)別與分析研究.pdf
- 面向動(dòng)態(tài)場(chǎng)景理解的時(shí)空深度學(xué)習(xí)算法.pdf
- 基于深度數(shù)據(jù)和圖像語(yǔ)義分割的三維場(chǎng)景重建技術(shù)研究.pdf
- 場(chǎng)景的解析——大學(xué)教學(xué)建筑場(chǎng)景分析.pdf
- 單目圖像中的場(chǎng)景深度結(jié)構(gòu)分析和估計(jì).pdf
- 基于深度學(xué)習(xí)和渲染數(shù)據(jù)的目標(biāo)對(duì)象摳取.pdf
- 基于深度學(xué)習(xí)的圖像語(yǔ)義理解研究.pdf
- 基于深度學(xué)習(xí)的目標(biāo)檢測(cè)研究.pdf
- 基于深度學(xué)習(xí)的圖像語(yǔ)義分割算法研究.pdf
評(píng)論
0/150
提交評(píng)論