![](https://static.zsdocx.com/FlexPaper/FileRoot/2019-3/6/23/b5261a8e-07d3-498f-926a-e4250729d2f4/b5261a8e-07d3-498f-926a-e4250729d2f4pic.jpg)
![基于遷移學(xué)習(xí)的目標(biāo)識(shí)別若干問題研究.pdf_第1頁](https://static.zsdocx.com/FlexPaper/FileRoot/2019-3/6/23/b5261a8e-07d3-498f-926a-e4250729d2f4/b5261a8e-07d3-498f-926a-e4250729d2f41.gif)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
1、目標(biāo)識(shí)別是計(jì)算機(jī)視覺領(lǐng)域中的一個(gè)基礎(chǔ)問題,它的核心任務(wù)是將不同類別的圖像彼此分開(即分類問題),或者從給定的圖片中,找到目標(biāo)物體的準(zhǔn)確位置(即檢測問題)。經(jīng)典的目標(biāo)識(shí)別問題假設(shè)訓(xùn)練場景和測試場景所服從概率分布相同。但是,在真實(shí)應(yīng)用場景中,這一條件有時(shí)并不滿足,于是,經(jīng)常會(huì)出現(xiàn)這樣的情況:當(dāng)訓(xùn)練好的分類器或者檢測器被應(yīng)用到一個(gè)新的場景時(shí),其性能會(huì)迅速下降。對(duì)于這一問題,目前采用基于遷移學(xué)習(xí)的目標(biāo)識(shí)別方法加以解決。近年來,針對(duì)這類方法的研究
2、日益受到關(guān)注,雖取得了一些成果,但還存在諸多不足,離實(shí)際應(yīng)用也有較大差距。
本文主要圍繞“域自適應(yīng)目標(biāo)分類”和“域自適應(yīng)目標(biāo)檢測”兩個(gè)基本主題,展開相關(guān)研究,針對(duì)現(xiàn)有方法所存在問題,提出相應(yīng)解決方案。對(duì)于現(xiàn)有域自適應(yīng)目標(biāo)分類方法,其主要問題是:樣本本身所構(gòu)成的流形結(jié)構(gòu)沒有被充分利用。針對(duì)該問題,本文從特征表達(dá)魯棒性的角度出發(fā),研究如何有效利用樣本流形結(jié)構(gòu),實(shí)現(xiàn)魯棒的特征編碼。而對(duì)于現(xiàn)有域自適應(yīng)目標(biāo)檢測方法,其主要問題是:算法對(duì)
3、源樣本和帶標(biāo)簽?zāi)繕?biāo)域樣本存在依賴。針對(duì)該問題,圍繞著行人檢測這一具體應(yīng)用,本文從分類器回歸、自適應(yīng)分類器調(diào)整和自適應(yīng)特征調(diào)控這三個(gè)角度,分別進(jìn)行研究。本文的主要內(nèi)容如下:
1)提出一種基于協(xié)同特征的多類別線性分類算法。首先,按照類別依次排列的方式,將所有源樣本構(gòu)成字典;然后,結(jié)合該字典和目標(biāo)樣本的最近鄰幾何結(jié)構(gòu)信息,實(shí)現(xiàn)對(duì)樣本的編碼;最后,利用最近鄰分類器完成分類。為了進(jìn)一步討論目標(biāo)樣本鄰域信息對(duì)特征表達(dá)的影響,我們還提出了兩
4、種新的特征,它們分別融合了目標(biāo)樣本局部近鄰信息和目標(biāo)樣本自適應(yīng)局部近鄰信息。
2)提出了一種基于分類器回歸的遷移方法,應(yīng)用于行人檢測問題。首先,為回歸過程生成訓(xùn)練數(shù)據(jù):a)利用ESVM方法為每個(gè)源樣本生成相應(yīng)的樣例分類器,并將其作為回歸標(biāo)簽數(shù)據(jù);b)提出一個(gè)自編碼器神經(jīng)網(wǎng)絡(luò)方法,利用其中的編碼器對(duì)回歸標(biāo)簽數(shù)據(jù)進(jìn)行降維。然后,為了回歸低維回歸標(biāo)簽數(shù)據(jù),提出了一種由多個(gè)子網(wǎng)絡(luò)構(gòu)成的兩階段回歸網(wǎng)絡(luò)。在檢測時(shí),由回歸網(wǎng)絡(luò)得到的預(yù)測值需
5、利用自編碼器中的解碼器,將其還原到原始空間,并作為測試樣本對(duì)應(yīng)的樣例分類器來實(shí)現(xiàn)分類。
3)提出一種基于自適應(yīng)分類器調(diào)整的遷移方法,應(yīng)用于行人檢測問題。首先,為了實(shí)現(xiàn)分類器自適應(yīng)調(diào)整,提出了一種基于單層感知機(jī)的動(dòng)態(tài)分類器。該分類器位于卷積神經(jīng)網(wǎng)絡(luò)的最后一層,其模型參數(shù)以加權(quán)的方式進(jìn)行調(diào)整,而加權(quán)值由另一個(gè)控制網(wǎng)絡(luò)預(yù)測生成。通過這種方式,該混合網(wǎng)絡(luò)為每一個(gè)目標(biāo)域樣本生成專有的分類器。然后,為了取得更好的泛化效果,設(shè)計(jì)了新的目標(biāo)函
6、數(shù)。該函數(shù)包含兩個(gè)新的正則化項(xiàng):一個(gè)是基于預(yù)測權(quán)值稀疏性的約束;另一個(gè)是對(duì)動(dòng)態(tài)分類器一階導(dǎo)數(shù)的約束,該約束保證動(dòng)態(tài)分類器僅對(duì)困難樣本敏感。最后,給出了該混合網(wǎng)絡(luò)的訓(xùn)練算法。在訓(xùn)練過程中,為了避免調(diào)控網(wǎng)絡(luò)梯度消失問題,提出了相應(yīng)的學(xué)習(xí)率控制技術(shù)。
4)提出一種基于自適應(yīng)特征調(diào)控的遷移方法,應(yīng)用于行人檢測問題。首先,為了讓卷積神經(jīng)網(wǎng)絡(luò)自適應(yīng)地為每個(gè)測試樣本生成合乎目標(biāo)場景概率分布的深度特征,提出了一種新的動(dòng)態(tài)池化層,該層通過加權(quán)的
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- SAR圖像目標(biāo)識(shí)別中若干問題的研究.pdf
- 機(jī)載SAR圖像目標(biāo)識(shí)別中若干問題的研究.pdf
- 基于深度學(xué)習(xí)的目標(biāo)識(shí)別研究.pdf
- 基于深度學(xué)習(xí)的圖像目標(biāo)識(shí)別研究.pdf
- 基于集成學(xué)習(xí)的視覺目標(biāo)識(shí)別.pdf
- 基于字典學(xué)習(xí)的SAR圖像目標(biāo)識(shí)別研究.pdf
- 基于張量學(xué)習(xí)的目標(biāo)識(shí)別技術(shù)研究.pdf
- 基于流形學(xué)習(xí)的SAR目標(biāo)識(shí)別.pdf
- 車牌識(shí)別若干問題研究.pdf
- 基于極限學(xué)習(xí)機(jī)的目標(biāo)識(shí)別算法研究.pdf
- 基于深度學(xué)習(xí)的SAR目標(biāo)識(shí)別方法研究.pdf
- 基于稀疏學(xué)習(xí)的雷達(dá)目標(biāo)識(shí)別方法研究.pdf
- 人臉識(shí)別若干問題的研究.pdf
- 視頻目標(biāo)跟蹤的若干問題研究.pdf
- 基于機(jī)器學(xué)習(xí)的車輛目標(biāo)識(shí)別方法.pdf
- 人臉識(shí)別中的若干問題研究.pdf
- 人臉表情識(shí)別若干問題的研究.pdf
- 基于骨架的靜態(tài)手語識(shí)別的若干問題研究.pdf
- 短時(shí)語種識(shí)別若干問題研究.pdf
- 人臉識(shí)別技術(shù)若干問題研究.pdf
評(píng)論
0/150
提交評(píng)論