![](https://static.zsdocx.com/FlexPaper/FileRoot/2019-3/6/23/d011bd5e-ff7d-4a3f-8516-f7e92cf7bca8/d011bd5e-ff7d-4a3f-8516-f7e92cf7bca8pic.jpg)
![多重約束深度子空間稀疏優(yōu)化特征提取算法研究.pdf_第1頁(yè)](https://static.zsdocx.com/FlexPaper/FileRoot/2019-3/6/23/d011bd5e-ff7d-4a3f-8516-f7e92cf7bca8/d011bd5e-ff7d-4a3f-8516-f7e92cf7bca81.gif)
版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、圖像處理與模式識(shí)別是當(dāng)今前沿科技中的重要研究領(lǐng)域,特征提取作為圖像識(shí)別的重要環(huán)節(jié),對(duì)識(shí)別率、運(yùn)算時(shí)間有著重要影響;近年來(lái)深度學(xué)習(xí)作為新的特征提取手段,在對(duì)圖像特征的語(yǔ)義描述能力方面很大程度上優(yōu)于傳統(tǒng)特征提取方法。本文從深度學(xué)習(xí)模型中的深層特征映射結(jié)構(gòu)出發(fā),結(jié)合目前國(guó)內(nèi)外的相關(guān)研究成果,對(duì)深度子空間模型這一新興的深度特征提取模型進(jìn)行研究改進(jìn)。
首先,為了提高模型魯棒性,在深度子空間模型中融入稀疏表示相關(guān)理論,通過(guò)稀疏優(yōu)化方法對(duì)特
2、征提取過(guò)程進(jìn)行約束。針對(duì)圖像中存在的噪聲干擾,通過(guò)構(gòu)建誤差矩陣,在每層子空間特征映射過(guò)程中都針對(duì)稀疏特征矩陣和誤差矩陣進(jìn)行最優(yōu)化求解,最大程度將噪聲干擾與稀疏特征相分離,保持特征提取結(jié)果的內(nèi)在稀疏特性,便于后續(xù)的識(shí)別分類。實(shí)驗(yàn)表明融入稀疏表示理論之后的深度子空間模型能夠有效應(yīng)對(duì)圖像識(shí)別問(wèn)題中的噪聲干擾,提高模式的識(shí)別率和魯棒性。
其次,為了解決自定義深層子空間的距離度量問(wèn)題,提出距離度量標(biāo)準(zhǔn)自學(xué)習(xí)理論,通過(guò)求解深層子空間中最大
3、化類間距離來(lái)確定最優(yōu)距離度量映射矩陣。深層子空間相對(duì)于經(jīng)典單層子空間,具特征維數(shù)高、數(shù)據(jù)分布更為復(fù)雜。通過(guò)度量自學(xué)習(xí)操作,能夠在每層子空間特征映射過(guò)程中最大化保留樣本間區(qū)分信息,從而得到特定子空間中對(duì)應(yīng)的最優(yōu)距離度量標(biāo)準(zhǔn),在該度量標(biāo)準(zhǔn)下,樣本特征的類間距離盡可能大,類內(nèi)距離盡可能小,有利于后續(xù)的識(shí)別分類。實(shí)驗(yàn)表明引入度量自學(xué)習(xí)機(jī)制的深度子空間模型能夠更好的對(duì)特征數(shù)據(jù)進(jìn)行有效分析,從而提高系統(tǒng)識(shí)別效率。
最后,針對(duì)人臉圖像以及部
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于子空間分析的面部表情特征提取算法研究
- 基于流形的人臉識(shí)別子空間特征提取算法研究.pdf
- 基于子空間的人臉特征提取和識(shí)別算法研究.pdf
- 基于子空間分析的面部表情特征提取算法研究.pdf
- 基于子空間的特征提取與融合算法研究.pdf
- 子空間特征提取及生物特征識(shí)別應(yīng)用.pdf
- 基于子空間特征提取的人臉識(shí)別.pdf
- 基于稀疏表示和特征提取的人臉識(shí)別算法研究.pdf
- 基于深度學(xué)習(xí)特征提取的人臉認(rèn)證算法研究.pdf
- 基于子空間分析特征提取的人臉識(shí)別研究.pdf
- 基于稀疏表示的人臉特征提取與識(shí)別算法研究.pdf
- 人臉識(shí)別中基于子空間的特征提取方法研究.pdf
- 增強(qiáng)的子空間鑒別特征提取及分類方法研究.pdf
- 基于子空間分析的人臉特征提取及識(shí)別研究.pdf
- 虹膜特征提取算法研究.pdf
- 子空間分析中的隱式gabor特征提取
- 特征提取中的子空間分析方法研究及其應(yīng)用.pdf
- 基于正交稀疏保留投影的特征提取與識(shí)別算法研究.pdf
- 基于子空間分析的人臉特征提取的方法研究.pdf
- 稀疏分解算法在廣播信號(hào)特征提取中的應(yīng)用研究.pdf
評(píng)論
0/150
提交評(píng)論