基于深度學(xué)習(xí)模型的圖像文本檢測(cè)和質(zhì)量評(píng)價(jià)研究.pdf_第1頁(yè)
已閱讀1頁(yè),還剩124頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、在圖像文本檢測(cè)時(shí),需要高效可靠的方法從圖像中學(xué)習(xí)表征性強(qiáng)的文本特征。在無(wú)參考圖像質(zhì)量評(píng)價(jià)中,準(zhǔn)確的質(zhì)量評(píng)估也依賴關(guān)鍵質(zhì)量特征的提取。在這兩個(gè)應(yīng)用中,有效自動(dòng)地提取可視化數(shù)據(jù)中的有用信息(特征)非常關(guān)鍵。但是從實(shí)際應(yīng)用的圖像中,獲取有效信息面臨著巨大的挑戰(zhàn),包括數(shù)據(jù)的海量性和復(fù)雜多樣性,不同應(yīng)用需求的特征不同,傳統(tǒng)啟發(fā)式方法判別性不強(qiáng)等問(wèn)題。研究人員希望特征學(xué)習(xí)算法具有增強(qiáng)的泛化能力和較少依賴于領(lǐng)域的知識(shí)。
  深度學(xué)習(xí)通過(guò)建立、模

2、擬人腦進(jìn)行分析學(xué)習(xí)的網(wǎng)絡(luò),能從數(shù)據(jù)中學(xué)習(xí),發(fā)現(xiàn)數(shù)據(jù)特征表示。由此,本文展開(kāi)了運(yùn)用深度學(xué)習(xí)模型來(lái)進(jìn)行圖像文本檢測(cè)和質(zhì)量評(píng)價(jià)的相關(guān)研究。主要研究了如何提取隱含字符特征提高文本檢測(cè)準(zhǔn)確率,并進(jìn)一步研究學(xué)習(xí)與語(yǔ)言類(lèi)別無(wú)關(guān)的文本特征,實(shí)現(xiàn)多語(yǔ)言文本檢測(cè),還研究了如何提取與視覺(jué)感知高度相關(guān)的質(zhì)量特征,建立客觀質(zhì)量評(píng)價(jià)模型。具體研究工作與創(chuàng)新點(diǎn)如下:
  (1)在自然圖像的文本檢測(cè)中,文本特征的有效提取很關(guān)鍵。在現(xiàn)有的特征提取方法中,基于卷積神

3、經(jīng)網(wǎng)絡(luò)的方法能模擬視覺(jué)皮層感受野的行為,是目前主流的研究方法。但是由于卷積神經(jīng)網(wǎng)絡(luò)的復(fù)雜性,仍然可以通過(guò)許多技術(shù)的改進(jìn)進(jìn)一步提高網(wǎng)絡(luò)性能。鑒于此,本文對(duì)傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行改進(jìn),提出了基于ICPT-CNN的文本定位檢測(cè)算法。提出的ICPT-CNN網(wǎng)絡(luò)架構(gòu)具有:1)采用基于橫向抑制的局部響應(yīng)歸一化對(duì)隱含特征進(jìn)行處理,局部特征既具有不變性又具有可區(qū)分性,提高了特征表征能力;2)采用ReLUs激活函數(shù)在一定程度上降低了網(wǎng)絡(luò)復(fù)雜度。實(shí)驗(yàn)結(jié)果表明

4、 ICPT-CNN網(wǎng)絡(luò)架構(gòu)合理,提取的聯(lián)合隱含特征優(yōu)化性較好,該特征用于字符識(shí)別時(shí)具有較高的準(zhǔn)確率。將學(xué)習(xí)到的聯(lián)合特征用于圖像文本檢測(cè),在標(biāo)準(zhǔn)ICDAR數(shù)據(jù)集上進(jìn)行測(cè)試,本文 ICPT-CNN方法在保持與其他先進(jìn)文本檢測(cè)算法準(zhǔn)確率相同的情況下,F(xiàn)-measure提高了1%。
 ?。?)針對(duì)圖像中多語(yǔ)言文本檢測(cè)問(wèn)題,提出一個(gè)基于SF-CNN的多語(yǔ)言文本檢測(cè)算法。算法考慮了不同語(yǔ)言文字的先驗(yàn)約束,采用先學(xué)習(xí)筆畫(huà)特征,再學(xué)習(xí)文本特征的遞

5、進(jìn)方法。提出了基于數(shù)據(jù)空間局部分散度的K均值初始化,獲得滿足要求的初始化筆畫(huà)特征,在此基礎(chǔ)上,采用改進(jìn)的K-means聚類(lèi)算法學(xué)習(xí)到筆畫(huà)特征。算法中提出的SF-CNN網(wǎng)絡(luò)不同于傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò),卷積核不是隨機(jī)產(chǎn)生的,而是以非監(jiān)督學(xué)習(xí)的筆畫(huà)特征作為第一個(gè)卷積層的卷積核,用于構(gòu)建與語(yǔ)言類(lèi)型無(wú)關(guān)的有效文本特征。此外,算法把高性能的深度學(xué)習(xí)方法與MSERs方法相結(jié)合,利用SF-CNN較強(qiáng)的學(xué)習(xí)能力提高M(jìn)SERs方法檢測(cè)準(zhǔn)確率,也通過(guò)MSERs對(duì)

6、低質(zhì)量文本較強(qiáng)的檢測(cè)能力彌補(bǔ)了SF-CNN網(wǎng)絡(luò)難以應(yīng)用高層特征對(duì)這類(lèi)文本檢測(cè)的不足,兩者優(yōu)勢(shì)互補(bǔ)。大量實(shí)驗(yàn)結(jié)果表明基于SF-CNN的算法能有效學(xué)習(xí)到與語(yǔ)言類(lèi)別無(wú)關(guān)的隱含文本特征,實(shí)現(xiàn)了自然場(chǎng)景中多種不同語(yǔ)言的文本信息檢測(cè)。
 ?。?)在無(wú)參考圖像質(zhì)量評(píng)價(jià)中,如何提取與視覺(jué)感知質(zhì)量高度相關(guān)的圖像特征是目前所面臨的重要挑戰(zhàn)。在現(xiàn)有的研究方法中,很少有基于卷積神經(jīng)網(wǎng)絡(luò)的評(píng)價(jià)方法,因?yàn)閭鹘y(tǒng)卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)不是用于獲取圖像質(zhì)量特征。本文將

7、深度學(xué)習(xí)的思想引入圖像質(zhì)量評(píng)價(jià)研究中,提出了基于IQF-CNN的無(wú)參考圖像質(zhì)量評(píng)價(jià)算法。為了能夠?qū)W習(xí)到具有NSS特性的圖像質(zhì)量特征,在預(yù)處理階段,本文算法對(duì)圖像做局部亮度系數(shù)歸一化,消除局部平均位移和歸一化局部方差,從變換域中提取可區(qū)分性特征。然后利用特征和圖像主觀質(zhì)量訓(xùn)練IQF-CNN網(wǎng)絡(luò),得到無(wú)參考型圖像客觀質(zhì)量評(píng)價(jià)模型。在IQF-CNN網(wǎng)絡(luò)中為了提高學(xué)習(xí)能力,采用dropout技術(shù)防止過(guò)擬合,改進(jìn)了網(wǎng)絡(luò)層數(shù)和架構(gòu),使學(xué)習(xí)到的特征表

8、征性更強(qiáng)。此外,提出的IQF-CNN框架允許學(xué)習(xí)和預(yù)測(cè)局部區(qū)域質(zhì)量。通過(guò)實(shí)驗(yàn)詳細(xì)分析了各種網(wǎng)絡(luò)參數(shù)對(duì)圖像質(zhì)量評(píng)價(jià)性能的影響,并在LIVE數(shù)據(jù)集上進(jìn)行了驗(yàn)證,為以后基于深度學(xué)習(xí)的圖像質(zhì)量評(píng)價(jià)研究提供了參考。同時(shí),在LIVE和TID2008標(biāo)準(zhǔn)數(shù)據(jù)集上進(jìn)行了一系列實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明本文算法能較準(zhǔn)確的評(píng)估五種常用的圖像失真,在各種失真上都與人眼主觀感知質(zhì)量具有較高的一致性,整體性能較優(yōu)于其他經(jīng)典評(píng)價(jià)方法。
  本文研究的挑戰(zhàn)來(lái)自于兩個(gè)方

9、面:1)在現(xiàn)有的研究基礎(chǔ)上,提高深度學(xué)習(xí)方法在自然圖像文本檢測(cè)上的性能,不僅需要改進(jìn)深度卷積網(wǎng)絡(luò)內(nèi)部的隱含特征處理技術(shù),還需要能將深度學(xué)習(xí)方法與其他檢測(cè)方法有效融合運(yùn)用;2)運(yùn)用基于 CNN的深度學(xué)習(xí)方法進(jìn)行圖像質(zhì)量估計(jì)是一個(gè)較新的研究方向,沒(méi)有太多相似經(jīng)驗(yàn)可以參考,需要通過(guò)不斷的探索和大量的實(shí)驗(yàn)隨時(shí)分析并修正研究方法和策略。
  綜上所述,通過(guò)深入研究運(yùn)用深度學(xué)習(xí)的方法于自然圖像的文本檢測(cè)和無(wú)參考圖像質(zhì)量評(píng)價(jià),提出了上述若干深度

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論