![](https://static.zsdocx.com/FlexPaper/FileRoot/2019-3/6/23/ee26bf0a-c6d6-4cb2-9048-f16dec09ffed/ee26bf0a-c6d6-4cb2-9048-f16dec09ffedpic.jpg)
![基于HHT-IF與MFCC混合參數(shù)的說(shuō)話人識(shí)別系統(tǒng)的研究.pdf_第1頁(yè)](https://static.zsdocx.com/FlexPaper/FileRoot/2019-3/6/23/ee26bf0a-c6d6-4cb2-9048-f16dec09ffed/ee26bf0a-c6d6-4cb2-9048-f16dec09ffed1.gif)
版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、說(shuō)話人識(shí)別,也被稱為聲紋識(shí)別,是從說(shuō)話人語(yǔ)音中提取特征參數(shù),利用這些特征參數(shù)建立模型,然后使用某種識(shí)別算法進(jìn)行識(shí)別的一種身份鑒別和認(rèn)證技術(shù)。隨著互聯(lián)網(wǎng)的快速發(fā)展以及人們對(duì)高效、便捷生活方式的不斷追求,人們經(jīng)常使用電子商務(wù)、電子金融、呼叫查詢等自助服務(wù)。因此,在開(kāi)展這些業(yè)務(wù)之前對(duì)個(gè)人的身份進(jìn)行認(rèn)證是保證數(shù)據(jù)傳輸安全以及不遭受黑客的侵襲而導(dǎo)致信息丟失的基礎(chǔ)。對(duì)個(gè)人身份進(jìn)行說(shuō)話人識(shí)別,尤其是與文本無(wú)關(guān)的說(shuō)話人識(shí)別的研究也將具有重要的實(shí)踐價(jià)值而
2、被大眾越來(lái)越多的關(guān)注。
說(shuō)話人識(shí)別技術(shù)雖然已經(jīng)有了長(zhǎng)時(shí)間的發(fā)展與進(jìn)步,也取得了許多驕人的成績(jī),但仍有很多的問(wèn)題有待我們解決。尤其是在平常的應(yīng)用中,由于受到噪聲的影響,從而削弱其性能。本文提出一種將支持向量機(jī)作為識(shí)別模型的聲紋識(shí)別系統(tǒng),從識(shí)別系統(tǒng)的整體框架入手,改進(jìn)了聲紋系統(tǒng)中端點(diǎn)檢測(cè)、特征參數(shù)提取以及建立識(shí)別模型等環(huán)節(jié)。主要內(nèi)容如下:
首先,針對(duì)噪聲環(huán)境下,識(shí)別精度會(huì)有所降低的問(wèn)題,本文的端點(diǎn)檢測(cè)方法是將過(guò)零率與加權(quán)
3、改進(jìn)的譜熵法相結(jié)合的門(mén)限法,加權(quán)譜熵即先計(jì)算出每幀信號(hào)的譜熵值,并進(jìn)行加權(quán)處理,使語(yǔ)音信號(hào)的動(dòng)態(tài)特性更為明顯的表現(xiàn)出來(lái),然后將該方法與傳統(tǒng)的雙門(mén)限法與譜熵法進(jìn)行不同環(huán)境下的對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果驗(yàn)證了這種改進(jìn)的雙門(mén)限法在性能與實(shí)用性上都得到了提高。
其次,因?yàn)镸FCC、 MFCC與WMFCC各自從不同的角度描述了語(yǔ)音信號(hào)的特征,所以在特征提取階段,利用增減分量法計(jì)算出這三類參數(shù)各自分量的貢獻(xiàn),選取它們貢獻(xiàn)最大的分量混合,然后用HH
4、T算法計(jì)算出語(yǔ)音信號(hào)各IMF分量的瞬時(shí)頻率HHT-IF與以上混合參數(shù)再次融合,最后得到一種新型特征參數(shù)。該參數(shù)克服了傳統(tǒng)特征參數(shù)的一些不足。
再次,本文說(shuō)話人識(shí)別模型選用SVM模型,首先介紹了SVM的基本原理,并對(duì)算法中核函數(shù)的選取進(jìn)行了實(shí)驗(yàn)對(duì)比,結(jié)果表明,本文實(shí)驗(yàn)中選擇了徑向基函數(shù)效果最好。然后將本文提出的端點(diǎn)檢測(cè)與特征參數(shù)對(duì)整個(gè)系統(tǒng)進(jìn)行改進(jìn)并進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)表明識(shí)別率與魯棒性都有所改善。
最后,對(duì)本文的所有工作進(jìn)行
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于MFCC的說(shuō)話人識(shí)別系統(tǒng)研究.pdf
- 基于MFCC和GMM的說(shuō)話人識(shí)別系統(tǒng)研究.pdf
- 基于MFCC特征和GMM模型的說(shuō)話人識(shí)別系統(tǒng)研究.pdf
- 基于MFCC與IMFCC的說(shuō)話人識(shí)別研究.pdf
- 基于動(dòng)態(tài)MFCC的說(shuō)話人識(shí)別研究.pdf
- 基于高斯混合模型的說(shuō)話人識(shí)別系統(tǒng)的研究.pdf
- 基于MFCC和PSO-BP神經(jīng)網(wǎng)絡(luò)的說(shuō)話人識(shí)別系統(tǒng).pdf
- 基于MFCC說(shuō)話人識(shí)別算法研究.pdf
- 基于改進(jìn)MFCC參數(shù)的語(yǔ)音識(shí)別系統(tǒng)的應(yīng)用.pdf
- 說(shuō)話人識(shí)別系統(tǒng)的研究與開(kāi)發(fā).pdf
- 基于DSP的說(shuō)話人識(shí)別系統(tǒng).pdf
- 說(shuō)話人識(shí)別系統(tǒng)的研究與實(shí)現(xiàn).pdf
- 基于GMM說(shuō)話人分類的說(shuō)話人識(shí)別系統(tǒng)研究.pdf
- 基于ARM的說(shuō)話人識(shí)別系統(tǒng)的研究與實(shí)現(xiàn).pdf
- 基于GMM的說(shuō)話人識(shí)別系統(tǒng)研究.pdf
- 基于網(wǎng)絡(luò)的說(shuō)話人識(shí)別系統(tǒng)研究.pdf
- 基于GMM的說(shuō)話人識(shí)別系統(tǒng)研究與實(shí)現(xiàn).pdf
- 基于VQ與HMM的說(shuō)話人識(shí)別系統(tǒng)的研究.pdf
- 基于FPGA的說(shuō)話人識(shí)別系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn).pdf
- 基于HHT與信息融合的說(shuō)話人識(shí)別技術(shù)研究.pdf
評(píng)論
0/150
提交評(píng)論