![](https://static.zsdocx.com/FlexPaper/FileRoot/2019-3/14/18/5825e175-b9e0-4eb0-b22b-688da40c7f76/5825e175-b9e0-4eb0-b22b-688da40c7f76pic.jpg)
![基于HMM的單字估價值的中文自動分詞研究.pdf_第1頁](https://static.zsdocx.com/FlexPaper/FileRoot/2019-3/14/18/5825e175-b9e0-4eb0-b22b-688da40c7f76/5825e175-b9e0-4eb0-b22b-688da40c7f761.gif)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
1、隨著計算機應(yīng)用領(lǐng)域的日益廣泛以及信息處理技術(shù)水平的不斷提高,自然語言信息處理技術(shù)一直倍受關(guān)注,如何提高計算機對自然語言的理解對計算機技術(shù)的發(fā)展有著非常重要的意義。由于中文自動分詞是文本校對、信息檢索、語音識別、文本挖掘、機器翻譯等研究的前提和基礎(chǔ),所以中文自動分詞已經(jīng)成為自然語言信息處理技術(shù)的基礎(chǔ)及核心工作。
由于漢語句子構(gòu)成的多變性和復(fù)雜性,中文自動分詞已經(jīng)是中文信息自動處理的“瓶頸”。中文文字的處理與西文文字的處理相比
2、,一個明顯的不同,就是漢語詞與詞之間沒有明顯的分隔標(biāo)記。因此中文信息處理的首要問題,就是要將句子中一個個詞給分離出來,這就是中文分詞問題。
本課題研究的主要內(nèi)容,關(guān)鍵技術(shù)及創(chuàng)新點主要有以下幾個方面:
首先,本課題研究從單字在詞中構(gòu)詞位置的角度進(jìn)行思考,從而把分詞過程視為單字在詞中構(gòu)詞位置問題。基于大規(guī)模語料進(jìn)行統(tǒng)計,統(tǒng)計出單字在詞中各個位置的概率,形成單字估價值字典,為分詞奠定基礎(chǔ)。這種處理方法也是本課題研究
3、的創(chuàng)新思想之一。由于漢語中詞中字的個數(shù)主要集中四字詞以內(nèi),五字以上的詞相對較少,所以本項研究主要針對四字以內(nèi)詞中字的位置進(jìn)行統(tǒng)計單字估價值。
其次,隱馬爾科夫模型的基本理論中要解決三個基本問題,其中第二問題是解碼問題,把解碼問題轉(zhuǎn)化為分詞問題。解決解碼問題的Viterbi算法能夠找到最佳解,其思想精髓在于將全局最佳解的計算過程分解為階段最佳解的計算。利用單字估價值字典對待切分句子中各字按Viterbi思想進(jìn)行估價,然后回溯
4、切分,這樣做的一個重要優(yōu)勢在于,它能夠平衡地看待詞表詞和未登錄詞的識別問題。從而能更好的解決未登錄詞問題和大部分歧義問題。這是本課題研究創(chuàng)新思想之二。
最后,隱馬爾科夫模型要解決的第三個問題就是學(xué)習(xí)問題,根據(jù)初步切分的結(jié)果進(jìn)行分析,對錯誤切分結(jié)果進(jìn)行規(guī)模性機器學(xué)習(xí)。學(xué)習(xí)字在詞中的位置特征,把初始統(tǒng)計的單字估價值作為初始切分參數(shù),然后建立調(diào)整參數(shù)模型,使計算機反復(fù)學(xué)習(xí)調(diào)整,優(yōu)化單字估價值字典中估價值參數(shù),調(diào)整后再進(jìn)行切分。機
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于統(tǒng)計的中文自動分詞.pdf
- 中文自動分詞系統(tǒng)的研究.pdf
- 中文自動分詞若干技術(shù)的研究.pdf
- 基于Hash算法的中文自動分詞技術(shù)研究.pdf
- 基于BBS文本信息的中文自動分詞系統(tǒng)的研究.pdf
- 基于語境和停用詞驅(qū)動的中文自動分詞研究.pdf
- 基于中文分詞技術(shù)的在線自動答疑系統(tǒng)研究.pdf
- 中文自動分詞系統(tǒng)的研究與實現(xiàn).pdf
- CRFs模型下的中文自動分詞研究.pdf
- 基于領(lǐng)域語料庫的中文自動分詞系統(tǒng)的研究.pdf
- 基于HMM的中文語音合成研究.pdf
- 中文自動分詞中的歧義消解算法研究.pdf
- 基于概念的中文分詞模型研究.pdf
- 基于全切分和碎片提取的中文自動分詞系統(tǒng).pdf
- 基于統(tǒng)計規(guī)則的中文分詞研究.pdf
- 基于單字的中文全文檢索的研究與實現(xiàn).pdf
- 基于Lucene的中文分詞技術(shù)研究.pdf
- 基于詞典的中文分詞歧義算法研究.pdf
- 基于主動學(xué)習(xí)的中文分詞方法研究.pdf
- 基于CRF的中文分詞研究與實現(xiàn).pdf
評論
0/150
提交評論