![](https://static.zsdocx.com/FlexPaper/FileRoot/2019-3/14/17/362e23ab-1e55-4f15-adb6-0315998bf321/362e23ab-1e55-4f15-adb6-0315998bf321pic.jpg)
![基于多體感設(shè)備的人體行為識別.pdf_第1頁](https://static.zsdocx.com/FlexPaper/FileRoot/2019-3/14/17/362e23ab-1e55-4f15-adb6-0315998bf321/362e23ab-1e55-4f15-adb6-0315998bf3211.gif)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
1、隨著體感設(shè)備的成功推出和普及,基于多體感設(shè)備的人體行為識別在智能監(jiān)控,人機(jī)交互,人體運(yùn)動分析等領(lǐng)域得到廣泛應(yīng)用?;诙鄠€體感設(shè)備進(jìn)行數(shù)據(jù)融合可以解決運(yùn)動跟蹤中的數(shù)據(jù)不完備等問題。在本論文中,我們對多體感設(shè)備的標(biāo)定,人體運(yùn)動的描述方法,人體運(yùn)動數(shù)據(jù)的融合以及人體行為識別等方面做了細(xì)致的分析和研究,并取得了以下成果:
(1)研究分析攝像機(jī)標(biāo)定技術(shù)。本文首先詳細(xì)分析了基于針孔模型的攝像機(jī)標(biāo)定的基本原理。在此基礎(chǔ)上建立了雙目攝像機(jī)的成
2、像模型,設(shè)計實現(xiàn)了基于張正友標(biāo)定法的雙體感設(shè)備攝像頭的標(biāo)定算法,并完成了標(biāo)定工作。
(2)人體運(yùn)動描述方法的研究。本文首先研究體感設(shè)備獲取人體運(yùn)動數(shù)據(jù)的原理,基于人體運(yùn)動數(shù)據(jù)提出了一種描述人體拓?fù)浣Y(jié)構(gòu)的層次骨架模型并提出了關(guān)節(jié)點空間取向的計算方法,最后建立了一種符合人體拓?fù)浣Y(jié)構(gòu)的統(tǒng)一的全局骨架模型并提出了骨架模型的生理與運(yùn)動約束。
(3)人體運(yùn)動數(shù)據(jù)的融合研究。本文首先從體感設(shè)備的參數(shù)進(jìn)行分析,提出了一種基于Kine
3、ct可信度參數(shù)的運(yùn)動數(shù)據(jù)濾波算法,處理運(yùn)動數(shù)據(jù)。在此基礎(chǔ)上提出了基于關(guān)節(jié)點變權(quán)重計算的數(shù)據(jù)融合算法,完成數(shù)據(jù)融合工作。最后通過分析建立的人體運(yùn)動模型,提出了基于改進(jìn)的卡爾曼濾波器預(yù)測關(guān)節(jié)點三維空間坐標(biāo)位置算法,預(yù)測未能捕獲的關(guān)節(jié)點運(yùn)動數(shù)據(jù)。實驗結(jié)果證明通過采用上述算法能夠較好的呈現(xiàn)每一幀中人體行為所對應(yīng)的完整骨架模型。
(4)人體行為識別的研究。本文首先分析主成分分析方法,對運(yùn)動數(shù)據(jù)降維,提取運(yùn)動數(shù)據(jù)的特征。在此基礎(chǔ)上,分析S
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于多特征融合的人體行為識別.pdf
- 基于多特征融合的人體行為識別技術(shù)研究.pdf
- 基于視覺的人體行為識別研究.pdf
- 基于HMM的人體行為識別研究.pdf
- 基于Kinect的人體行為識別研究.pdf
- 基于視頻的人體行為識別分析.pdf
- 基于視覺的人體行為檢測識別研究.pdf
- 基于分層模型的人體行為識別研究.pdf
- 基于“多視角”的人體動作識別算法.pdf
- 基于多特征融合的人體姿態(tài)識別.pdf
- 基于步態(tài)壓力特征的人體行為識別.pdf
- 基于多層特征融合的人體行為識別.pdf
- 基于視覺的人體運(yùn)動行為識別研究.pdf
- 基于可穿戴設(shè)備的人體行為識別與狀態(tài)監(jiān)測方法研究.pdf
- 基于多特征融合的人體基本行為識別方法研究.pdf
- 基于無線感知的人體行為識別研究.pdf
- 基于深度序列的人體行為識別研究.pdf
- 基于時空興趣點的人體行為識別.pdf
- 基于傳感數(shù)據(jù)的人體行為識別研究.pdf
- 基于組稀疏編碼的人體行為識別.pdf
評論
0/150
提交評論