![](https://static.zsdocx.com/FlexPaper/FileRoot/2019-3/6/23/9a974cd5-d6ec-412b-a7cf-a75ac5dc3352/9a974cd5-d6ec-412b-a7cf-a75ac5dc3352pic.jpg)
![基于深度學(xué)習(xí)的人群密度估計(jì)及稠密人群計(jì)數(shù)的研究.pdf_第1頁](https://static.zsdocx.com/FlexPaper/FileRoot/2019-3/6/23/9a974cd5-d6ec-412b-a7cf-a75ac5dc3352/9a974cd5-d6ec-412b-a7cf-a75ac5dc33521.gif)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
1、人群密度估計(jì)與稠密人群計(jì)數(shù)是當(dāng)前計(jì)算機(jī)視覺領(lǐng)域的研究熱點(diǎn)之一,具有非常廣泛的應(yīng)用。隨著國家經(jīng)濟(jì)的持續(xù)高速發(fā)展,城鎮(zhèn)化不斷推進(jìn),城市人口規(guī)模越來越大,人群密集行為越來越多,由此帶來的恐怖事件、踩踏事件也日趨增多,如上海外灘踩踏事件、甘肅固原踩踏事件等。目前通過監(jiān)控視頻實(shí)現(xiàn)人群密度估計(jì)和準(zhǔn)確人群計(jì)數(shù)是一個至關(guān)重要的任務(wù),其結(jié)果對人群檢測、人群異常行為分析等有重要的參考作用。深度學(xué)習(xí)是一種由多個處理層組成的計(jì)算模型,它不需要人工標(biāo)注各種特征,
2、可以通過學(xué)習(xí)獲得數(shù)據(jù)的多抽象層表示。近年來,深度學(xué)習(xí)方法的廣泛應(yīng)用顯著提高了語音識別、視覺目標(biāo)識別和檢測結(jié)果。卷積神經(jīng)網(wǎng)絡(luò)是目前深度學(xué)習(xí)中最為流行的學(xué)習(xí)算法,其主要優(yōu)勢體現(xiàn)在局部連接和權(quán)值共享,不僅降低了網(wǎng)絡(luò)模型的復(fù)雜度,減少了權(quán)值數(shù)量,而且這種網(wǎng)絡(luò)結(jié)構(gòu)對平抑、旋轉(zhuǎn)、傾斜、比例縮放等具有高度不變形。本文基于深度學(xué)習(xí)方法對復(fù)雜場景中人群密度估計(jì)與稠密人群計(jì)數(shù)問題進(jìn)行研究。
稠密人群的特征為人群數(shù)量極大、場景透視、相鄰個體間存在嚴(yán)
3、重的遮擋與阻塞,為有效降低上述特征對人群密度估計(jì)和人群計(jì)數(shù)帶來的影響,本文首先引入局部稠密概念,將圖像分塊,通過均勻化樣本、添加距離閾值、增加歐氏距離權(quán)值改進(jìn)kNN算法,并將D-kNN算法與灰度共生矩陣結(jié)合用于人群密度估計(jì)。均勻化樣本和設(shè)置閾值避免了因目標(biāo)場景與樣本之間的距離過大造成的誤判,保證了分類的性能;添加距離權(quán)值增強(qiáng)了特征的表示能力,降低了高維度特征對分類結(jié)果造成的影響。其次,本文借鑒卷積神經(jīng)網(wǎng)絡(luò)自動提取特征和對場景扭曲的不變性
4、,提出了一種 LR-CNN稠密人群計(jì)數(shù)模型。LR-CNN模型可以從分割和壓縮過的圖像中提取到原圖像的有效信息;通過使用新的LR激活函數(shù)給卷積神經(jīng)網(wǎng)絡(luò)添加非線性因素,保留了部分負(fù)值,修正了數(shù)據(jù)分布,解決了ReLU訓(xùn)練時神經(jīng)元易死亡的問題;使用人群密度估計(jì)得出的稠密塊來訓(xùn)練LR-CNN稠密人群計(jì)數(shù)模型,降低了人群分布不均勻?qū)θ巳河?jì)數(shù)問題帶來的影響。
為了驗(yàn)證和分析算法性能,本文采用當(dāng)前較為流行的 ShanghaiTech和UCF_
5、CC_50數(shù)據(jù)集。使用均絕對誤差(MAE)和均方誤差(MSE)作為評估算法性能的標(biāo)準(zhǔn),實(shí)驗(yàn)結(jié)果表明:本文設(shè)計(jì)的CNN計(jì)數(shù)模型在測試集上的MAE和MSE分別為:169.4,258.6;35.1,57.3;408.7,460.3;2.19,7.63;在稠密人群計(jì)數(shù)方面MAE和MSE較以往的方法有了明顯的降低,提高了計(jì)數(shù)的準(zhǔn)確率,對稠密人群計(jì)數(shù)因遮擋透視帶來的問題提供了有效的解決方法。通過實(shí)驗(yàn)測試及與其他方法的對比,在高人群密度場景下較以往的
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于視頻的人群密度估計(jì)研究.pdf
- 基于紋理分析的人群密度估計(jì).pdf
- 基于視頻圖像的人群密度估計(jì)研究.pdf
- 場景監(jiān)控下的人群密度估計(jì)研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人群密度估計(jì).pdf
- 視頻監(jiān)控場景中的人群密度估計(jì)研究.pdf
- 人群密度估計(jì)的算法研究.pdf
- 人群的密度估計(jì)與運(yùn)動估計(jì).pdf
- 基于灰度共生矩陣的人群密度估計(jì)算法研究.pdf
- 智能視頻監(jiān)控中的人群密度估計(jì)方法.pdf
- 基于人群密度估計(jì)的視頻監(jiān)控技術(shù).pdf
- 視頻監(jiān)控中人群密度估計(jì)研究.pdf
- 基于視頻的目標(biāo)跟蹤及人群密度估計(jì)方法研究.pdf
- 視頻監(jiān)控中人群密度估計(jì)和人群異常行為識別.pdf
- 視頻監(jiān)控中的人群密度估計(jì)和人數(shù)統(tǒng)計(jì)技術(shù)研究.pdf
- 人群密度估計(jì)研究及其在醫(yī)院中的應(yīng)用.pdf
- 機(jī)場航站樓視頻監(jiān)控系統(tǒng)中的人群密度估計(jì)研究.pdf
- 智能視頻監(jiān)控中人群密度估計(jì)方法研究.pdf
- 重點(diǎn)視頻監(jiān)控區(qū)域的人群密度估計(jì)改進(jìn)算法的研究與實(shí)現(xiàn).pdf
- 監(jiān)控視頻中人群的密度估計(jì)和行為分析.pdf
評論
0/150
提交評論