技術(shù)頻道

娓娓工業(yè)
您現(xiàn)在的位置: 中國(guó)傳動(dòng)網(wǎng) > 技術(shù)頻道 > 技術(shù)百科 > 關(guān)于機(jī)器視覺(jué)的一些專業(yè)知識(shí)

關(guān)于機(jī)器視覺(jué)的一些專業(yè)知識(shí)

時(shí)間:2012-03-02 13:44:10來(lái)源:gengwt

導(dǎo)語(yǔ):?關(guān)節(jié)角度的變化能夠有效反映人體運(yùn)動(dòng)的主要特性。該文提出了一種基于關(guān)節(jié)角度信息的步態(tài)識(shí)別方法。

  關(guān)節(jié)角度的變化能夠有效反映人體運(yùn)動(dòng)的主要特性。該文提出了一種基于關(guān)節(jié)角度信息的步態(tài)識(shí)別方法。首先對(duì)運(yùn)動(dòng)人體腿部建模,采用最小二乘法擬合邊界,獲取大腿和小腿關(guān)節(jié)角度的時(shí)序信息;根據(jù)步態(tài)運(yùn)動(dòng)的準(zhǔn)周期性,將關(guān)節(jié)角度時(shí)序信息按傅立葉級(jí)數(shù)形式展開,采用遺傳算法搜索各次諧波的系數(shù)并進(jìn)行尺度變換,生成特征向量;最后使用KNN分類器進(jìn)行分類識(shí)別。該文在CMU庫(kù)上進(jìn)行實(shí)驗(yàn),得到了令人滿意的識(shí)別結(jié)果,而且當(dāng)步態(tài)發(fā)生遮擋或自遮擋時(shí),該算法具有明顯的優(yōu)勢(shì)。

  1引言

  步態(tài)識(shí)別技術(shù)是一種新興的生物特征測(cè)量技術(shù)。

  指出,步態(tài)特征具有唯一性,可以利用人體步態(tài)特征進(jìn)行身份識(shí)別?;谌梭w的步態(tài)行為特征進(jìn)行識(shí)別,可以在一定程度上克服傳統(tǒng)識(shí)別技術(shù)的不足,近年來(lái)逐漸被廣泛關(guān)注。

  步態(tài)識(shí)別方法可分為基于統(tǒng)計(jì)特征和基于模型兩類?;诮y(tǒng)計(jì)的方法直接從圖像序列中提取相應(yīng)統(tǒng)計(jì)參數(shù),作為對(duì)象分類識(shí)別的特征指標(biāo),如Huang等人[2]基于光流特征提出的主元分析法和線性判決方法混合變換,以及Wang等人[3]提出的基于輪廓的解卷繞識(shí)別方法等;而基于模型的方法則重點(diǎn)關(guān)注人的運(yùn)動(dòng)信息,預(yù)先建立人體模型,通過(guò)模型和圖像序列的匹配獲得模型參數(shù),再利用這些參數(shù)作為步態(tài)特征進(jìn)行分類,Lee等人[4]采用7個(gè)橢圓來(lái)匹配運(yùn)動(dòng)人體的二值化輪廓的不同的身體部位,然后提取橢圓的29個(gè)矩特征來(lái)分析、Yoo等人[5]根據(jù)解剖學(xué)的知識(shí),進(jìn)行軀體的拓?fù)浞治?將人體的運(yùn)動(dòng)外輪廓簡(jiǎn)化為一種2D的stick模型。

  目前,兩類方法各自存在著一些缺點(diǎn):基于統(tǒng)計(jì)的步態(tài)識(shí)別方法對(duì)背景和光照信號(hào)的變化敏感,且難以回避運(yùn)動(dòng)場(chǎng)景中的遮擋現(xiàn)象對(duì)識(shí)別能力所造成的嚴(yán)重影響;而基于模型的步態(tài)識(shí)別方法將整個(gè)步態(tài)序列的每幀單獨(dú)看待,損失了步態(tài)周期的有機(jī)整體性。文獻(xiàn)[6]指出身體的動(dòng)態(tài)信息主要表現(xiàn)為大腿和小腿的擺動(dòng)規(guī)律,因此可以在建立人體模型時(shí)作一些簡(jiǎn)化。

  針對(duì)上述問(wèn)題,本文提出了一種基于關(guān)節(jié)角度信息的步態(tài)識(shí)別算法:將腿部輪廓邊界采用線段模型近似,并用最小二乘法擬合,計(jì)算出大腿和小腿的關(guān)節(jié)角度;考慮到步態(tài)運(yùn)動(dòng)的準(zhǔn)周期性,將關(guān)節(jié)角度時(shí)序信息按傅利葉級(jí)數(shù)形式展開,利用遺傳算法搜索出各次諧波的系數(shù),對(duì)各次諧波的幅度值進(jìn)行尺度標(biāo)準(zhǔn)化,由此構(gòu)成特征向量進(jìn)行步態(tài)的分類識(shí)別。

  2腿部關(guān)節(jié)角度信息提取

  2.1運(yùn)動(dòng)人體輪廓提取

  采用背景消減法來(lái)提取運(yùn)動(dòng)目標(biāo)。先計(jì)算出背景圖像和當(dāng)前圖像的差值,再對(duì)差值圖像進(jìn)行二值化,得到二值圖像,如圖1(a),(b),(c)所示。對(duì)上述二值圖像做進(jìn)一步的后處理。最終提取出來(lái)的人體輪廓如圖1(d)所示。由于采用背景消減法是運(yùn)動(dòng)目標(biāo)檢測(cè)的常用方法,限于篇幅,在此我們就不贅述了。

  2.2運(yùn)動(dòng)人體腿部建模

  文獻(xiàn)[5]中的Stick模型把人體看成是由若干剛體構(gòu)件組成的機(jī)構(gòu),并在該假設(shè)下將運(yùn)動(dòng)人體骨骼化為一組服從特定連接順序的線段,且每條線段都具有一定的轉(zhuǎn)動(dòng)靈活性。基于運(yùn)動(dòng)學(xué)分析的步態(tài)識(shí)別研究,采用各關(guān)節(jié)角度的時(shí)序變化來(lái)描述人體步態(tài)行為。在Stick模型中關(guān)節(jié)角度可定義為相應(yīng)線段與給定軸線之間的夾角。考慮到腿部運(yùn)動(dòng)是步態(tài)的主要組成部分,本文對(duì)Stick模型進(jìn)行簡(jiǎn)化,僅對(duì)運(yùn)動(dòng)人體的大腿和小腿進(jìn)行局部建模分析。即由輪廓圖像生成腿部線段,獲得大腿和小腿的關(guān)節(jié)角度信息。

  2.3腿部關(guān)節(jié)角度提取

  運(yùn)用邊界搜索檢測(cè)出輪廓圖像中的大腿(或小腿)邊界。采用線性最小二乘法對(duì)人體輪廓圖像中的大腿(或小腿)邊界進(jìn)行線段擬合,將擬合結(jié)果作為本文模型中大腿(或小腿)的對(duì)應(yīng)線段。設(shè)擬合出來(lái)的線段所在直線為:

  則大腿(或小腿)對(duì)應(yīng)關(guān)節(jié)角度

  為:

  對(duì)序列輪廓圖像依次進(jìn)行上述處理,即提取出了大腿和小腿關(guān)節(jié)角度的時(shí)序信息。

  3腿部特征信號(hào)提取

  3.1步態(tài)信號(hào)周期性

  Murray[1]的步態(tài)研究表明步態(tài)運(yùn)動(dòng)具有準(zhǔn)周期性的特點(diǎn)。文獻(xiàn)[7]使用自相似圖表確定步態(tài)周期,本文則將最大輪廓寬度取得極大值時(shí)對(duì)應(yīng)的圖像幀確定為步態(tài)周期的起始點(diǎn)。由于單個(gè)周期包含了周期信號(hào)的全部信息,本文算法選取步態(tài)序列中任意一個(gè)步態(tài)周期參與步態(tài)識(shí)別過(guò)程。

  3.2遺傳算法搜索傅利葉級(jí)數(shù)系數(shù)

  根據(jù)傅利葉理論,周期性連續(xù)信號(hào)可按傅利葉級(jí)數(shù)形式進(jìn)行展開。例如,周期為的連續(xù)信號(hào),可展開成下式:

  式中,

  為信號(hào)的直流分量,

  對(duì)應(yīng)信號(hào)各次諧波的系數(shù),是最大諧波次數(shù)。對(duì)于步態(tài)信號(hào)而言,C.Angeloni等人[8]的研究表明,正常步態(tài)的最大頻率成分不超過(guò)5Hz,而正常步態(tài)單個(gè)周期的持續(xù)時(shí)間大約為1s,即正常步態(tài)的基波頻率為1Hz。鑒于此,本文對(duì)大腿和小腿關(guān)節(jié)角度的時(shí)序信息進(jìn)行傅利葉級(jí)數(shù)展開時(shí),均取=5。由于人體行進(jìn)過(guò)程中的遮擋問(wèn)題以及其它干擾因素的存在,總會(huì)出現(xiàn)某些幀的關(guān)節(jié)角度信息難以提取的情況,因此無(wú)法直接求解出各次諧波系數(shù)。

  遺傳算法是模仿自然界生物進(jìn)化機(jī)制發(fā)展起來(lái)的隨機(jī)全局搜索和優(yōu)化方法,它能在搜索過(guò)程中自動(dòng)獲取和積累有關(guān)搜索空間的知識(shí),并自適應(yīng)地控制搜索過(guò)程以求得最優(yōu)(或近似最優(yōu))解。本文采用遺傳算法來(lái)搜索各次諧波的系數(shù),本質(zhì)上是根據(jù)提取出來(lái)的有限幀關(guān)節(jié)角度,對(duì)一個(gè)步態(tài)周期內(nèi)關(guān)節(jié)角度的連續(xù)變化規(guī)律進(jìn)行估計(jì)。本文選定的待優(yōu)化目標(biāo)函數(shù)為:

  進(jìn)行多次搜索,選擇當(dāng)取得最小值時(shí)的那組系數(shù)值作為步態(tài)周期的各次諧波系數(shù)。其中N為一個(gè)步態(tài)周期內(nèi)的總圖像幀數(shù),z(t)表示由第t幀圖像得到的大腿(或小腿)關(guān)節(jié)角度值,則根據(jù)遺傳算法搜索得到的系數(shù)帶入(4)式計(jì)算得到。圖2給出了根據(jù)已知關(guān)節(jié)角度信息,采用遺傳算法估計(jì)出來(lái)的某步態(tài)周期內(nèi)大腿和小腿關(guān)節(jié)角度值的連續(xù)性時(shí)序變化過(guò)程??梢钥闯?,在關(guān)節(jié)角度值已知處,估計(jì)值具有較高的估計(jì)精度。

  實(shí)驗(yàn)發(fā)現(xiàn),同一個(gè)人在不同步態(tài)周期中,對(duì)應(yīng)的大腿(和小腿)關(guān)節(jié)角度時(shí)序變化的估計(jì)曲線頗為相似,而不同人對(duì)應(yīng)的估計(jì)曲線之間則存在一定的差異。圖3給出了不同人的大腿關(guān)節(jié)角度時(shí)序變化的估計(jì)曲線。

  3.4生成步態(tài)特征向量

  不同人正常步下步態(tài)周期的持續(xù)時(shí)間有一定差異,即便是同一個(gè)人,在不同步態(tài)模式下(如快步走與慢步走)對(duì)應(yīng)的步態(tài)周期也是不一致的。顯然,必須對(duì)遺傳算法搜索出的各次諧波系數(shù)進(jìn)行尺度變換,方能實(shí)現(xiàn)準(zhǔn)確的步態(tài)識(shí)別。本文利用傅利葉變換的尺度縮放性質(zhì),對(duì)各次諧波系數(shù)所對(duì)應(yīng)的頻率進(jìn)行規(guī)一化,并將變換后所得各次諧波系數(shù)的幅度值

  所組成的矢量,作為步態(tài)特征向量,用來(lái)進(jìn)行步態(tài)的分類識(shí)別。

  4實(shí)驗(yàn)及分析

  4.1步態(tài)數(shù)據(jù)庫(kù)

  本文采用CarnegieMellon大學(xué)CMU步態(tài)數(shù)據(jù)庫(kù)進(jìn)行實(shí)驗(yàn)驗(yàn)證。該數(shù)據(jù)庫(kù)共含25個(gè)人,每個(gè)人包含4種不同的步態(tài)模式:慢步走、傾斜走、快步走和抱球走,如圖4所示。每種步態(tài)模式有六個(gè)視角,則每個(gè)人對(duì)應(yīng)有24個(gè)步態(tài)視頻序列。每一個(gè)視頻序列約11秒長(zhǎng),幀頻率30幀/秒,圖像分辨率為640×480。

  4.2實(shí)驗(yàn)結(jié)果及分析

  本文從CMU庫(kù)中隨機(jī)選擇了單一視角下9個(gè)人的視頻序列進(jìn)行步態(tài)識(shí)別(每人有4種不同的步態(tài)模式,共計(jì)36個(gè)序列)。

  實(shí)驗(yàn)選擇了最近鄰分類器和K-近鄰分類器兩種模式分類方法,使用留一校驗(yàn)法對(duì)本文方法的識(shí)別率進(jìn)行無(wú)偏估計(jì)。每次留出一個(gè)樣本,然后訓(xùn)練所有余下樣本。最后,根據(jù)留出樣本與余下樣本的相似性來(lái)對(duì)被留出的樣本進(jìn)行分類。表1給出了分別采用NN和3NN分類器的正確識(shí)別率。

  從表1可以看出,將特征向量采用級(jí)聯(lián)方式的融合,并選用3NN分類器進(jìn)行分類,可以獲得更高的識(shí)別率。特征向量級(jí)聯(lián)在一定程度上避免了由于單個(gè)關(guān)節(jié)特征數(shù)據(jù)誤差所導(dǎo)致的誤判。采用NN分類器時(shí),對(duì)慢步走和抱球走兩種步行狀態(tài),級(jí)聯(lián)識(shí)別率相對(duì)于小腿關(guān)節(jié)識(shí)別率并沒(méi)有明顯的提高,這可能跟樣本數(shù)量有限有關(guān)。

  4.3算法比較

  表2列出和本文采用相同或類似規(guī)模數(shù)據(jù)庫(kù)的文獻(xiàn)相關(guān)算法的識(shí)別結(jié)果,具有一定的可比性,從統(tǒng)計(jì)的結(jié)果可以看出本文算法具有較高的識(shí)別率。

  5結(jié)語(yǔ)

  本文提出了一種基于關(guān)節(jié)角度信息的步態(tài)識(shí)別算法,克服了通常情況下因遮擋而無(wú)法識(shí)別的難題。并在CMU庫(kù)上對(duì)該方法進(jìn)行了實(shí)驗(yàn)驗(yàn)證,獲得了令人滿意的識(shí)別效果。本文僅考慮了單一視角(攝像機(jī)鏡頭的主軸與人的行走方向垂直)的情況。

  進(jìn)一步的研究包括:提高算法的實(shí)時(shí)性和魯棒性,在更大規(guī)模的數(shù)據(jù)庫(kù)中對(duì)本文方法進(jìn)行識(shí)別性能測(cè)試,并分析特征提取對(duì)視角變化的敏感性,提取對(duì)于視角與人的行走速度不敏感的步態(tài)特征。

  參考文獻(xiàn)

  [1]MurrayM.P,DroughtAB,KoryRC.Walkingpatternsofnormalmen,J.BoneJointSurg,6-A(2)(1964)335–360.

  [2]HuangP,HarrisC,NixonM.Humangaitrecognitionincanonicalspaceusingtemporaltemplates.VisionImageandSignalProcessing,1999,146(2):93-100

  [3]WangL,HuWMandTanTN.Silhouetteanalysisbasedgaitrecognitionforhumanidentification.IEEETrans.PatternAnalysisandMachineIntelligence,2003,Vol.25,No.12,pp.1505-151

標(biāo)簽:

點(diǎn)贊

分享到:

上一篇:英諾伺服 特種磁編碼器設(shè)計(jì)

下一篇:微能WIN-V63矢量控制變頻器在...

中國(guó)傳動(dòng)網(wǎng)版權(quán)與免責(zé)聲明:凡本網(wǎng)注明[來(lái)源:中國(guó)傳動(dòng)網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國(guó)傳動(dòng)網(wǎng)(www.connectcrack.com)獨(dú)家所有。如需轉(zhuǎn)載請(qǐng)與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個(gè)人轉(zhuǎn)載使用時(shí)須注明來(lái)源“中國(guó)傳動(dòng)網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來(lái)源的稿件,均來(lái)自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請(qǐng)保留稿件來(lái)源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

網(wǎng)站簡(jiǎn)介|會(huì)員服務(wù)|聯(lián)系方式|幫助信息|版權(quán)信息|網(wǎng)站地圖|友情鏈接|法律支持|意見反饋|sitemap

傳動(dòng)網(wǎng)-工業(yè)自動(dòng)化與智能制造的全媒體“互聯(lián)網(wǎng)+”創(chuàng)新服務(wù)平臺(tái)

網(wǎng)站客服服務(wù)咨詢采購(gòu)咨詢媒體合作

Chuandong.com Copyright ?2005 - 2025 ,All Rights Reserved 深圳市奧美大唐廣告有限公司 版權(quán)所有
粵ICP備 14004826號(hào) | 營(yíng)業(yè)執(zhí)照證書 | 不良信息舉報(bào)中心 | 粵公網(wǎng)安備 44030402000946號(hào)