青青国产揄拍视频,高清无码免费在线观看a,2022最新久久久视精品爱,天天躁夜夜躁狠狠躁图片swag

步態(tài)識(shí)別:50米外 秒讀你的“活體密碼”


在央視大型科技挑戰(zhàn)節(jié)目《機(jī)智過(guò)人》中,由中科院自動(dòng)化所研發(fā)出的步態(tài)識(shí)別系統(tǒng),先后對(duì)10個(gè)身高、體型相似的蒙面人“嫌疑犯”與21只體型、毛色相似的金毛犬進(jìn)行識(shí)別,在與“最強(qiáng)人類”袁夢(mèng)(國(guó)際記憶大師,曾成功從168條音軌中辨識(shí)出TFBOYS三位的音軌)的挑戰(zhàn)中,均取得了成功。

憑借“遠(yuǎn)距離步態(tài)識(shí)別系統(tǒng)研究與應(yīng)用”項(xiàng)目,中國(guó)科學(xué)院自動(dòng)化研究所及其所孵化的人工智能企業(yè)銀河水滴科技(北京)有限公司,獲得2018年度北京市科學(xué)技術(shù)獎(jiǎng)二等獎(jiǎng)。

又快又準(zhǔn),不看臉也能快速辨認(rèn)

步態(tài)識(shí)別是一種非接觸的生物特征識(shí)別技術(shù)。顧名思義,就是通過(guò)人們走路的姿態(tài)進(jìn)行身份識(shí)別?!霸O(shè)想這樣一個(gè)情景:某人頭戴帽子口罩,臉部被遮擋,并離攝像頭很遠(yuǎn),這時(shí)已經(jīng)無(wú)法根據(jù)臉部信息識(shí)別其身份,然而仍然可以分析他的步態(tài)信息,通過(guò)步態(tài)識(shí)別系統(tǒng)識(shí)別他的身份。”項(xiàng)目負(fù)責(zé)人、中科院自動(dòng)化所研究員王亮舉例說(shuō),與其他生物識(shí)別技術(shù)相比,步態(tài)識(shí)別具有遠(yuǎn)距離、非接觸、不易偽裝等優(yōu)點(diǎn)。

首先是步態(tài)識(shí)別適用距離更遠(yuǎn)。通常情況下,為達(dá)到良好識(shí)別效果,虹膜識(shí)別需要目標(biāo)在60厘米以內(nèi);人臉識(shí)別需要目標(biāo)在3米以內(nèi);而步態(tài)識(shí)別的目標(biāo)可以遠(yuǎn)達(dá)50米。其次是步態(tài)識(shí)別為非受控識(shí)別,無(wú)需識(shí)別對(duì)象主動(dòng)配合與參與。指紋識(shí)別、虹膜識(shí)別、人臉識(shí)別等都需要識(shí)別對(duì)象主動(dòng)配合。步態(tài)是遠(yuǎn)距離、非受控場(chǎng)景下唯一可清晰成像的生物特征,即便一個(gè)人在幾十米外背對(duì)普通攝像頭隨意走動(dòng),步態(tài)識(shí)別算法也可對(duì)其進(jìn)行身份判斷。再者,步態(tài)難以偽裝。不同的體型、肌肉骨骼特點(diǎn)、運(yùn)動(dòng)神經(jīng)靈敏度、走路姿態(tài)等特征共同決定了步態(tài)具有較好的區(qū)分能力,通過(guò)精巧設(shè)計(jì)的算法和海量數(shù)據(jù)的訓(xùn)練,機(jī)器可以更好地識(shí)別這些細(xì)節(jié)特征。

黑科技滿滿的《碟中諜5》中,最吸睛的當(dāng)屬安保系統(tǒng)的最后一道防線——步態(tài)識(shí)別,通過(guò)分析人的身體體型和行走姿態(tài)來(lái)識(shí)別身份,這道防線讓阿湯哥也難以瞞天過(guò)海?!懊總€(gè)人的肌肉力量、肌腱和骨骼長(zhǎng)度和密度,以及每個(gè)人的神經(jīng)靈敏程度、協(xié)調(diào)能力、體重、重心等生理?xiàng)l件都是不同的,所以,每個(gè)人走路的姿勢(shì)都是不同的。人們可以借助道具將自己的外形甚至是性別進(jìn)行翻天覆地的改變,卻沒(méi)辦法改變自己的走路姿態(tài)?!蓖趿帘硎尽?/p>

而相較于依靠人力從海量監(jiān)控視頻中快速查找目標(biāo)人物的做法,步態(tài)識(shí)別不僅能實(shí)現(xiàn)對(duì)人海戰(zhàn)術(shù)的替代,極大提升檢索和識(shí)別的效率和準(zhǔn)確度,而且當(dāng)出現(xiàn)遠(yuǎn)距離、非配合、全視角(如只有側(cè)面和背面身形)、弱光線、人臉隱蔽/遮擋、目標(biāo)人物多次換裝等一種或多種情況時(shí),用步態(tài)識(shí)別技術(shù)也能成功搜檢目標(biāo)人物。

精確的圖像分割和數(shù)據(jù)算法支撐

然而,要精確地通過(guò)步態(tài)特征識(shí)別出人的身份信息,需要復(fù)雜的系統(tǒng)支撐。步態(tài)識(shí)別系統(tǒng)包含了檢測(cè)、跟蹤、分割、識(shí)別等部分,任何一個(gè)模塊都將對(duì)整體系統(tǒng)產(chǎn)生影響。

“遠(yuǎn)距離步態(tài)識(shí)別系統(tǒng)研究與應(yīng)用”項(xiàng)目在算法層面對(duì)步態(tài)識(shí)別系統(tǒng)的4個(gè)關(guān)鍵模塊分別進(jìn)行研發(fā),通過(guò)行人檢測(cè)算法,將行人從背景中找出來(lái),檢測(cè)算法需要能夠處理遠(yuǎn)距離、復(fù)雜背景以及部分遮擋等情況;與人臉識(shí)別只對(duì)一張圖片識(shí)別不同,步態(tài)識(shí)別需要收集同一個(gè)人行走的視頻序列,且實(shí)際場(chǎng)景中通常有多個(gè)人需要同時(shí)識(shí)別,因此需要使用在線多目標(biāo)跟蹤技術(shù)將同一個(gè)人的序列收集起來(lái);步態(tài)能夠去除著裝顏色的干擾,只關(guān)注人走路的方式,因此需要使用人形分割算法將人從背景中分離出來(lái);最后,對(duì)一系列分割序列通過(guò)步態(tài)識(shí)別算法進(jìn)行識(shí)別。

在中科院自動(dòng)化所的模式識(shí)別國(guó)家重點(diǎn)實(shí)驗(yàn)室,記者看到了項(xiàng)目的“高精度人形圖像分割方法”演示。無(wú)論是復(fù)雜的背景、多樣的姿態(tài)、不同的尺度變化以及不同的衣著,系統(tǒng)都能夠非??焖贉?zhǔn)確地分割出人像。

“我們采用的是人形區(qū)域內(nèi)像素點(diǎn)的多尺度上下文信息來(lái)表達(dá)人形目標(biāo),通過(guò)多通道深度學(xué)習(xí)網(wǎng)絡(luò)來(lái)描述人形局部區(qū)域的不同尺度上下文信息?!蓖趿林v道,這種方法以模式識(shí)別和計(jì)算機(jī)視覺(jué)理論為指導(dǎo),結(jié)合最新的深度學(xué)習(xí)算法,融合各個(gè)尺度的圖像信息,能夠?qū)⒛繕?biāo)人物從背景中快速準(zhǔn)確地分離出來(lái)。與傳統(tǒng)的圖模型方法需要對(duì)像素點(diǎn)之間建模,導(dǎo)致計(jì)算量大、難以收斂等問(wèn)題相比,該方法具有很強(qiáng)的語(yǔ)義信息,并在由百度公司懸賞的人形圖像分割大賽中,以絕對(duì)優(yōu)勢(shì)獲得冠軍。

此外,他們借助傳統(tǒng)的步態(tài)識(shí)別的先驗(yàn)知識(shí),結(jié)合最新的深度學(xué)習(xí)方法,能夠在只給定某個(gè)視角的情況下,跨視角地識(shí)別出該人在其他視角的步態(tài)序列?!笆褂没凇罢?fù)對(duì)”的訓(xùn)練方式,可以充分地?cái)U(kuò)充樣本數(shù)量,即使對(duì)很少的訓(xùn)練數(shù)據(jù)也能達(dá)到很高的結(jié)果。這種方式在人臉識(shí)別、行人再識(shí)別領(lǐng)域也有廣泛應(yīng)用?!痹诖嘶A(chǔ)上,項(xiàng)目組還提出了一種基于拓?fù)浔磉_(dá)的跨視角步態(tài)識(shí)別方法來(lái)描述步態(tài)的整體時(shí)空結(jié)構(gòu),在跨視角和遮擋的條件下,比傳統(tǒng)方法表現(xiàn)出了更強(qiáng)的魯棒性和更高的識(shí)別精度;對(duì)跨著裝以及跨背包的場(chǎng)景,也都能獲得更好的結(jié)果。

除了算法以外,充足的數(shù)據(jù)支持是步態(tài)識(shí)別系統(tǒng)“聰明與否”的后盾保障。目前基于深度學(xué)習(xí)的步態(tài)識(shí)別相關(guān)算法都需要大量的數(shù)據(jù),因此算法和數(shù)據(jù)之間的不斷迭代是十分必要的。王亮告訴記者,中科院自動(dòng)化所的CASIA步態(tài)數(shù)據(jù)庫(kù)有三個(gè)數(shù)據(jù)數(shù)據(jù)集,即Dataset A(小規(guī)模庫(kù)), Dataset B(多視角庫(kù))和Dataset C(紅外庫(kù))。其中,Dataset B是一個(gè)大規(guī)模、多視角的步態(tài)庫(kù),世界知名,而銀河水滴的步態(tài)數(shù)據(jù)庫(kù)則已經(jīng)超過(guò)Dataset B近100倍,命名為“CASIA—E”。

產(chǎn)學(xué)研緊密結(jié)合,不斷拓展新應(yīng)用場(chǎng)景

得益于中科院自動(dòng)化所在計(jì)算機(jī)視覺(jué)領(lǐng)域20多年的技術(shù)積累,銀河水滴在中科院“技術(shù)+團(tuán)隊(duì)”的離崗創(chuàng)業(yè)政策激勵(lì)下成立。銀河水滴聯(lián)合中科院自動(dòng)化所目前已經(jīng)啟動(dòng)人工智能人才聯(lián)合培養(yǎng)計(jì)劃,聯(lián)合打造中國(guó)頂級(jí)人工智能實(shí)習(xí)基地。該人才計(jì)劃將配備強(qiáng)大的導(dǎo)師隊(duì)伍,每位實(shí)習(xí)生配備至少一名中科院自動(dòng)化所老師和銀河水滴高級(jí)工程師做指導(dǎo),銀河水滴的技術(shù)應(yīng)用場(chǎng)景將全部開放,供實(shí)習(xí)生研究和實(shí)地演練。

“在產(chǎn)、學(xué)、研緊密結(jié)合下,參與該人才計(jì)劃的實(shí)習(xí)生,其人工智能算法和產(chǎn)品能力將得到巨大提升?!弊鳛橹袊?guó)首個(gè)步態(tài)識(shí)別博士、模式識(shí)別國(guó)家重點(diǎn)實(shí)驗(yàn)室副主任,以及銀河水滴聯(lián)合創(chuàng)始人,王亮對(duì)于步態(tài)識(shí)別的產(chǎn)業(yè)化充滿了信心。他表示,不要僅僅發(fā)表論文,通過(guò)銀河水滴,把科研成果變成產(chǎn)品形成產(chǎn)業(yè),提供世界領(lǐng)先的視覺(jué)大數(shù)據(jù)分析技術(shù),是對(duì)年輕人很大的激勵(lì)。

基于項(xiàng)目的一系列人工智能關(guān)鍵技術(shù)研發(fā),銀河水滴目前已經(jīng)在公共安全以及智能家居領(lǐng)域取得了很好的進(jìn)展。王亮介紹,項(xiàng)目所開發(fā)的步態(tài)檢索系統(tǒng),在維護(hù)公共安全方面發(fā)揮了重要作用;銀河水滴在實(shí)現(xiàn)步態(tài)識(shí)別基本技術(shù)的基礎(chǔ)上,還將全類型人臉識(shí)別以及人群計(jì)算應(yīng)用于泛身份識(shí)別構(gòu)建之中,以達(dá)到更精確的識(shí)別結(jié)果。“目前人臉識(shí)別方案在主流數(shù)據(jù)庫(kù)上達(dá)到99%的識(shí)別率并可保持實(shí)時(shí)性;在遠(yuǎn)距離人臉識(shí)別方面,可對(duì)普通2K攝像機(jī)中25米外的人群進(jìn)行實(shí)時(shí)人臉識(shí)別?!?/p>

在商業(yè)化應(yīng)用方面,銀河水滴科技已經(jīng)基于產(chǎn)品雛形,面向安防、油田和家電等領(lǐng)域進(jìn)行推廣,尋找更多適合步態(tài)識(shí)別應(yīng)用的客戶,推動(dòng)了傳統(tǒng)行業(yè)的智能化升級(jí):石油企業(yè)引入步態(tài)識(shí)別技術(shù)完善防控網(wǎng)絡(luò),防范非法闖入者對(duì)油田安全的威脅和對(duì)油田經(jīng)濟(jì)利益的損害;在智能家居領(lǐng)域,步態(tài)識(shí)別可很好地區(qū)分用戶屬性,開發(fā)的嵌入式模組,具有很大的成本優(yōu)勢(shì)及體積優(yōu)勢(shì),不僅能替代遙控器等傳統(tǒng)操作工具,還可以讓家電感知更加智能化、服務(wù)更加個(gè)性化?!捌┤纾鶕?jù)家庭成員的步態(tài)特征,空調(diào)可以及時(shí)識(shí)別老人、小孩等特殊人群的活動(dòng)范圍,能夠根據(jù)不同人群調(diào)整空調(diào)的出風(fēng)角度、出風(fēng)量及溫度,讓溫度控制更適合人群需求。”王亮說(shuō)。

與此同時(shí),步態(tài)識(shí)別也面臨著很多挑戰(zhàn)亟須解決:比如在人群密集場(chǎng)所,如何解決遮擋情況下的身份識(shí)別?智能深度傳感硬件Kinect等又會(huì)對(duì)步態(tài)識(shí)別產(chǎn)生什么影響?王亮表示,這一系列的問(wèn)題仍然需要我們?cè)谖磥?lái)去深入探索。接下來(lái),銀河水滴科技還將選擇一兩個(gè)屬于藍(lán)海市場(chǎng)的細(xì)分領(lǐng)域深挖下去,與中科院自動(dòng)化所緊密配合,做好科技成果的產(chǎn)業(yè)化。

 
  • <sup id="uuuuu"></sup>
  • <noscript id="uuuuu"></noscript>
    <small id="uuuuu"></small>
  • <sup id="uuuuu"><code id="uuuuu"></code></sup>
  • <nav id="uuuuu"><sup id="uuuuu"></sup></nav>
  • <nav id="uuuuu"></nav>
    <nav id="uuuuu"><code id="uuuuu"></code></nav><nav id="uuuuu"><sup id="uuuuu"></sup></nav>