2018年4月23日 星期一

IJCAI 2018|海康威視:分層式共現網絡,更好的動作識別和檢測





摘要:動作識別和檢測正得到計算機視覺領域越來越多的關注。 近日,海康威視在arXiv發布了在這方面的一項實現了新的最佳表現的研究成果,該論文也是IJCAI2018Oral論文。 動作識別和檢測等對人類行為的分析



動作識別和檢測正得到計算機視覺領域越來越多的關注。 近日,海康威視在 arXiv 發布了在這方面的一項實現了新的最佳表現的研究成果,該論文也是 IJCAI 2018 Oral 論文。



動作識別和檢測等對人類行為的分析是計算機視覺領域一個基礎而又困難的任務,也有很廣泛的應用範圍,比如智能監控系統、人機交互、遊戲控制和機器人。 鉸接式的人體姿態(也被稱為骨架(skeleton))能為描述人體動作提供非常好的表徵。 一方面,骨架數據在背景噪聲中具有固有的穩健性,並且能提供人體動作的抽象信息和高層面特徵。 另一方面,與

  RGB 數據相比,骨架數據的規模非常小,這讓我們可以設計出輕量級且硬件友好的模型。


本論文關注的是基於骨架的人體動作識別和檢測問題(圖

 

1)。 骨架的相互作用和組合在描述動作特徵上共同發揮了關鍵性作用。 有很多早期研究都曾試圖根據骨架序列來設計和提取共現特徵(co-occurrence

  feature),比如每個關節的配對的相對位置 [Wang et al., 2014]、配對關節的空間方向 [Jin and Choi,

2012]、Cov3DJ [Hussein et al., 2013] 和 HOJ3D [Xia et al., 2012]

等基於統計的特徵。 另一方面,帶有長短期記憶(LSTM)神經元的循環神經網絡(RNN)也常被用於建模骨架的時間序列 [Shahroudy et

al., 2016; Song et al., 2017; Liu et al., 2016]。 儘管 LSTM

網絡就是為建模長期的時間依賴關係而設計的,但由於時間建模是在原始輸入空間上完成的,所以它們難以直接從骨架上學習到高層面的特徵 [Sainath

et al., 2015]。 而全連接層則有能力聚合所有輸入神經元的全局信息,進而可以學習到共現特徵。 [Zhu et al., 2016]

提出了一種端到端的全連接深度 LSTM 網絡來根據骨架數據學習共現特徵。



圖 1:基於骨架的人體動作識別的工作流程


CNN

  模型在提取高層面信息方面能力出色,並且也已經被用於根據骨架學習空間-時間特徵 [Du et al., 2016; Ke et al.,

2017]。 這些基於 CNN 的方法可以通過將時間動態和骨架關節分別編碼成行和列而將骨架序列表示成一張圖像,然後就像圖像分類一樣將圖像輸入

CNN 來識別其中含有的動作。 但是,在這種情況下,只有捲積核內的相鄰關節才被認為是在學習共現特徵。 儘管感受野(receptive

field)能在之後的捲積層中覆蓋骨架的所有關節,但我們很難有效地從所有關節中挖掘共現特徵。 由於空間維度中的權重共享機制,CNN

模型無法為每個關節都學習自由的參數。 這促使我們設計一個能獲得所有關節的全局響應的模型,以利用不同關節之間的相關性。


我們提出了一種端到端的共現特徵學習框架,其使用了

  CNN

來自動地從骨架序列中學習分層的共現特徵。 我們發現一個卷積層的輸出是來自所有輸入通道的全局響應。 如果一個骨架的每個關節都被當作是一個通道,那麼卷積層就可以輕鬆地學習所有關節的共現。 更具體而言,我們將骨架序列表示成了一個形狀幀×關節×3(最後一維作為通道)的張量。 我們首先使用核大小為

  n×1

的捲積層獨立地為每個關節學習了點層面的特徵。 然後我們再將該卷積層的輸出轉置,以將關節的維度作為通道。 在這個轉置運算之後,後續的層分層地聚合來自所有關節的全局特徵。 此外,我們引入了一種雙流式的框架

  [Simonyan and Zisserman, 2014] 來明確地融合骨架運動特徵。


本研究工作的主要貢獻總結如下:



  • 我們提出使用 CNN 模型來學習骨架數據的全局共現特徵,研究表明這優於局部共現特徵。




  • 我們設計了一種全新的端到端分層式特徵學習網絡,其中的特徵是從點層面特徵到全局共現特徵逐漸聚合起來的。




  • 我們全面地使用了多人特徵融合策略,這讓我們的網絡可以輕鬆地擴展用於人數不同的場景。




  • 在動作識別和檢測任務的基准上,我們提出的框架優於所有已有的當前最佳方法。




圖 2:3×3 卷積的分解分為兩個步驟。 (a) 每個輸入通道的空間域中的獨立 2D 卷積,其中的特徵是從 3×3 的臨近區域局部聚合的。 (b) 各個通道上逐個元素求和,其中的特徵是在所有輸入通道上全局地聚合。





  3:我們提出的分層式共現網絡(HCN:Hierarchical Co-occurrence

Network)的概況。 綠色模塊是卷積層,其中最後一維表示輸出通道的數量。 後面的「/2」表示卷積之後附帶的最大池化層,步幅為

2。 轉置層是根據順序參數重新排列輸入張量的維度。 conv1、conv5、conv6 和 fc7 之後附加了 ReLU 激活函數以引入非線性。



圖 4:用於多人特徵融合的後期融合(late fusion)圖。 最大、平均和連接操作在表現和泛化性能上得到了評估。



圖 5:時間動作檢測框架。 圖 3 描述了其中的骨幹網絡。 還有兩個子網絡分別用於時間上提議的分割和動作分類。



表 2:在 NTU RGB+D 數據集上的動作分類表現。 CS 和 CV 分別表示 cross-subject 和 cross-view 的設置。



表 3:在 SBU 數據集上的動作分類表現。



圖 6:在 NTU RGB+D 數據集上的 cross-subject 設置中,在每個類別上 HCN 相對於 HCN-local 的準確度變化。 為了清楚簡明,這裡只給出了變化超過 1% 的類別。


論文:使用分層聚合實現用於動作識別和檢測的基於骨架數據的共現特徵學習(Co-occurrence

  Feature Learning from Skeleton Data for Action Recognition and

Detection with Hierarchical Aggregation)



摘要: 隨著大規模骨架數據集變得可用,基於骨架的人體動作識別近來也受到了越來越多的關注。 解決這一任務的最關鍵因素在於兩方面:用於關節共現的幀內表徵和用於骨架的時間演化的幀間表徵。 我們在本論文中提出了一種端到端的捲積式共現特徵學習框架。 這些共現特徵是用一種分層式的方法學習到的,其中不同層次的環境信息(contextual

 

information)是逐漸聚合的。 首先獨立地編碼每個節點的點層面的信息。 然後同時在空間域和時間域將它們組合成形義表徵。 具體而言,我們引入了一種全局空間聚合方案,可以學習到優於局部聚合方法的關節共現特徵。 此外,我們還將原始的骨架坐標與它們的時間差異整合成了一種雙流式的範式。 實驗表明,我們的方法在

  NTU RGB+D、SBU Kinect Interaction 和 PKU-MMD

等動作識別和檢測基准上的表現能穩定地優於其它當前最佳方法。



版權聲明


本文僅代表作者觀點,不代表百度立場。
本文係作者授權百度百家發表,未經許可,不得轉載。







http://www.kubonews.com/2018042314395.html

生活苦悶?快上酷播亮新聞:http://www.kubonews.com

沒有留言:

張貼留言