《電子技術應用》
您所在的位置:首頁 > 可編程邏輯 > 設計應用 > 一種改進的RefineDet多尺度人臉檢測方法
一種改進的RefineDet多尺度人臉檢測方法
2019年電子技術應用第8期
孫貴華,陳淑榮
上海海事大學 信息工程學院,上海201306
摘要: 針對車站、商場等大型場所中客流量大、背景復雜等原因導致多尺度人臉檢測精度低的問題,建立了一種基于RefineDet多層特征圖融合的多尺度人臉檢測方法。首先利用第一級網絡進行特征提取并在不同尺度的特征圖上粗略預估人臉位置;然后在第二級中通過特征金字塔網絡將低層特征與高層特征融合,進一步增強小尺寸人臉的語義信息;最后,通過置信度和焦點損失函數對檢測框進行二次抑制,達到邊框的精確回歸。實驗中將人臉候選區域的寬高比只設置為1:1,以此來降低運算量并提高人臉檢測精度。在Wider Face數據集上的實驗結果表明,該方法能有效檢測不同尺度的人臉,在Easy、Medium、Hard 3個子數據集上測試結果分別為93.4%、92%、84.4%的MAP,尤其對小尺寸人臉的檢測精度有明顯提高。
中圖分類號: TP391
文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.190257
中文引用格式: 孫貴華,陳淑榮. 一種改進的RefineDet多尺度人臉檢測方法[J].電子技術應用,2019,45(8):34-39.
英文引用格式: Sun Guihua,Chen Shurong. An improved RefineDet multi-scale face detection method[J]. Application of Electronic Technique,2019,45(8):34-39.
An improved RefineDet multi-scale face detection method
Sun Guihua,Chen Shurong
College of Information Engineering,Shanghai Maritime University,Shanghai 201306,China
Abstract: Aiming at the low precision of multi-scale face detection caused by large passenger flow and complicated background in large places such as stations and shopping malls, a multi-scale face detection method based on RefineDet multi-layer feature map fusion is established. Firstly, the first-level network is used for feature extraction and the face position is roughly predicted on the feature maps of different scales. Then, in the second level, the feature pyramid network is used to fuse the low-level features and the high-level features together to further enhance the semantics of small-sized faces information. Lastly, the detection box is secondarily suppressed by the confidence and focal loss function to achieve accurate return of the border. In the experiment, the aspect ratio between the width and the height of the face candidate region is only set to 1:1 in order to reduce the amount of calculation and improve the face detection accuracy. Experimental results on Wider Face datasets show that the method can effectively detect different scales of human faces, and the test results of MAP(mean average precision) on the three sub-data sets of Easy, Medium and Hard are 93.4%, 92% and 84.4% respectively, in particular, the detection accuracy of small-sized human faces is significantly improved.
Key words : multi-scale;face detection;feature map fusion;RefineDet;feature pyramid networks

0 引言

    人臉檢測[1]作為人臉識別[2-3]、人臉對齊、人臉驗證[4]以及人臉跟蹤[5]等應用的關鍵步驟,其首要任務是判斷視頻或給定圖像中是否存在人臉,再精確定位出人臉的位置和大小。在一些人臉目標尺寸跨度大且小目標眾多的應用場景,人臉檢測的效果將直接影響人臉識別等后續技術應用的準確率,因此研究多尺度人臉檢測具有重要意義。

    早期人臉檢測算法多是人工提取特征,訓練分類器,再進行人臉檢測。如VIOLA P A和JONES M[6]提出的Haar-Like與AdaBoost級聯的方法,其檢測速度較快,但對多尺度、姿態多樣性等情形檢測效果不理想。隨著深度學習在機器學習中的不斷發展,卷積神經網絡(Convolutional Neural Network,CNN)提取特征更加多樣化、魯棒性更好,在圖像識別以及目標檢測等領域[7-8]得到廣泛應用。其中以Faster R-CNN[9]為代表的算法首先通過區域預測網絡(Region Proposal Network,RPN)產生感興趣的候選區域,再對該區域提取尺度不變的CNN特征,最后對區域進行分類和回歸。JIANG H[10]等將Faster R-CNN應用于人臉檢測,取得了較好效果,但速度較慢。文獻[11]將人臉檢測與人臉關鍵點檢測結合,網絡層數淺,檢測速度快但精度較低。HU P[12]等人通過多尺度模板,利用圖像上下文信息來解決小尺寸人臉檢測精度較低的問題。

    為進一步提高人臉檢測精度,本文通過改進RefineDet[13]網絡模型結構,建立了一種多尺度人臉檢測模型。首先對待檢測圖像歸一化處理,利用CNN提取圖像特征,再通過特征金字塔網絡[14](Feature Pyramid Networks,FPN)將更底層的conv3_3特征圖與高層特征圖進行融合,以便增強小尺寸人臉的語義信息,提高小目標人臉的檢測精度。然后利用置信度和損失函數對檢測框進行二次抑制,緩解類別失衡[15]問題。最后通過非極大值抑制算法得到精確回歸后的人臉檢測框和相應的位置信息。根據人臉區域特點,將人臉候選框的寬高比只設為1:1,以減少計算量進而提高檢測精度。

1 多尺度人臉檢測模型

1.1 改進的RefineDet多尺度檢測模型網絡結構

    RefineDet是基于SSD[16]的改進方法,以VGG16[17]作為特征提取的骨干網絡,包含fc6和fc7兩個全連接層轉換成的conv_fc6、conv_fc7以及擴展的conv6_1、conv6_2。其檢測網絡模型結構如圖1中虛線框部分所示,采用conv4_3、conv5_3、conv_fc7和conv6_2作為檢測層。

rgzn1-t1.gif

    在CNN提取圖像特征的過程中,感受野[18]用來表示卷積神經網絡每一層輸出的特征圖上的像素點在原始圖像上映射區域的大小。輸入RefineDet網絡的圖像,由于卷積層與池化層之間均為局部連接,神經元無法對原始圖像的所有信息進行感知,且每經過一次2×2的最大池化層處理,特征圖變為原來的一半。隨著網絡層加深,特征圖會越來越小,小尺寸人臉的信息也會逐步丟失,提取的特征也更抽象。因此,越高層的特征圖對應原始圖像的范圍越大,包含語義層次更高的特征;越低層的特征圖對應原始圖像的范圍越小,包含的特征更趨向于局部細節。可見,對于近景下的較大人臉需要更高層的特征圖進行檢測,而遠景下的小尺寸人臉可以在更低層的特征圖上檢測到。為了提高不同尺度的人臉檢測精度,進一步改善整個網絡的檢測性能,本文在RefineDet特征融合部分加入更低層的conv3_3特征圖,以便檢測較小尺寸的人臉,并在conv6_2后面添加額外的conv7_1和conv7_2,以便檢測較大的人臉區域。改進的RefineDet檢測網絡模型結構如圖1所示,選取conv3_3、conv4_3、conv5_3、conv_fc7、conv6_2和conv7_2 6個層的特征圖作為檢測層。

    網絡模型主要包括區域優化模塊(Anchor Refine Module,ARM)和目標檢測模塊(Object Detect Module,ODM)。對輸入640像素×640像素的待檢測圖片,在ARM中經過卷積層特征提取后得到不同大小的特征圖,可粗略預估人臉的位置和得分,并濾除一些無效候選區,以減少分類器的搜索空間并且粗略地調整保留區域的位置和大小。同時,ARM的特征圖通過連接模塊(Transfer Connection Block,TCB)輸入到ODM中,將高層特征與底層特征進行融合,用來增強底層特征的語義信息,以便檢測更小的人臉目標。本文利用特征圖融合的方式增加不同層之間的聯系,通過這樣的連接,檢測網絡中的特征圖都融合了不同尺度、不同語義強度的特征,以此保證檢測層的特征圖可以檢測不同尺度的人臉。此處以ODM的高層特征圖CONV4_3和ARM的底層特征圖conv3_3融合為例,其過程如圖2所示,卷積核大小為3×3,通道數為256,反卷積核大小為4×4,步長為2,通道數為256。核大小為3×3,通道數為256,反卷積核大小為4×4,步長為2,通道數為256。不同層的特征圖大小各不相同,因此,CONV4_3先通過反卷積操作縮放成與conv3_3特征圖相同的大小;然后通過element-wise相加進行融合,得到CONV3_3;最后ODM對特征融合后的人臉候選區域進行更精確的回歸,并且通過非極大值抑制算法得到不同尺度人臉的檢測結果。

rgzn1-t2.gif

1.2 檢測層參數設置

    RefineDet選擇conv4_3為初始檢測層,步長為8,在特征圖上移動一點相當于在原始圖像上移動8個像素,這種設置不適合檢測更小尺寸目標。本文將conv3_3作為初始檢測層,特征圖步長設為4,更利于檢測小尺寸人臉。從conv3_3到conv7_2,寬高比為1:1,檢測層參數設置如表1所示。通過在6層卷積特征圖上設置不同大小的人臉檢測框,能有效提高多尺度人臉的檢測精度。

rgzn1-b1.gif

1.3 損失函數

    實驗中對于一張640×640的圖像,人臉所占比例遠遠小于背景所占比例,圖像中大部分區域為負樣本。模型訓練過程中,按照表1在每個卷積層生成不同數量的檢測框,則conv3_3產生25 600個16×16的檢測框,占檢測框總數的75.02%,如果將全部正負樣本都用來訓練,這會引起類不平衡的問題,導致檢測精度下降。因此,為了緩解失衡,利用損失函數對檢測框進行二次抑制。當負樣本的置信度大于0.99時,直接舍棄該候選區域,即對檢測框進行首次抑制。

    本文的損失函數主要包括ARM和ODM兩部分損失,如式(1)所示。

rgzn1-gs1.gif

rgzn1-gs2.gif

式中,pt為不同類別的分類概率,pt越大,權重(1-pt)γ越小,這樣對于一些很容易區分的樣本可通過權重得到抑制,進而減少檢測框的數量。αt用來調節正負樣本的比例,本文采用與文獻[15]相同的參數設置,正負樣本比例為1:3,即αt=0.25,γ=2,實驗表明,該參數適用于本文模型。

2 實驗過程與結果分析

2.1 人臉數據集選擇

    實驗采用Wider Face數據集,包含Easy、Medium、Hard 3個類別子集。該數據集共有32 203張圖片,并標注了393 703張人臉。其中Easy子集為尺寸大于300像素的人臉,容易檢測;Medium子集人臉尺寸為50~300像素,檢測難度適中;Hard子集包含尺寸為10~50像素的小目標人臉,較難檢測。該數據集適合本文建立的多尺度人臉檢測模型。

2.2 模型訓練過程

    實驗在Win10操作系統下進行,計算機配置為NVIDIA GeForce GTX 1080Ti顯卡,采用的深度學習框架為Caffe。為了使訓練所得模型對不同尺度的人臉有更好的魯棒性,本文采用文獻[16]中的隨機光照失真以及裁剪原始圖像并反轉的方法擴充訓練樣本集。用ImageNet分類任務上預訓練好的VGG16 卷積神經網絡初始化特征并提取網絡卷積層權重,訓練過程采用隨機梯度下降算法(SGD)優化整個網絡模型。

    本文訓練過程采用SSD的匹配策略,不同的是將檢測框與真實框的重疊率閾值由0.5降為0.35,大于0.35的判斷為正樣本,以此來增大匹配到的檢測框數量。另外,網絡初始學習率設置為0.000 5,8萬次迭代后降為0.000 01,12萬次迭代后設置為0.000 002,動量為 0.9,權重衰減為0.000 5,批次大小設置為4,共進行20萬次迭代。

2.3 不同尺度的人臉檢測結果

    為了驗證方法的有效性,本文在Wider Face驗證集上進行實驗驗證。首先選擇RefineDet的網絡模型結構,輸入640×640大小的圖像,寬高比設為1:1,本文將其稱之為模型A;其次,以相同的輸入,選擇加入底層特征conv3_3后的6層卷積特征圖作為檢測層進行實驗,稱之為模型B;最后,本文在模型B的基礎上,采用focal loss作為損失函數進行實驗,稱之為本文模型。驗證結果如表2所示。

rgzn1-b2.gif

    由表2可見,在輸入相同的情況下,模型B相比于模型A在Easy、Medium、Hard 3個子集上的平均檢測精度(Mean Average Precision,MAP)分別提高了0.1%、0.2%和4.3%,表明加入底層conv3_3的特征融合后可以有效改善小尺寸人臉的語義信息,進而提高多尺度人臉檢測精度。本文模型相比于模型B在3個子集上的檢測精度又分別提高了0.6%、0.9%和1.1%,表明改進損失函數能有效緩解類別不平衡的問題,進而提高檢測精度。

2.4 與其他方法比較

    為進一步驗證模型的性能,將本文方法與近年來的主流算法ScaleFace[20]、Multitask Cascade CNN[11]、HR[12]在相同實驗環境和相同數據集上進行了對比,采用官方評估方法進行評估[21]。在Wider Face人臉驗證集上得到的P-R曲線如圖3所示。

rgzn1-t3.gif

    P-R圖中橫坐標表示檢測框的召回率(Recall),縱坐標表示檢測精度(Precision)。召回率用來評估檢測出來的人臉占樣本標記總人臉數的比例,檢測精度用來評估檢測出的正確人臉占檢測出的總人臉數的比例,因此,曲線右上越凸,表示檢測效果越好。由圖3可見,本文方法較其他方法在檢測精度上均有所提高,尤其在Hard子集上更達到了84.4%的檢測精度,表明了方法的有效性,也顯示了該模型檢測小尺寸人臉的優越性。

2.5 檢測效果

    圖4為本文方法與RefineDet的檢測結果對比,矩形框表示檢測出的人臉位置,圓形框表示兩者的著重對比區域。由圖4(a)和圖4(c)可見,圖像中的人臉尺寸大小不一,RefineDet對于檢測背景中小尺寸人臉存在明顯缺陷,不能有效檢測,而本文方法可以在一張圖片上同時檢測不同尺度人臉。圖4(b)和圖4(d)相比,在人臉較小且密集的情景下,RefineDet漏檢而本文方法在檢測小尺寸人臉上有明顯優勢。

rgzn1-t4.gif

3 結論

    本文建立了一種基于RefineDet多層特征融合的多尺度人臉檢測方法,網絡結構為兩級級聯模式,第一級ARM模塊對人臉檢測框進行粗略回歸,第二級ODM模塊經與底層特征融合后再對人臉檢測框完成精確回歸。檢測網絡在6層不同的特征圖上進行,能有效檢測16×16的小尺寸人臉區域,以及520×520較大的人臉區域,對比其他人臉檢測方法,本文方法能更好地處理人臉尺寸眾多且密集的情況,特別是小尺寸人臉檢測精度有明顯提高。

參考文獻

[1] 霍芋霖,符意德.基于Zynq的人臉檢測設計[J].計算機科學,2016,43(10):322-325.

[2] 李小薪,梁榮華.有遮擋人臉識別綜述:從子空間回歸到深度學習[J].計算機學報,2018,41(1):177-207.

[3] GAO Y,MA J,YUILLE A L,et al.Semi-supervised sparse representation based classification for face recognition with insufficient labeled samples[J].IEEE Transactions on Image Processing,2017,26(5):2545-2560.

[4] MAJUMDAR A,SINGH R,VATS M,et al.Face verification via class sparsity based supervised encoding[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1273-1280.

[5] KHAN M H,MCDONAGH J,TZIMIROPOULOS G,et al.Synergy between face alignment and tracking via discriminative global consensus optimization[C].International Conference on Computer Vision.IEEE,2017:3811-3819.

[6] VIOLA P A,JONES M.Robust real-time face detection[C].Proceedings of IEEE Conference on Computer Vision.IEEE,2001:747.

[7] 黃友文,萬超倫.基于深度學習的人體行為識別算法[J].電子技術應用,2018,44(10):1-5.

[8] 周進凡,張榮芬,馬治楠,等.基于深度學習的胸部X光影像分析系統[J].電子技術應用,2018,44(11):29-32.

[9] REN S,HE K,GIRSHICK R B,et al.Faster R-CNN:towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

[10] JIANG H,LEARNEDMILLER E G.Face detection with the faster R-CNN[C].IEEE International Conference on Automatic Face Gesture Recognition.IEEE,2017:650-657.

[11] ZHANG K,ZHANG Z,LI Z,et al.Joint face detection and alignment using multitask cascaded convolutional networks[J].IEEE Signal Processing Letters,2016,23(10):1499-1503.

[12] HU P,RAMANAN D.Finding tiny faces[J].Computer Vision and Pattern Recognition,Hawaii,USA,2017:1522-1530.

[13] ZHANG S,WEN L,BIAN X,et al.Single-shot refinement neural network for object detection[C].IEEE Conference on Computer Vision and Pattern Recognition,2018:4203-4212.

[14] LIN T,DOLLAR P,GIRSHICK R B,et al.Feature pyramid networks for object detection[C].IEEE Conference on Computer Vision and Pattern Recognition,2017:936-944.

[15] LIN T,GOYAL P,GIRSHICK R B,et al.Focal loss for dense object detection[C].International Conference on Computer Vision.IEEE,2017:2999-3007.

[16] LIU W,ANGUELOY D,ERHAN D,et al.SSD:single shot multibox detector[C].European Conference on Computer Vision,Amsterdam,Netherlands,2016:21-37.

[17] SIMONYAN K,ZISSERMAN.A very deep convolutional networks for large-scale image recognition[C].International Conference on Learning Representations,2015.

[18] LUO W,LI Y,URTASUN R,et al.Understanding the effective receptive field in deep convolutional neural networks[C].29th Conference on Neural Information Processing Systems,Barcelona,Spain,2016:4898-4906.

[19] DAI J,LI Y,HE K,et al.R-FCN:object detection via region-based fully convolutional networks[C]. 29th Conference on Neural Information Processing Systems,2016:379-387.

[20] YANG S,XIONG Y,LOY C C,et al.Face detection through scale-friendly deep convolutional networks[J].arXiv:Computer Vision and Pattern Recognition,2017.

[21] YANG S,LUO P,LOY C C,et al.Wider face: a face detection benchmark[C].IEEE Conference on Computer Vision and Pattern Recognition,2016:5525-5533.



作者信息:

孫貴華,陳淑榮

(上海海事大學 信息工程學院,上海201306)

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 日韩视频免费在线观看 | 视频国产免费 | 不卡中文字幕在线 | 国产91精品一区二区麻豆亚洲 | 欧美日韩性生活视频 | 91精品国产99久久 | 五月天丁香花婷婷 | 99视频在线免费观看 | 五月天黄色网址 | 99在线热视频 | 久久国产精品亚洲一区二区 | 玖草影视| 免费观看a级毛片在线播放 国产福利免费视频 | 国产高清a毛片在线看 | 欧美色视频在线观看 | 深爱五月综合网 | 色婷婷在线播放 | av区无码字幕中文色 | 国产精品入口免费视频 | 久久综合国产 | 97在线视频gj | 亚洲天堂视频在线播放 | 图片区自拍偷拍 | 1区1区3区4区产品乱码区 | 日本不卡视频 | ririaiav| 久久亚洲免费视频 | 四虎免费永久网站入口 | 久久国产精品免费看 | 国产99r视频精品免费观看 | 久久精品国产99久久无毒不卡 | 成人欧美精品久久久久影院 | 精品成人一区二区三区免费视频 | 四虎麻豆国产精品 | 激情丁香六月 | 国产亚洲第一精品社区麻豆 | 免费一级在线观看 | 久久97精品久久久久久久看片 | 欧美黄色性生活视频 | 国产成人看片免费视频观看 | 九九久久精品国产免费看小说 |