導讀
在CV領域的很多應用中,比如工業質檢、遙感圖像、自動駕駛,圖像分割是非常關鍵的技術。在這個過程中,速度和精度都是需要考慮的因素,而如何從網絡設計、模型部署方面進行創新提升,PP-LiteSeg會從項目應用、代碼實戰等角度給出詳細的行業分享。
支撐影視人像摳圖、醫療影像分析、自動駕駛感知等萬億級市場背后的核心技術是什么?那就要說到頂頂重要的圖像分割技術。相比目標檢測、圖像分類等技術,圖像分割需要將每個像素點進行分類,在精細的圖像識別任務中不可替代,也是智能視覺算法工程師擁有關鍵核心競爭力的關鍵!
圖1 圖像分割應用 正因如此,DeepLabv3、OCRNet、BiseNetv2、Fast-SCNN等優秀算法層出不窮,然而在實際產業落地過程中往往需要綜合考慮硬件性能、精度等多方面因素,對算法的需求也是苛刻的。往往業界算法在保障高識別精度的情況下,就會犧牲算法運行速度;反之追求速度,則會帶來精度的大幅度損失。
圖2 各算法速度與精度平衡情況示意 如何能同時實現速度和精度的均衡,在當前云、邊、端多場景協同的產業大趨勢下高標準滿足產業需求,是各屆研究人員致力投入的方向。 PP-LiteSeg就是這樣一個同時兼顧精度與速度的SOTA(業界最佳)語義分割模型。它基于Cityscapes數據集,在1080ti上精度為mIoU 72.0時,速度高達273.6 FPS, (mIoU 77.5 時,FPS為102.6),超越現有CVPR SOTA模型STDC,真正實現了精度和速度的SOTA均衡。
圖3PP-LiteSeg精度/速度說明 空口無憑,歡迎優秀的你直接試用?。ㄓ浀肧tar收藏跟進最新狀態)傳送門:https://github.com/PaddlePaddle/PaddleSeg
更值得令人驚喜的是,PP-LiteSeg不僅在開源數據集評測效果優秀,在產業數據集也表現出了驚人的實力!例如在質檢、遙感場景,PP-LiteSeg的精度與高精度、大體積的OCRNet持平,而速度卻快了近7倍?。?!
圖4 PP-LiteSeg和OCRNet 在某工業質檢數據集識別情況對比
圖4 PP-LiteSeg和OCRNet 在deepglobe數據集識別情況對比 那PP-LiteSeg為何可以擁有這么優秀的效果呢? PP-LiteSeg提出三個創新模塊:靈活的解碼模塊(FLD)、注意力融合模塊(UAFM)、簡易金字塔池化模塊(SPPM)。FLD靈活調整解碼模塊中通道數,平衡編碼模塊和解碼模塊的計算量,使得整個模型更加高效;UAFM模塊效地加強特征表示,更好地提升了模型的精度;SPPM模塊減小了中間特征圖的通道數、移除了跳躍連接,使得模型性能進一步提升。
圖5 PP-LiteSeg 模型結構和優化點 正是基于這些模塊的設計與改進,最終PP-LiteSeg超越其他方法,在1080ti上精度為mIoU 72.0時,速度高達273.6 FPS , (mIoU 77.5 時,FPS為102.6),實現了精度和速度的SOTA平衡。
為了讓開發者們更深入的了解PP-LiteSeg這個SOTA模型,解決落地應用難點,掌握產業實踐的核心能力,飛槳團隊精心準備了精品直播課!
審核編輯 :李倩
-
算法
+關注
關注
23文章
4474瀏覽量
91105 -
圖像分割
+關注
關注
4文章
173瀏覽量
17888 -
自動駕駛
+關注
關注
774文章
13205瀏覽量
163738
原文標題:自動駕駛、高精摳圖、半自動標注一網打盡!
文章出處:【微信號:DBDevs,微信公眾號:數據分析與開發】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論