<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

FastSAM模型可實現25FPS的實時推理

OpenCV學堂 ? 來源:OpenCV學堂 ? 2023-07-03 17:06 ? 次閱讀

比Meta的「分割一切模型」(SAM)更快的圖像分割工具,來了!

最近中科院團隊開源了FastSAM模型,能以50倍的速度達到與原始SAM相近的效果,并實現25FPS的實時推理。

該成果在Github已經獲得2.4K+次星標,在Twitter、PaperswithCode等平臺也受到了廣泛關注。

df2d47bc-1756-11ee-962d-dac502259ad0.png

相關論文預印本現已發表。

以下內容由投稿者提供

視覺基礎模型 SAM[1]在許多計算機視覺任務中產?了重?影響。它已經成為圖像分割、圖像描述和圖像編輯等任務的基礎。

然?,其巨?的計算成本阻礙了它在實際場景中的?泛應?。

最近,中科院?動化所提出并開源了?種加速替代?案 FastSAM。

通過將分割?切任務重新劃分為全實例分割和提?指導選擇兩個?任務,?帶實例分割分?的常規 CNN 檢測器以?出50倍的運?速度實現了與SAM?法相當的性能,是?個實時分割?切的基礎模型。

df4ab45a-1756-11ee-962d-dac502259ad0.png

意義與動機

SAM 的出現帶動了 “分割?切”(Segment Anything)任務的發展。這?任務由于其泛化性和可擴展性,有很?可能成為未來?泛視覺任務的基礎。

FastSAM 為該任務提供了?套實時解決?案,進?步推動了分割?切模型的實際應?和發展。

本?將“分割?切”任務解耦為全實例分割和提?引導選擇兩階段,通過引???先驗結構,在提速 50 倍的情況下實現了與 SAM 相近的表現。

FastSAM 的優秀表現為視覺任務的架構選擇提供了新的視角——對于特定任務,專用模型結構或許在計算效率和精確度上仍具有優勢。

從模型壓縮的?度看,FastSAM 也證明了基于大模型產生高質量數據,通過引???先驗結構大幅降低計算復雜度的路徑的可?性。

示例

Web DEMO

在 HuggingFace 的 Space 中,你可以快速體驗 FastSAM 的分割效果。

你可以上傳一張自定義的圖片,選擇模式并設置參數,點擊分割按鈕,就可以得到一個滿意的分割結果。

現在支持一切模式和點模式的交互,其他模式將在未來嘗試支持。在 Replicate 上已支持所有模式的在線體驗。

df7845aa-1756-11ee-962d-dac502259ad0.jpg

df959a24-1756-11ee-962d-dac502259ad0.jpg

多種交互?式

FastSAM目前共支持三種交互方式。

dfa20b42-1756-11ee-962d-dac502259ad0.png

多點交互模式

FastSAM ?持多個帶有前景/背景標簽的點交互模式,可以很好地適應不同場景的應?需求。

以缺陷檢測場景為例,只需對缺陷部位添加前景點,對正常藥丸部分添加背景點,即可準確地檢測出物體缺陷。

dfcbebce-1756-11ee-962d-dac502259ad0.png

框交互模式

FastSAM 也?持框交互模式。也以缺陷檢測為例,只需對缺陷?致位置進?框選,即可準確檢測出物體缺陷。

dff718bc-1756-11ee-962d-dac502259ad0.png

?本交互模式

FastSAM 也?持并開源了?本交互模式。通過不同的?本提示,FastSAM可以準確分割出不同顏?的?狗。

e0340ec0-1756-11ee-962d-dac502259ad0.png

工作原理

如下圖所示,FastSAM 的網絡架構可分為兩個階段:全實例分割和提示引導選擇。

e061fa24-1756-11ee-962d-dac502259ad0.png

在全實例分割階段,FastSAM 使用卷積神經網絡來對圖像中的所有對象或區域進行劃分。

在提示引導選擇階段,它采用包括點提示、框提示和文本提示的各種提示來選出關注對象。

與基于Transformer的方法不同,FastSAM融合了與視覺分割任務緊密相關的先驗知識,例如局部連接和對象分配策略。這使得它以更低地參數量和計算量下更快地收斂。

定性與定量分析

測試結果表明,FastSAM各方面的表現完全不輸于Meta的原始版本。

速度

從表中可以看出,FastSAM 取得了遠超 SAM 的速度表現,在「分割?切」模式下,SAM的速度會受到均勻點提?數量的影響,? FastSAM 由于結構的特點,運?時間不隨點提?數量的增加?增加,這使得它成為「分割?切」模式的更好選擇。

e0885caa-1756-11ee-962d-dac502259ad0.png

同時,由于 FastSAM 在結構設計中利?了?的先驗知識,使得它在實時推理的同時也具備了與 SAM 相當的性能。

邊緣檢測

下圖展?了具有代表性的邊緣檢測結果。經過定性觀察可以看出,盡管FastSAM的參數明顯較少(只有68M),但它也能產?很?質量的邊緣檢測結果。

e094daa2-1756-11ee-962d-dac502259ad0.png

從下表可以看出,FastSAM 取得了與 SAM 類似的性能。與 Ground Truth 相?,FastSAM和 SAM 都傾向于預測更多的邊緣,這種偏差在表中得到了定量的反映。

e0c0d42c-1756-11ee-962d-dac502259ad0.png

物體候選

從下表可以看出,FastSAM 在 bbox AR@1000 的表現上超過了計算量最?的 SAM 模型(SAM-H E64),僅次于在 LVIS 數據集上監督訓練的 ViTDet-H[2]。

e0e144d2-1756-11ee-962d-dac502259ad0.png

可視化結果

SA-1B 分割結果:下圖展?了 FastSAM 在 SA-1B 數據集上不同場景和掩碼數量時的分割結果。

下游應?對?:下?三張圖對?了 FastSAM 和 SAM 在異常檢測、顯著物體分割和建筑物提取三個下游任務的效果,FastSAM 在不同模式下均取得了和 SAM 相當的表現。

e1392d28-1756-11ee-962d-dac502259ad0.png

e1572968-1756-11ee-962d-dac502259ad0.png

e164b290-1756-11ee-962d-dac502259ad0.png

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    2790

    瀏覽量

    47921
  • Meta
    +關注

    關注

    0

    文章

    186

    瀏覽量

    11186
  • SAM
    SAM
    +關注

    關注

    0

    文章

    109

    瀏覽量

    33392

原文標題:FastSAM模型來了,比SAM原版提速50倍

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學堂】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    如何使用OpenVINO C++ API部署FastSAM模型

    象的位置和邊界。本文將介紹如何使用 OpenVINO C++ API 部署 FastSAM 模型,以實現快速高效的語義分割。在前文中我們發表了《基于 OpenVINO Python API 部署
    的頭像 發表于 11-17 09:53 ?542次閱讀
    如何使用OpenVINO C++ API部署<b class='flag-5'>FastSAM</b><b class='flag-5'>模型</b>

    請問dm8147是否可以使用兩路BT1120傳輸一路sensor高分辨率數據?

    162MPix/s,實測約500W像素25fps。 如果要實時采集更大分辨率圖像,如600w 25fps或800w 25fps,請問是否可以使用兩路BT1120采集,進入dm8147后
    發表于 05-28 12:49

    dm8168 encode fps error

    dvi過來的視頻,采集60fps,nsf后設置輸出幀率25fps,編碼幀率設置為25fps,用視頻軟件看記錄的h264碼流,他的i幀不對,有時25幀一個,有時20幀,有時兩個i幀挨著來
    發表于 06-21 00:09

    【HiSpark_IPC_DIY開發套件】介紹

    高清圖像傳感器,1920*1080 分辨率/25fps實時高清監控。支持標準 UVC/UVA 協議做 USB 攝像頭使用。支持華為鴻蒙系統場景應用及無感配網。`
    發表于 08-26 21:40

    HiSpark_IPC_DIY攝像頭開發套件介紹

    HiSpark_IPC_DIY攝像頭開發套件采用海思 3518EV300 系列 AI DSP,F23 1/2.9 2MP 高清圖像傳感器,1920*1080 分辨率/25fps實時高清監控。支持標準 UVC/UVA 協議做 U
    發表于 09-10 14:20

    用tflite接口調用tensorflow模型進行推理

    摘要本文為系列博客tensorflow模型部署系列的一部分,用于實現通用模型的部署。本文主要實現用tflite接口調用tensorflow模型
    發表于 12-22 06:51

    請問imx6dl做編碼輸出1080p圖像能達到25fps嗎?

    想用IMX6DL做攝像頭硬件編碼,發現1080P最大只能到7.5fps。咨詢一下imx6dl做編碼輸出1080p圖像能達到25fps嗎另 720P可達到25fps
    發表于 01-11 06:58

    【飛凌RK3568開發板試用體驗】RKNN模型推理測試

    Lite、ONNX、Darknet、Pytorch、MXNet 模型。今天先不介紹如何使用RKNN-Toolkit,只介紹得到.rknn模型文件后,如何在嵌入式程序中實現模型
    發表于 12-08 19:06

    壓縮模型會加速推理嗎?

    你好我使用 STM32CUBE-AI v5.1.2 ApplicationTemplate 將簡單的 CNN 導入到 STM32L462RCT我發現壓縮模型推理時間沒有影響。aiRun 程序在 8
    發表于 01-29 06:24

    求助,為什么將不同的權重應用于模型會影響推理性能?

    生成兩個 IR文件(相同的 .xml 文件,但不同的 .bin 文件) 具有不同重量的類似模型,以不同的 fps (27fps 和 6fps) 運行 更多樣化的權重是否會影響 Myr
    發表于 08-15 07:00

    AscendCL快速入門——模型推理篇(上)

    一、概述本文介紹了AscendCL模型推理相關知識,介紹了AscendCL接口加載離線模型,為離線模型準備數據結構以及調用離線模型進行
    發表于 08-24 11:04

    使用rk3588多npu推理模型,模型推理時間還增加了,這怎么解釋

    使用rk3588多npu推理模型,模型推理時間還增加了,這怎么解釋
    發表于 11-05 18:22

    HarmonyOS:使用MindSpore Lite引擎進行模型推理

    場景介紹 MindSpore Lite 是一款 AI 引擎,它提供了面向不同硬件設備 AI 模型推理的功能,目前已經在圖像分類、目標識別、人臉識別、文字識別等應用中廣泛使用。 本文介紹
    發表于 12-14 11:41

    DeepStream如何實現“組合信息”

    前面已經介紹過關于 DeepStream 各種輸入源的使用方式,而且 Jetson Nano 2GB 上開啟 4 路輸入(兩個攝像頭+兩個視頻文件),都能得到 25FPS 以上的實時性能,但畢竟
    的頭像 發表于 08-04 09:41 ?1328次閱讀

    如何使用OpenVINO Python API部署FastSAM模型

    象的位置和邊界。本文將介紹如何使用 OpenVINO Python API 部署 FastSAM 模型,以實現快速高效的語義分割。
    的頭像 發表于 10-27 11:04 ?361次閱讀
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>