<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

簡單三步在Windows上調用低功耗NPU部署AI模型

英特爾物聯網 ? 來源:英特爾物聯網 ? 2024-02-22 17:17 ? 次閱讀

相信很多小伙伴都已經知道,在最新一代的英特爾 酷睿 Ultra 移動端處理中已經集成了被稱為 NPU 的神經網絡加速處理器,以提供低功耗的 AI 算力,特別適合于 PC 端需要長時間穩定運行的 AI 輔助功能,例如會議聊天軟件中的自動摳像,或是畫面超分辨率等應用。而 OpenVINO 工具套件也在第一時間對 NPU 進行了適配,接下來就讓我們一起看一下如何在英特爾 酷睿 Ultra 處理器上搭建基礎環境,并調用 NPU 進行模型推理任務。

NPU 驅動安裝

首先我們需要確保是否安裝了最新版的 NPU 驅動,可以通過 Windows 任務管理調出當前 NPU 驅動版本信息。

7f01b5f0-d162-11ee-a297-92fbcf53809c.jpg

圖:NPU 在 Windows 任務管理器中顯示驅動版本

查詢當前最新的 NPU 驅動版本:

https://www.intel.com/content/www/us/en/download/794734/intel-npu-driver-windows.html

7f1ff6a0-d162-11ee-a297-92fbcf53809c.png

圖:NPU 驅動下載頁面

如果想更新或是重裝 NPU 驅動,可以參考以下指引下載并安裝驅動:

https://docs.openvino.ai/2023.3/openvino_docs_install_guides_configurations_for_intel_npu.html

OpenVINO 的下載和安裝

由于目前 NPU Plugin 還沒有被集成在 OpenVINO 的 PyPI 安裝包中,因此我們需要通過下載 OpenVINO runtime 壓縮包的方式進行安裝。

7f35a298-d162-11ee-a297-92fbcf53809c.png

圖:OpenVINO 下載頁面

整個安裝過程非常簡單,只需將壓縮包解壓到在本地路徑下即可。具體方法可以參考上圖標紅處的安裝說明。

7f5bbdd4-d162-11ee-a297-92fbcf53809c.png

圖:將壓縮包解壓至本地路徑

Python 環境配置

通過執行壓縮包中的 setupvars.bat 環境配置腳本,我們便可以直接在 Python 環境下加載 OpenVINO runtime 和 NPU Plugin 環境。同時利用 OpenVINO 的 Python API 指令,我們可以快速驗證 NPU 是否可以被正常調用。

7fbe5232-d162-11ee-a297-92fbcf53809c.jpg

圖:Python 環境中驗證 NPU 調用

C++ 環境配置

不同于 Python,Windows 上的 C++ 應用需要依賴于 CMake 或者是 Visual Studio 的環境下調試,因此這里我們需要簡單配置下 OpenVINO 庫的路徑。下面以 Visual Studio 中新建項目的屬性配置頁面為例。

7fd6349c-d162-11ee-a297-92fbcf53809c.png

圖:配置 OpenVINO runtime 頭文件路徑

7ff36080-d162-11ee-a297-92fbcf53809c.png

圖:配置 OpenVINO runtime 動態庫路徑

800aead4-d162-11ee-a297-92fbcf53809c.png

圖:配置 OpenVINO runtime 及 frontednd 靜態庫路徑

80332d0a-d162-11ee-a297-92fbcf53809c.png

圖:在 Windows 本地添加 OpenVINO 環境變量路徑

當完成 Visual Studio 項目屬性配置后,我們可以通過調試以下示例代碼,測試 NPU 是否可以被檢測及調用。

#include 
#include 


int main(int argc, char* argv[]) {


  // -------- Get OpenVINO runtime version --------
  std::cout << ov::get_openvino_version() << std::endl;


 ? ?// -------- Step 1. Initialize OpenVINO Runtime Core --------
 ? ?ov::Core core;


 ? ?// -------- Step 2. Get list of available devices --------
 ? ?std::vector availableDevices = core.get_available_devices();


  // -------- Step 3. Query and print supported metrics and config keys --------
  std::cout << "available devices: " << std::endl;
 ? ?for (auto&& device : availableDevices) {
 ? ? ? ?std::cout << device << std::endl;
 ? ?}
}

805d6408-d162-11ee-a297-92fbcf53809c.png

圖:VS 環境中驗證 NPU 調用

測試效果

當完成 NPU 安裝后,我們可以通過 OpenVINO notebooks 中提供的示例,簡單測試下 NPU 的性能。這個示例會通過以下 Python 代碼來將模型部署在 NPU 上。

compiled_model = core.compile_model("model.xml", "NPU")

8077ab42-d162-11ee-a297-92fbcf53809c.png

圖:實時人體關鍵點演示效果

可以看到 NPU 在運行實時人體關鍵點檢測模型時的效果和速度還是非常不錯的,達到了 90FPS 的吞吐量,同時推理任務幾乎也沒有占用 CPU 額外的資源,真正做到了在提供高算力的同時,減輕 CPU 和 GPU 的任務負載。





審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4592

    瀏覽量

    99378
  • python
    +關注

    關注

    52

    文章

    4700

    瀏覽量

    83643
  • 加速處理器
    +關注

    關注

    0

    文章

    8

    瀏覽量

    6421
  • NPU
    NPU
    +關注

    關注

    2

    文章

    226

    瀏覽量

    18191

原文標題:簡單三步在 Windows 上調用低功耗 NPU 部署 AI 模型 | 開發者實戰

文章出處:【微信號:英特爾物聯網,微信公眾號:英特爾物聯網】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    低功耗模型主板:ROC-RK3576-PC

    采用八核64位AIOT處理器RK3576,采用大小核構架(4×A72+4×A53),采用先進制程工藝,高性能低功耗,內置ARMMaliG52MC3GPU,集成6TOPS算力NPU,支持
    的頭像 發表于 05-30 08:02 ?235次閱讀
    <b class='flag-5'>低功耗</b>大<b class='flag-5'>模型</b>主板:ROC-RK3576-PC

    實測NPU“空轉”,AI PC首個落地應用只調用GPU?

    AI PC的一大特征是在傳統PC的CPU+GPU基礎上,增加NPU加強AI 算力。不過有意思的是,最近某品牌PC機型上的AI助手率先落地,支持云端和本地運算兩種模式,確實能夠完成宣傳
    的頭像 發表于 05-22 00:16 ?2552次閱讀

    開發者手機 AI - 目標識別 demo

    。 NNRt host 實現了NNRt HDI接口功能,通過對接底層AI芯片接口為上層應用提供NPU硬件推理的能力。 功能實現 JS從相機數據流獲取一張圖片,調用Native的接口進行目標識別的處理
    發表于 04-11 16:14

    簡單三步使用OpenVINO?搞定ChatGLM3的本地部署

    英特爾 OpenVINO? 工具套件是一款開源 AI 推理優化部署的工具套件,可幫助開發人員和企業加速生成式人工智能 (AIGC)、大語言模型、計算機視覺和自然語言處理等 AI 工作負
    的頭像 發表于 04-03 18:18 ?1326次閱讀
    <b class='flag-5'>簡單</b><b class='flag-5'>三步</b>使用OpenVINO?搞定ChatGLM3的本地<b class='flag-5'>部署</b>

    使用CUBEAI部署tflite模型到STM32F0中,模型創建失敗怎么解決?

    看到CUBE_AI已經支持到STM32F0系列芯片,就想拿來入門嵌入式AI。 生成的模型很小,是可以部署到F0上的,但是一直無法創建成功。 查閱CUBE
    發表于 03-15 08:10

    采用芯原NPU IP的AI類芯片已在全球出貨超過1億顆

    、安防監控、服務器、汽車電子、智能手機、平板電腦、智慧醫療等10個市場領域。在過去七年里,芯原在嵌入式AI/NPU領域全球領先,其NPU IP已被72家客戶用于上述市場領域的128款AI
    的頭像 發表于 02-29 10:26 ?234次閱讀

    【愛芯派 Pro 開發板試用體驗】愛芯派部署ChatGLM3(一)

    模型公開 benchmark 上與 ChatGLM2-6B 模型性能接近。這一創新為自然語言處理應用在移動設備上的部署提供了便捷的方式,進一
    發表于 12-17 22:54

    【愛芯派 Pro 開發板試用體驗】模型部署(以mobilenetV2為例)

    格式,如這里就是axmodel 3、移動端的linux系統安裝好推理引擎 4、使用推理引擎運行 下面一步步的細說,并會挑一些覺得有意思的細節說說。以一個簡單的mobilenetV2為例. 2、訓練
    發表于 12-10 16:34

    AI模型接入手機,行業迎來新一輪競賽

    選擇端側部署,看上去最劃算 當前,AI模型接入手機存在兩種選擇:云端部署和端側部署。 目前,大多數廠商選擇在端側
    發表于 12-05 10:11 ?492次閱讀
    <b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>接入手機,行業迎來新一輪競賽

    python調用windows命令

    Python是一種強大的編程語言,可以用于開發各種不同類型的應用程序。其中一個常見的用途是使用Python調用Windows命令來執行特定的任務。在本文中,我們將詳細討論如何使用Python調用
    的頭像 發表于 11-29 14:34 ?565次閱讀

    與GPU能效齊平,低功耗AI公司的轉型

    ,硬件成本已經成了AI發展的最大瓶頸。 為了訓練高質量的AI模型,堆硬件數量幾乎是避無可避的。為此,越來越多的AI芯片廠商看到了這個缺口,力求以自己的高性能硬件產品來填補競品造成的缺口
    的頭像 發表于 10-23 09:03 ?1091次閱讀
    與GPU能效齊平,<b class='flag-5'>低功耗</b><b class='flag-5'>AI</b>公司的轉型

    【KV260視覺入門套件試用體驗】Vitis AI 構建開發環境,并使用inspector檢查模型

    推斷開發平臺,它可以幫助開發者賽靈思的 FPGA 和自適應 SoC 上實現高效的 AI 應用部署。它是一個強大而靈活的 AI 開發平臺,它可以讓您充分利用賽靈思硬件平臺的優勢,實現
    發表于 10-14 15:34

    NPU跑起來iTOP_RK3588開發板Linux系統中使用NPU

    (buildroot 系統)上運行為例,來講解如何快速上手運行。整體思路分為三步: 1 虛擬機Ubuntu20.04上交叉編譯 demo程序 rknn_yolov5_demo(demo已經默認是rknn
    發表于 09-12 10:05

    npu是什么意思?npu芯片是什么意思?npu到底有什么用?

    。正如CPU和GPU一樣,NPU也是一種專門的處理器芯片,但不同于前二者,NPU被用于深度學習領域。NPU在深度學習領域的應用可以提高運算速度,降低功耗,加速推理流程等。
    的頭像 發表于 08-27 17:03 ?3.4w次閱讀

    邊緣AI應用越來越普遍,AI模型在邊緣端如何部署?

    電子發燒友網報道(文/李彎彎)在人工智能時代,越來越多的AI應用需要從云端擴展到邊緣端,比如智能耳機、智能攝像機、智能手環、物流機器人等,在邊緣端部署AI已經成為趨勢。如今AI
    的頭像 發表于 07-04 00:11 ?2133次閱讀
    邊緣<b class='flag-5'>AI</b>應用越來越普遍,<b class='flag-5'>AI</b><b class='flag-5'>模型</b>在邊緣端如何<b class='flag-5'>部署</b>?
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>