<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于INTEL 11代芯片Tiger Lake 在OPENVINO AI 套件上所開發之LUS.AI即時互動智慧醫療解決方案

大大通 ? 2022-11-29 11:08 ? 次閱讀


提案動機

在肺部的檢查上,超音波相較X光或電腦斷層掃描,具有無放射性,操作相對方便的優點。但傳統超音波具有不可攜性,病患須至醫療院所才能做超音波檢查,對于偏遠或醫療資源匱乏的地區,難以利用。

且超音波在判讀上,具有難解釋性的缺點,對于超音波影像的判讀,往往訓練時間長,判讀時間也較久,醫生與醫生間也存在著主觀判讀的歧異性,在醫病溝通上,對于判讀過后的結果,醫師也較難與病患說明。

基于上述的兩項缺點 (不可攜性、難解釋性),本團隊希望能訓練AI模型,協助醫師做肺部超音波影像的判讀,并利用OpenVINO具有最佳化與壓縮模型的優點,協助我們最大化利用現有的硬體資源做模型的推論,讓AI模型在肺部超音波的判讀上更快、更即時,達到即時輔助判讀的效果。

另我們也配合可攜式的超音波探頭做測試,希望往后也能在院外做超音波檢測,達到遠距醫療的愿景。

解決方案

LUS.AI 團隊開發的移動式智能超音波方案,只要帶著一臺筆電和手持超音波機,不用插電源就可以到處移動為病患做檢查。

本團隊開發用的筆電規格為 Intel? Core? i7 1165G7 處理器 2.8 GHz,搭配顯卡 Intel? Iris Xe Graphics,16G RAM。簡單來說這就是一臺 Intel 第11代 CPU 的筆電,平??梢宰饕话闶褂玫挠猛?,比如開視訊會議、分享討論案例等等,但如果搭配觸控筆也能方便對超音波影像做標注。

除了在筆電上導入AI功能可以輕松達成外,即使今天到了收訊不良的地區,因為AI在筆電里面跑,所以不需要額外的網路連線,模型推論也非常迅速,能夠即時提供醫師第一時間的判讀參考。

(目前完成的只有AI肺部異常偵測的模組)

<圖一、 智慧超音波解決方案>

成果說明

AI模型的設計訓練是使用 Tensorflow 2.6 完成,OpenVINO 則是銜接后續模型布署和推論的部分。以下是本文分享的大鋼,分為四個項目,2 3 4 項 是比較少文章提到的部分,將無私與大家分享:

  1. OpenVINO? 基礎開發流程
  2. 不同精度模型在不同裝置上的推論速度比較
  3. 不得已的 CAM
  4. OpenVINO? Integration with TensorFlow* (new)


<圖二、OpenVINO? 的應用架構,資料來源:Intel?>

OpenVINO? 基礎開發流程

圖二 所示,最左邊是訓練好的模型,藍色的部分是 OpenVINO? 的區塊,推論引擎與應用程式作互動。

  1. 模型開發的部分,我們選用 Tensorflow 作框架,因為Tensorflow生態系是比較完整的,許多工具都有支援。最后將模型存檔為 Saved Model 格式。
  2. OpenVINO? 在安裝上,是比較復雜的部分,網路上有許多文章介紹如何安裝,但可能因為 OpenVINO? 持續改版的關系,所以建議還是參考官網的安裝說明,是最沒問題的方式。
  3. 其實如果不想在本機安裝的話,其實還有兩個選擇,都可以完成 Model Optimizer 的步驟(簡稱 MO)。這個MO步驟,將會把模型轉換為 FP32 或 FP16 的 IR 檔案(.xml .bin),也就是OpenVINO?的模型檔案格式:

[第一個選擇]是申請使用 OpenVINO DevCloud 來進行MO,線上的虛擬機器里面都已經安裝好相關的工具,很方便上傳模型后做轉換模型(可以參考MakerPRO的介紹)。

[第二個選擇]是使用 Google CoLab 的環境(Ubuntu 18.04)安裝OpenVINO?使用,有一個優點就是:安裝失敗可以重新開一個 notebook重頭開始。最后將轉換完成的 IR 檔下載下來即可。參考這篇文章(里面有CoLab連結),但連結中的這個范例安裝OpenVINO?的版本比較舊,建議參考官方的安裝說明作點小修改。

  1. 推論引擎 Inference Engine 的部分(簡稱 IE),是正式應用程式要跑的部分,借由它來讀取 IR 檔,并選擇在 OpenVINO?支援的硬體上作快速的模型推論。這部分若想體驗,其實也可以使用 CoLab notebook 先做測試,只需要pip install openvino就可以使用OpenVINO?的 IE推論引擎了,詳細也可參考這篇文章(內有CoLab連結)。
  2. 使用者界面 User Application,我們使用 pyQt5 來建立 windows的簡單程式。其中影像顯示、模型推論、熱圖顯示是使用兩個平行處理完成。由于模型推論速度已經很快(幾十個毫秒),所以速度較慢的反而是資料的前處理、后處理和UI的部分,這方面要加速的話,也許可以做更多的平行化的設計,讓應用程式可以更為即時(real-time)。


不同精度模型在不同裝置上的推論速度比較

這邊使用 OpenVINO? 的benchmark 工具,來評估模型推論引擎 (IE) 搭配不同裝置的效能,這臺筆電包含了兩個可用的裝置(CPU、iGPU)。

以下 圖三 的評估只有考慮到模型推論的部分,資料前處理、后處理、UI等都沒有納入計算。淺藍色為 MO 轉換的 FP16 的模型,深藍為 FP32 的模型。我們可以看到FP16模型在 GPU 的效能為 CPU 的兩倍,同質整合CPU和GPU的模式(MULTI)有更佳的表現。但其實 CPU裝置沒有支援 FP16 的資料輸入,所以效能比直接使用 FP32 略差。異質整合(HETERO)模式,將模型拆分為 CPU執行的部分和 GPU執行的部分,僅供參考。

最后,其實在 iGPU 上就已經足夠快了,我們的應用目標是包含前處理、后處理、UI 達到 30 FPS。所以我們決定使用 高精度(FP32)模型在 iGPU 上做推論,然后將 CPU 留做 前處理、后處理、UI 的運算上使用。

<圖三、推論引擎使用不同裝置的效能,每秒推論幾個樣本(FPS) >

不得已的 CAM

CAM (Class Activation Mapping) 是作為分類依據的可視化方法,也是 圖一 相片中的熱區圖。CAM(沒有Grad) 的實作上,我們參考了這篇范例(pneumonia-classification)。如果有使用 DevCloud 的話,也可以在Sample Applications當中找到這范例。

但這個范例方法沒有辦法計算模型的梯度(Gradient),所以沒有辦法算出比較好的熱圖(Grad-CAM等)。分析無法得到模型梯度是因為 OpenVINO? 專注在模型布署和推論上(Forward pass);所以如果要監看梯度等進階需求,可能還是得回到 Tensorflow 的功能來實現。

<圖四、Tensorflow 實現的 Grad-CAM 熱區顯示比較精確>

OpenVINO? Integration with TensorFlow* (new)

因為要做到 Grad-CAM,所以需要進階地使用到 Tensorflow。但如何讓 Tensorflow 可以使用到Intel的內顯(iGPU) 就需要用到:OpenVINO? integration with TensorFlow (GitHub repo) 。它跟上面提到的 OpenVINO? 運作方式上不太一樣,這個工具提供的是一個 整合的后端(backend) 讓 Tensorflow 可以直接使用到 Intel? 的裝置 CPU、iGPU、VPU,如圖五所示。

<圖五、OpenVINO? Integration with TensorFlow 應用架構,資料來源:Intel?>

在筆者撰寫此篇的時候,它在 Windows 上還是 Beta版 (其他作業系統已經是正式版了)。但我們還是依照互動安裝指引來安裝這個工具,如 圖六 所示,Windows版 當前只支援 Python3.9。

<圖六、互動安裝指引,資料來源:Intel?>

在使用上,出奇的簡單!如 圖七 的簡單范例,在定義完 后端(backend) 之后,就繼續正常使用 Tensorflow 。



結論

目前嘗試的 OpenVINO? Integration with TensorFlow 在windows上的beta版,后端可以看出有使用到新一代的 Intel oneAPI 的 oneDNN,在硬體的整合運用上很值得期待。雖然目前 openvino_tensorflow 在我們模型上的推論效能為 25.27 FPS 表現較為普通,但期待日后正式版的發布,屆時若能與 iGPU 整合得更好,想必會有更佳的體驗。


#LUS.AI 團隊

?場景應用圖

pYYBAGOFd6-AS_LTAAVQ6fJ5pH0018.jpg

?產品實體圖

pYYBAGOFd62AGvu4AACIeDRUJaQ384.jpg

?展示板照片

pYYBAGOFd6-AIYclAAwH1AuWCIw579.pngpoYBAGOFd7CAfBkZAAwujW8Cie0116.png

?方案方塊圖

pYYBAGOFd66ASPxqAACaWAn1ik0419.jpg

?Intel 11 Gen Tiger Lake Spec.

poYBAGOFd7CAVYgMAAQorhRtPN8666.jpg

?核心技術優勢

1. 高效能 CPU 與 GPU 結合 AI 和深度學習功能,能夠在各種用途整合工作負載,例如電腦數值控制 (CNC) 機器、即時控制、人機界面、工具應用、醫療成像與診斷(在超音波這類用途),以及需要具備 AI 功能高分辨率 HDR 輸出的其他用途。

2. 顯示芯片、媒體與顯示器引擎可輸出達 4x4k60 HDR 或 2x8K60 SDR,搭載兩個 VDBOX,可以用 1080p 和每秒 30 個影格的方式,解碼超過 40 個傳入的視訊串流。引擎支援各種用途,例如數位招牌與智能零售(包括專為分析強化的 AI),以及具備推斷功能的電腦視覺,適用于網路視訊錄制器或機器視覺與檢測這類用途。

3. 利用在 CPU 向量神經網路指令集 (VNNI) 執行的 Intel? DL Boost,或是利用在 GPU (Int8) 執行的 8 位元整數指令集,即可實現 AI 與推斷加速。

4. 全新的物聯網導向軟硬體,實現了需要提供及時效能的各種應用。適用于可程式化邏輯控制器機器人這類用途的快速周期時間與低延遲。

?方案規格

* 頻率最高可達 4.4 GHz
*搭載達 96 個 EU 的 Intel? Iris? Xe 顯示芯片
*最高支援 4x4k60 HDR 或 2x8K60 SDR
*Intel? Deep Learning Boost
*最高 DDR4-3200 / LPDDR4x-4267
*Thunderbolt? 4/USB4 與 PCIe
* 4.0 (CPU)

*Intel? Time Coordinated Computing(在精選的 SKU)

*頻內 ECC 與延伸溫度(在精選的 SKU)

*Intel? Functional Safety Essential Design Package (Intel? FSEDP)(在精選的 SKU)

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • intel
    +關注

    關注

    19

    文章

    3456

    瀏覽量

    184988
  • AI
    AI
    +關注

    關注

    87

    文章

    27061

    瀏覽量

    264828
  • 智慧醫療
    +關注

    關注

    9

    文章

    1027

    瀏覽量

    46093
  • OpenVINO
    +關注

    關注

    0

    文章

    63

    瀏覽量

    97
收藏 人收藏

    評論

    相關推薦

    AI芯片哪里買?

    AI芯片
    芯廣場
    發布于 :2024年05月31日 16:58:19

    聯發科發布天璣AI開發套件,賦能終端生成式AI應用

    聯發科近日推出了全新的天璣AI開發套件,旨在為合作伙伴打造一站式解決方案,以加速終端生成式AI應用的開發。這款
    的頭像 發表于 05-10 11:19 ?287次閱讀

    risc-v多核芯片AI方面的應用

    多核芯片AI方面的應用具有廣闊的前景和巨大的潛力。隨著技術的不斷進步和應用的深入,我們期待看到更多基于RISC-V多核芯片AI解決方案
    發表于 04-28 09:20

    【每周推薦】采用11Intel CPU,基于youyeetoo X1開發板搭建少兒AI智能STEAM積木平臺

    了解到: 具體的硬件參數,有一長溜,我就不貼了,可以從官方WiKi了解。套件中的屏幕,是一塊7寸MIPI屏幕,具體介紹如下: 二、配件 官方WiKi,列出了可用的配件: 因為提前做過
    發表于 04-10 14:38

    服務器級第11Intel?Xeon?高性能PXI Express控制器介紹

    采用第11Intel Xeon W-11865MRE處理器( 代號“Tiger Lake”)
    的頭像 發表于 02-22 11:40 ?557次閱讀

    如何快速下載OpenVINO Notebooks中的AI大模型

    OpenVINO Notebooks是Jupyter Notebook形式的OpenVINO范例程序大集合,方便開發者快速學習并掌握OpenVINO推理程序,并通過Copy&Paste
    的頭像 發表于 12-12 14:40 ?753次閱讀
    如何快速下載<b class='flag-5'>OpenVINO</b> Notebooks中的<b class='flag-5'>AI</b>大模型

    AMD以技術賦能生成式AI算力解決方案

    生成式AI應用的熱潮,AMD帶來了完整的AI 系統解決方案,支持大語言模型,為客戶提供即時可用,具有極高性價比和廣泛應用場景的解決方案,成為
    的頭像 發表于 12-12 11:24 ?556次閱讀

    【KV260視覺入門套件試用體驗】Vitis AI 構建開發環境,并使用inspector檢查模型

    推斷開發平臺,它可以幫助開發賽靈思的 FPGA 和自適應 SoC 實現高效的 AI 應用部署。它是一個強大而靈活的
    發表于 10-14 15:34

    基于英特爾開發套件AI字幕生成器設計

    量化的 Base Whisper 模型通過 OpenVINO 工具套件進行 AI 推理部署。由于聲音處理應用的廣泛性,開發者可以基于本項目繼續進行
    的頭像 發表于 09-27 16:59 ?589次閱讀
    基于英特爾<b class='flag-5'>開發套件</b>的<b class='flag-5'>AI</b>字幕生成器設計

    研揚AI爆發智慧醫療的潛力-研揚的多面性智慧醫療方案提供了兩種解決方案,帶來無窮的可能性

    智慧醫療產業,研揚的邊緣人工智能解決方案提供高效節能且極為強大的視覺推理工具,正是醫界所需。使用BOXER-8256AI,可以利用世界級的人工智能性能進行更準確高效的影像診斷
    的頭像 發表于 09-23 08:07 ?378次閱讀
    研揚<b class='flag-5'>AI</b>爆發<b class='flag-5'>智慧</b><b class='flag-5'>醫療</b>的潛力-研揚的多面性<b class='flag-5'>智慧</b><b class='flag-5'>醫療</b><b class='flag-5'>方案</b>提供了兩種<b class='flag-5'>解決方案</b>,帶來無窮的可能性

    AI智能呼叫中心

    ,對用戶的需求進行準確的預判,并針對性地提供解決方案,有助于提高用戶體驗和忠誠度三、數據驅動決策AI智能呼叫中心能夠實時收集并分析大量的數據,包括呼叫記錄、客戶反饋、問題類型和解決方案等信息,通過
    發表于 09-20 17:53

    基于OpenVINO在英特爾開發套件上實現眼部追蹤

    本文將以訓練一個眼部追蹤 AI 小模型為背景,介紹從 Pytorch 自定義網絡模型,到使用 OpenVINO NNCF 量化工具優化模型,并部署到英特爾開發套件愛克斯開發板 AIx
    的頭像 發表于 09-18 10:11 ?499次閱讀

    永久設置OpenVINO trade Windows reg10的工具套件環境變量

    ;gt;環境變量的控制面板。系統變量下,以以下各項的相應值添加以下作為新變量,如下所示: 可變名稱可變值筆記 INTEL_OPENVINO_DIRC:\\Program Files (x86
    發表于 08-15 07:18

    Ai 部署的臨界考慮電子指南

    雖然GPU解決方案對訓練,AI部署需要更多。 預計到2020年中期,人工智能行業將增長到200億美元,其中大部分增長是人工智能推理。英特爾Xeon可擴展處理器約占運行AI推理的處理器
    發表于 08-04 07:25

    AI愛克斯開發板上用OpenVINO?加速YOLOv8-seg實例分割模型

    《在 AI 愛克斯開發板上用 OpenVINO 加速 YOLOv8 目標檢測模型》介紹了在 AI 愛克斯開發板上使用
    的頭像 發表于 06-30 10:43 ?491次閱讀
    在<b class='flag-5'>AI</b>愛克斯<b class='flag-5'>開發</b>板上用<b class='flag-5'>OpenVINO</b>?加速YOLOv8-seg實例分割模型
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>