<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

新的 MLPerf 推理網絡部分展現 NVIDIA InfiniBand 網絡和 GPUDirect RDMA 的強大能力

NVIDIA英偉達 ? 來源:未知 ? 2023-07-19 19:10 ? 次閱讀

34e8bcc8-2624-11ee-962d-dac502259ad0.png

在 MLPerf Inference v3.0中,NVIDIA 首次將網絡納入了 MLPerf 的評測項目,成為了 MLPerf 推理數據中心套件的一部分。網絡評測部分旨在模擬在真實的數據中心中,網絡軟、硬件對于端到端推理性能的影響。

在網絡評測中,有兩類節點:前端節點生成查詢,這些查詢通過業界標準的網絡(如以太網或 InfiniBand 網絡)發送到加速節點,由加速器節點進行處理和執行推理。

352c6e1e-2624-11ee-962d-dac502259ad0.png

圖 1:單節點封閉測試環境與多節點網絡測試環境

圖 1 顯示了在單個節點上運行的封閉測試環境,以及在網絡測試環境中通過前端節點生成查詢,然后傳輸到加速器節點上進行推理的工作流程。

在網絡測試場景中,加速器節點包含了推理加速器以及所有網絡組件,包括網卡(NIC)、網絡交換機和完整的網絡體系。因此,網絡評測旨在測試加速器節點和網絡的性能,因為前端節點在基準測試中的作用有限,可以排除它們對測試的影響。

MLPerf 推理 v3.0 網絡評測中的

NVIDIA 網絡性能表現

在 MLPerf 推理 v3.0 中,NVIDIA 提交了在 ResNet-50 和 BERT 兩種場景下的網絡性能結果,從 NVIDIA 提交的性能結果來看,憑借 NVIDIA ConnectX-6 InfiniBand 智能網卡和 GPUDirect RDMA 技術提供的超高網絡帶寬和極低延遲,ResNet-50 在網絡環境中達到了 100% 的單節點性能。

3552dad6-2624-11ee-962d-dac502259ad0.png

表 1:ResNet-50 和 BERT 上網絡評測性能和單機封閉測試性能的比較,有限帶寬實現了理想性能

NVIDIA 平臺在 BERT 工作負載方面也表現出了出色的性能,和單機封閉測試結果性能僅有輕微的差異,這主要是由于主機端的一些開銷而導致。

在 NVIDIA 網絡評測中用到的關鍵技術

大量的全棧技術使 NVIDIA 網絡評測中的強大性能得以實現:

  • NVIDIA TensorRT 優化推理引擎。

  • InfiniBand RDMA 網絡,為張量通信提供低延遲和高帶寬,基于 Mellanox OFED 軟件堆棧中的 IBV verbs 實現。

  • 通過以太網 TCP Socket 進行配置交換、運行狀態同步和心跳監控。

  • 利用 CPU、GPU 和 NIC 資源獲得最佳性能時 NUMA-Aware。

網絡評測部分實施細節

以下是 MLPerf 推理中網絡評測部分的實現細節:
  • 采用高吞吐量、低延遲的 InfiniBand 網絡進行通信
  • 網絡評測部分推理流程
  • 性能優化

通過高吞吐量、低延遲的

InfiniBand 網絡進行通信

網絡評測過程要求提交者通過查詢調度庫(QDL)從負載生成器獲取查詢,然后根據提交者設置的方式將查詢發送到加速器節點。

  • 在生成輸入張量序列的前端節點,QDL 通過測試端(SUT)的 API 對 LoadGen 系統進行抽象,這樣用于本地測試的加速器的 MLPerf 推理 LoadGen 就變得可見。

  • 在加速器節點,通過 QDL 與負責推理請求和響應的 LoadGen 直接交互。在 NVIDIA 的 QDL 實現中,我們使用 InfiniBand IBV verbs 和以太網 TCP Socket 實現了無縫數據通信和同步。

3572b810-2624-11ee-962d-dac502259ad0.png

圖 2:QDL 內部的 InfiniBand 數據交換組件

圖 2 顯示了基于 InfiniBand 網絡技術的 QDL 中的數據交換組件。

359232e4-2624-11ee-962d-dac502259ad0.png

圖 3:前端節點和加速器節點之間建立連接的示例

圖 3 顯示了如何使用該數據交換組件在兩個節點之間建立連接。

InfiniBand 網絡的隊列對(QPs)是節點之間的連接的基礎。NVIDIA 采用了無損可靠連接(RC)方式(和 TCP 類似)和傳輸模式,并利用 InfiniBand HDR 光纖網絡來維持高達 200 Gbits/sec 的吞吐量。

基準測試開始時,QDL 在初始化過程中會發現系統中的所有 InfiniBand 網卡,并根據存儲在 IBCfgs 中的配置信息,指定網卡作為測試的 IBDevice 實例。在這個測試過程中,用于 RDMA 傳輸的內存區域被分配、固定和注冊為 RDMA 緩沖區,并與相應的的 Handle 一起保存在 IBResources 中。

利用 GPUDirect RDMA 技術,可以將加速器節點的 GPU 顯存作為 RDMA 緩沖區,并將 RDMA 緩沖區信息以及相應的保護密鑰通過以太網的 TCP Socket 發送給相對應的節點,這樣就為 QDL 創建 IBConnection 實例。

由于 QDL 支持 NUMA-Aware,可將最近的 NUMA 主機內存、CPU 和 GPU 映射到每張網卡,每個 NIC 都通過 IBConnection 與對端網卡 NIC 進行通信。

網絡評測部分推理流程

35b5c6b4-2624-11ee-962d-dac502259ad0.png

圖 4:使用 Direct GPU RDMA 從前端節點到加速器節點的推理請求流

圖 4 顯示了推理請求是如何從前端節點發送到加速器節點并在加速器節點上被處理的:

  1. LoadGen 生成一個查詢(推理請求),其中包含輸入張量。

  2. QDL 通過仲裁的方式將該查詢重定向到適當的 IBConnection。

  3. 查詢樣本庫(QSL)可能已經被注冊在 RDMA 緩沖區內。如果沒有,則 QDL 將查詢復制到 RDMA 緩沖區。

  4. QDL 啟動相應的 QP 的 RDMA 傳輸。

  5. 通過網絡交換機實現 InfiniBand 網絡傳輸。

  6. 查詢到達對等方的 QP。

  7. 然后通過直接內存訪問技術將查詢傳輸到目的地 RDMA 緩沖區。

  8. 加速器節點的 QDL 確認 RDMA 傳輸完成。

  9. QDL 允許加速器節點能夠批處理查詢,QDL 標記一批查詢,發布到加速器節點的某個加速器上去執行。

  10. 加速器節點的加速器使用 CUDA 和 TensorRT 執行推理,在 RDMA 緩沖區中生成響應。

當在步驟 10 最終執行推理后,會生成輸出張量,并將其置于 RDMA 緩沖區中。然后加速器節點開始以類似的方式但以相反的方向將響應張量傳輸到前端節點。

性能優化

NVIDIA 使用 InfiniBand RDMA_Write 的方式實現了最短的延遲。要成功地應用 RDMA_Write,發送方必須對于對端的內存緩沖區可見。

前端節點和加速器節點都需要管理緩沖區跟蹤器,以確保每個查詢和響應都保存在內存中,直到用完為止。例如,ResNet-50 要想達到理想的性能需要每個連接(QP)管理多達 8K 個交易。

NVIDIA 用到了以下一些關鍵優化。

以下關鍵優化支持更好的可擴展性:

  • 每個 IBConnection(QP)的交易跟蹤器:每個 IBConnection 都有一個獨立的交易跟蹤器,從而實現無死鎖的、關聯內交易記賬。

  • 每個網卡支持多個 QP:任意數量的 IBConnections 可以在任何網卡上實例化,從而可以輕松地自發支持大量交易。

以下關鍵優化提高了 InfiniBand 網絡的資源效率:

  • 使用 INLINE 的方式傳輸小消息:通過 INLINE 傳輸小消息(通常指小于 64 字節)可避免 PCIe 傳輸,從而顯著提高性能和效率。

  • 使用 UNSIGNALLED RDMA Write:由于 UNSIGNALLED 的操作需要在 CQ 隊列中等待直到 SIGNALLED 操作發生,再觸發到目前為止在同一節點中排隊的所有事務的完成處理(批量完成),因此 CQ 維護變得更加高效。

  • 使用 Solicited IB 傳輸:Unsolicited 的 RDMA 操作可以在遠端節點中排隊等待,直到 solicited RDMA 操作發生,再觸發遠端節點中的批量完成。

  • 基于事件的 CQ 管理:避免 CPU 一直忙于等待 CQ,釋放 CPU 個周期。

以下關鍵優化提高了內存系統的效率:

  • 通過 RDMA 傳輸避免了前端節點內的內存拷貝:發送輸入張量時,通過直接將張量存在在 RDMA 注冊的內存中來避免主機內存拷貝。

  • 在加速器節點中聚合 CUDA 的 memcpys:通過盡可能多地集中連續內存中的張量,提高 GPU 顯存拷貝和 PCIe 傳輸的效率。

每家的 QP 實現涵蓋了能支持的最大完成隊列條目數(CQE),以及支持的最大 QP 條目數。擴展每個網卡能支持的 QP 數量,對于降低延遲,同時保持足夠的實時交易量以實現最大吞吐量很重要。

如果 CQ 通過輪詢的方式在短時間內處理大量事務,會對主機 CPU 造成顯著的壓力,在這種情況下,采用基于事件的 CQ 管理,以及減少通知的數量會對此非常有幫助。通過盡可能多地聚集連續內存空間中的數據,如果可能,聚集在 RDMA 注冊的內存空間,可以最大限度地提高內存訪問效率。這對于實現最大性能至關重要。

總結

NVIDIA 平臺在其首次提交的網絡測試結果中表現出色,充分體現了 NVIDIA 在 MLPerf 推理:數據中心封閉部門評測項目中一貫的領先地位,這些結果歸功于許多 NVIDIA 平臺的強大功能實現:

  • NVIDIA A100 Tensor Core GPU

  • NVIDIA DGX A100

  • NVIDIA ConnectX-6 InfiniBand 網絡

  • NVIDIA TensorRT

  • GPUDirect RDMA

這個結果進一步證明了 NVIDIA AI 平臺在行業標準的、業界公認的真實數據中心部署中的高性能和多樣性。

掃描下方二維碼,查看更多有關NVIDIA InfiniBand 的信息。

35dcf9f0-2624-11ee-962d-dac502259ad0.png


35f2adc2-2624-11ee-962d-dac502259ad0.gif ?

更多精彩內容 跨越距離:NVIDIA 平臺解決邊緣的 HPC 問題
GreatSQL & NVIDIA InfiniBand NVMe SSD 存算分離池化方案:實現高性能分布式部署
NVIDIA Quantum InfiniBand 打造 AI 時代 GPU 計算的高性能存儲技術


原文標題:新的 MLPerf 推理網絡部分展現 NVIDIA InfiniBand 網絡和 GPUDirect RDMA 的強大能力

文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    22

    文章

    3334

    瀏覽量

    87836

原文標題:新的 MLPerf 推理網絡部分展現 NVIDIA InfiniBand 網絡和 GPUDirect RDMA 的強大能力

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    RDMA在高速網絡中的應用及其實現策略

    在大型模型應用領域,要獲得最佳性能,關鍵在于精密配置,特別是當GPU與InfiniBand網卡協同工作時。這里參考了合作伙伴NVIDIA推出的DGX系統,它倡導了一種GPU與InfiniBand網卡一對一配對的設計理念,并樹立了
    發表于 04-22 10:57 ?84次閱讀
    <b class='flag-5'>RDMA</b>在高速<b class='flag-5'>網絡</b>中的應用及其實現策略

    利用NVIDIA組件提升GPU推理的吞吐

    本實踐中,唯品會 AI 平臺與 NVIDIA 團隊合作,結合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)將推理的稠密
    的頭像 發表于 04-20 09:39 ?171次閱讀

    深入探索InfiniBand網絡、HDR與IB技術

    InfiniBand和以太網之間的延遲對比可以分為兩個主要組成部分。首先,在交換機層面上,以太網交換機在網絡傳輸模型中作為第2層設備運行,通常采用MAC表查找尋址和存儲轉發機制(某些產品可能采用
    發表于 04-19 11:01 ?143次閱讀
    深入探索<b class='flag-5'>InfiniBand</b><b class='flag-5'>網絡</b>、HDR與IB技術

    一文詳解超算中的InfiniBand網絡、HDR與IB

    InfiniBand技術被認為是面向未來的高性能計算(HPC)標準,在超級計算機、存儲甚至LAN網絡的HPC連接方面享有很高的聲譽。
    的頭像 發表于 04-16 10:18 ?250次閱讀
    一文詳解超算中的<b class='flag-5'>InfiniBand</b><b class='flag-5'>網絡</b>、HDR與IB

    什么是NVIDIA?InfiniBand網絡VSNVLink網絡

    NVSwitch物理交換機將多個NVLink GPU服務器連接成一個大型Fabric網絡,即NVLink網絡,解決了GPU之間的高速通信帶寬和效率問題。
    發表于 04-16 09:56 ?168次閱讀
    什么是<b class='flag-5'>NVIDIA</b>?<b class='flag-5'>InfiniBand</b><b class='flag-5'>網絡</b>VSNVLink<b class='flag-5'>網絡</b>

    NVIDIA發布專為大規模AI量身訂制的全新網絡交換機-X800系列

    NVIDIA Quantum-X800 InfiniBand 網絡NVIDIA Spectrum?-X800 以太網絡是全球首批高達 8
    的頭像 發表于 03-20 09:54 ?237次閱讀

    rdma網絡是什么?RDMA網絡有什么應用場景?

    RDMA(Remote Direct Memory Access)網絡是一種技術,它通過網絡直接在計算機之間傳輸數據,而無需雙方操作系統的介入。這種技術可以允許高吞吐、低延遲的網絡通信
    的頭像 發表于 12-22 09:30 ?575次閱讀

    RDMA和TCP/IP有什么區別

    在分布式存儲網絡中,我們使用的協議有RoCE、Infiniband(IB)和TCP/IP。其中RoCE和IB屬于RDMA (RemoteDirect Memory Access)技術,他和傳統的TCP/IP有什么區別呢,接下來我
    的頭像 發表于 11-30 09:19 ?738次閱讀
    <b class='flag-5'>RDMA</b>和TCP/IP有什么區別

    態路小課堂丨InfiniBand與以太網:AI時代的網絡差異

    ? 近年來,隨著人工智能技術的迅猛發展,以ChatGPT為代表的大型AI模型引起了廣泛關注。然而,在這個AI時代,我們不得不重新審視傳統的以太網和基于InfiniBand構建的網絡之間的區別。尤其是
    的頭像 發表于 11-29 18:16 ?423次閱讀
    態路小課堂丨<b class='flag-5'>InfiniBand</b>與以太網:AI時代的<b class='flag-5'>網絡</b>差異

    最新MLCommons結果公布 英特爾展現強大AI推理性能

    、第四代英特爾 至強 可擴展處理器,以及英特爾 至強 CPU Max系列的測試結果。 該結果顯示了英特爾在AI推理方面極具競爭力的表現,并進一步加強了其對加速從云到網絡到邊緣再到端的工作負載中大規模部署AI的承諾。 “ 正如最新的MLCommons結果顯示,我們擁有
    的頭像 發表于 09-15 19:35 ?335次閱讀
    最新MLCommons結果公布 英特爾<b class='flag-5'>展現</b><b class='flag-5'>強大</b>AI<b class='flag-5'>推理</b>性能

    NVIDIA Grace Hopper超級芯片橫掃MLPerf推理基準測試

    平臺無論是在云端還是網絡邊緣均展現出卓越的性能和通用性。 ? 此外,NVIDIA宣布推出全新推理軟件,該軟件將為用戶帶來性能、能效和總體擁有成本的大幅提升。 ? GH200 超級芯
    發表于 09-13 09:45 ?166次閱讀
    <b class='flag-5'>NVIDIA</b> Grace Hopper超級芯片橫掃<b class='flag-5'>MLPerf</b><b class='flag-5'>推理</b>基準測試

    NVIDIA Grace Hopper 超級芯片橫掃 MLPerf 推理基準測試

    平臺無論是在云端還是網絡邊緣均展現出卓越的性能和通用性。 此外,NVIDIA 宣布推出全新推理軟件,該軟件將為用戶帶來性能、能效和總體擁有成本的大幅提升。 GH200 超級芯片在
    的頭像 發表于 09-12 20:40 ?280次閱讀

    高性能、低延遲的InfiniBand網絡并不是唯一的選擇

    正如我們喜歡指出的那樣,當談到高性能、低延遲的 InfiniBand網絡時,Nvidia 并不是唯一的選擇,自 20 世紀 90 年代末 InfiniBand 互連出現以來就一直不
    的頭像 發表于 08-27 09:44 ?1094次閱讀
    高性能、低延遲的<b class='flag-5'>InfiniBand</b>式<b class='flag-5'>網絡</b>并不是唯一的選擇

    InfiniBand網絡架構及技術原理解析

    簡單來說,InfiniBand的誕生目的,就是為了取代PCI總線。它引入了RDMA協議,具有更低的延遲,更大的帶寬,更高的可靠性,可以實現更強大的I/O性能。(技術細節,后文會詳細介紹。)
    發表于 08-09 10:38 ?2346次閱讀
    <b class='flag-5'>InfiniBand</b>的<b class='flag-5'>網絡</b>架構及技術原理解析

    什么是RDMA?什么是RoCE網絡技術?

    在數據為王的時代,人們對網絡的要求更加嚴苛。然而傳統的TCP / IP以太網連接占用了大量的CPU資源,并且需要額外的數據處理,已無法再滿足當前更快、更高效和可擴展性的網絡需求。在這種情況下,RoCE(RDMA over Con
    的頭像 發表于 07-24 17:40 ?4054次閱讀
    什么是<b class='flag-5'>RDMA</b>?什么是RoCE<b class='flag-5'>網絡</b>技術?
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>