<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

InfiniBand網絡設計和研究

sakobpqhz ? 來源:算力基建 ? 作者:算力基建 ? 2022-12-02 14:05 ? 次閱讀

InfiniBand是目前發展最快的高速互連網絡技術之一,具有高帶寬、低延遲和易擴展的特點。通過研究和實踐,對InfiniBand技術的數據包、數據傳輸、層次結構、與以太網技術的對比、交換機制、發展愿景等進行了全面探索。

01 引言

隨著中央處理器CPU)運算能力的極速增長,高速互連網絡HIS (High Speed Interconnection)已成為高性能計算機研制的關鍵所在。HSI 是改善計算機外圍元件擴展接口(Peripheral Component Interface,PCI) 的性能不足而提出的一項新技術。經過多年的發展,支持高性能計算(High Performance Computing,HPC) 的HSI目前主要是Gigabit Ethernet 和InfiniBand,而InfiniBand 是其中增長最快的HSI。InfiniBand 是在InfiniBand貿易協會(IBTA)監督下發展起來的一種高性能、低延遲的技術。

02 InfiniBand Trade

Association(IBTA)

IBTA 成立于1999年,由Future I/O Developers Forum 和NGI/O Forum 兩個工業組織合二為一組成,在HP、IBM、Intel、Mellanox、Oracle、QLogic、Dell、Bull 等組成的籌劃運作委員會領導下工作。IBTA 專業從事產品的遵從性和互用性測試,其成員一直致力于推進InfiniBand 規范的設立與更新。

03 InfiniBand 概述

InfiniBand是一種針對處理器與I/O 設備之間數據流的通信鏈路,其支持的可尋址設備高達64000 個。InfiniBand架構(InfiniBand Architecture,IBA) 是一種定義點到點(point-to-point)交換式的輸入/ 輸出框架的行業標準規范,通常用于服務器、通信基礎設施、存儲設備和嵌入式系統的互連。

InfiniBand具有普適、低延遲、高帶寬、管理成本低的特性,是單一連接多數據流(聚類、通信、存儲、管理)理想的連接網絡,互連節點可達成千上萬。最小的完整IBA 單元是子網(subnet),多個子網由路由器連接起來組成大的IBA 網絡。IBA 子網由端節點(end-node)、交換機、鏈路和子網管理器組成。

InfiniBand發展的初衷是把服務器總線網絡化,所以InfiniBand 除了具有很強的網絡性能以外還直接繼承了總線的高帶寬和低時延。總線技術中采用的DMA(Direct Memory Access) 技術在InfiniBand 中以RDMA (Remote Direct Memory Access)的形式得以實現。RDMA服務可在處理器之間進行跨網絡數據傳輸,數據直接在暫時內存之間傳遞,不需要操作系統介入或數據復制。RDMA 通過減少對帶寬和處理器開銷的需要降低了時延,這種效果是通過在NIC硬件中部署一項可靠的傳輸協議以及支持零復制網絡技術和內核內存旁路實現的。

這使得InfiniBand 在與、及存儲設備的數據交換方面天生地優于萬兆以太網以及光纖通道(FiberChannel)。InfiniBand 實現了基于客戶機- 服務器和消息傳遞的通信方案及基于存儲映射實現網絡通信的方案,將復雜的I/O系統與處理器、存儲設備分離,使I/O 子系統獨立,是一種基于I/O 通道共享機制的總線互連技術。

InfiniBand系統由信道適配器(Channel Adapter)、交換機、路由器、線纜和連接器組成。CA 分為主機信道適配器(Host Channel Adapter) 和目標信道適配器(Target ChannelAdapter)。IBA 交換機原理上與其它標準網絡交換機類似,但必須能滿足InfiniBand 的高性能和低成本的要求。InfiniBand 路由器是用來把大網絡分割為更小的子網,并用路由器連接在一起。HCA 是一個設備點,諸如服務器或存儲設備的IB 端節點通過該設備點連接到IB 網絡。TCA是信道適配器的一種特別形式,多用于存儲設備等嵌入式環境。

InfiniBand 體系結構如圖1所示:

684833c6-71fe-11ed-8abf-dac502259ad0.png

InfiniBand有幾大優勢,基于標準的協議、高速率、遠程直接內存存?。≧DMA)、傳輸卸載(transport offload)、網絡分區和服務質量(QoS)。

標準:成立于1999年的IBTA 擁有300 多個成員,它們共同設計了IBA 開放標準。IBA 支持SRP(SCSI RDMA Protocol)和iSER(iSCSI Extensions for RDMA)存儲協議。

速率:InfiniBand傳輸速率目前已達168Gbps(12xFDR),遠遠高于萬兆光纖通道的10Gbps 和10 萬兆以太網的100Gbps。

內存:支持InfiniBand的服務器使用主機通道適配器(HCA),把協議轉換到服務器內部的PCI-X或PCI-E 總線。HCA 具有RDMA 功能,RDMA 通過一個虛擬的尋址方案,數據直接在服務器內存中傳輸,無需涉及操作系統的內核,這對于集群來說很適合。

傳輸卸載:RDMA實現了傳輸卸載,使數據包路由從操作系統轉到芯片級,大大節省了處理器的處理負擔。網絡分區:支持可編程的分區密鑰和路由。

服務質量:多層次的QoS 保障,滿足服務請求者對QoS需求的多樣性。

04 InfiniBand 數據包和數據傳輸

數據包(Packet)是InfiniBand 數據傳輸的基本單元。為使信息在InfiniBand 網絡中有效傳播,信息由信道適配器分割成許多的數據包。一個完整的IBA 數據包由本地路由報頭(Local Route Header)、全局路由報頭(Global Route Header)、基本傳輸報頭(Base TransportHeader)、擴展傳輸報頭(Extended Transport Header)、凈荷(Payload,PYLD)、固定循環冗余檢測(Invariant CRC,ICRC)和可變循環冗余檢測(Variant CRC,VCRC)等域(field)組成,如圖2 所示。

6867cb28-71fe-11ed-8abf-dac502259ad0.png

LRH:8 字節,用于交換機轉發數據包時確定本地源端口和目的端口以及規范數據包傳輸的服務等級和虛通路(Virtual Lane,VL)。

GRH:40 字節,用于對子網間的數據包進行路由,確保數據包在子網之間的正確傳輸。它由LRH 中的Link Next Header(LNH)域指定,采用RFC 2460 定義的IPv6 報頭規范。

BTH:12 字節,指明目的隊列偶(Queue Pair,QP)、指示操作碼、數據包序列號和分段。

ETH:4-28 字節,提供可靠數據報(Datagram)服務。Payload (PYLD):0-4096 字節,被發送的端到端應用數據。

ICRC:4 字節,封裝數據包中從源地址發往目的地址時保持不變的數據。

VCRC:2 字節,封裝鏈接過程中可變的IBA 和原始(raw)數據包。VCRC 在結構(fabric)中可被重構。

InfiniBand數據包使用一個128 位的IPv6 擴展地址,其數據包包括InfiniBand GRH 中的源(HCA)和目的(TCA)地址,這些地址使InfiniBand 交換機可以立即將數據包直接交換到正確的設備上。

基于銅纜和光纖,InfiniBand物理層支持單線(1X)、4 線(4X)、8 線(8X)和12 線(12X)數據包傳輸。

InfiniBand標準支持單倍速(SDR)、雙倍速(DDR)、四倍速(QDR)、十四倍速(FDR)和增強倍速(EDR)數據傳輸速率,使InfiniBand 能夠傳輸更大的數據量( 見表1)。由于InfiniBand DDR/QDR 極大地改善了性能,所以它特別適合于傳輸大數據文件的應用,如分布式數據庫和數據挖掘應用。

6891937c-71fe-11ed-8abf-dac502259ad0.png

與InfiniBandSDR 一樣,DDR 和QDR 也采用了直通轉發技術(Cut-Through)。如果采用不同的傳輸速率,則InfiniBand 子網管理器須是拓撲透明(Topology-aware)的,并只把SDR 數據包轉發至SDR 連接(或把DDR 數據包轉發至DDR 連接),或者交換網絡須能存儲和轉發數據包以提供速率匹配。

當在SDR 和DDR 連接之間進行數據交換時,附加的存儲轉發延時是數據包串行化延時的一半。為了在SDR 主機和DDR 主機進行數據交換,DDR主機根據連接建立時交換產生的QP 參數進行限速傳輸。

05 InfiniBand 架構層次結構

根據IBTA 的定義,InfiniBand 架構由物理層、鏈路層、網絡層和傳輸層組成,其層次結構如圖3所示。

68aebf24-71fe-11ed-8abf-dac502259ad0.png

物理層:物理層為鏈路層提供服務,并提供這兩層的邏輯接口。物理層由端口信號連接器、物理連接(電信號和光信號)、硬件管理、電源管理、編碼線等模塊組成,其主要的作用:

(1)建立物理連接;

(2)通知鏈路層物理連接是否有效;

(3)監聽物理連接狀態,在物理連接有效時,把控制信號和數據傳遞給鏈路層,傳輸從鏈路層來的控制和數據信息。

鏈路層:鏈路層負責處理數據包中鏈接數據的收發,提供地址、緩沖、流控制、錯誤檢測和數據交換等服務。服務質量(QoS)主要由該層體現。狀態機(state machine)用來把鏈路層的邏輯操作定義為外部可訪問操作,并不指定內部操作。

例如,雖然我們希望鏈路層的操作能夠并行處理數據流的多個字節,但數據包接收狀態機還是將從鏈路層接收到的數據作為字節流來處理。

網絡層:網絡層負責對IBA 子網間的數據包進行路由,包括單點傳送(unicast)和多點傳送(multicast)操作。網絡層不指定多協議路由(如非IBA 類型之上的IBA 路由),也不指定IBA 子網間原始數據包是如何路由。

傳輸層:每個IBA數據包含有一個傳輸報頭(header)。傳輸報頭包含了端節點所需的信息以完成指定的操作。通過操控QP,傳輸層的IBA 通道適配器通信客戶端組成了“發送”工作隊列和“接收”工作隊列。

對于主機來說,傳輸層的客戶端是一個Verbs 軟件層,客戶端傳遞緩沖器或命令至這些隊列,硬件則往來傳送緩沖器數據。當建立QP時,它融合了四種IBA 傳輸服務類型(可靠的連接、可靠的自帶尋址信息、不可靠的自帶尋址信息、不可靠的連接)中的一種或非IBA協議封裝服務。傳輸服務描述了可靠性和QP 傳送數據的工作原理和傳輸內容。

06 InfiniBand 的交換機制

InfiniBand所采用的交換結構(Switched Fabric)是一種面向系統故障容忍性和可擴展性的基于交換的點到點互聯結構。

交換機主要作用是把數據包送達數據包本地路由報頭指定的目標地址,同時交換機也耗用數據包以滿足自管理的需要。IBA 交換機是內部子網路由的基本路由構件(子網間路由功能由IBA 路由器提供)。交換機的相互連接由鏈路間的中繼數據包(relaying packets)來完成。

InfiniBand交換機實現的功能有:子網管理代理(SMA)、性能管理代理(PMA)和基板管理代理(BMA)。SMA 提供一個讓子網管理者通過子網管理包獲得交換機內部的記錄和表數據的接口,實現消息通知、服務等級(Service Level,SL)到虛路徑(Virtual Lane,VL)的映射、VL 仲裁、多播轉發、供應商特性等功能。PMA 提供一個讓性能管理者監控交換機的數據吞吐量和錯誤累計量等性能信息的接口。BMA 在基板管理者和底架管理者之間提供一個通信通道。

InfiniBand交換機的數據轉發主要功能:

(1)選擇輸出端口:根據數據包的本地目的標識符(Destination Local Identifier,DLID),交換機從轉發表中查出輸出端口的端口號。

(2)選擇輸出VL:支持SL 和VL。交換機根據SL-VL 映射表確定不同優先級別的數據包所使用輸出端口的VL。

(3)數據流控制:采用基于信用的鏈路級流控機制。

(4)支持單播、多播和廣播:交換機能把多播包或廣播包轉換為多個單播包進行交換。

(5)分區劃分:只有同一分區的主機才能相互通信。每個分區具有唯一的分區密鑰,交換機檢查數據包的DLID 是否在密鑰所對應的分區內。

(6)錯誤校驗:包括不一致錯誤檢驗、編碼錯誤校驗、成幀錯誤校驗、包長度校驗、包頭版本校驗、服務級別有效性校驗、流控制遵從和最大傳輸單元校驗。

(7)VL 仲裁:支持子網VL(包括管理VL15 和數據VL)。交換機采用VL 仲裁保證優先級高的數據包得到更好的服務。

目前生產InfiniBand交換機的廠商主要有Mallanox、QLogic、Cisco、IBM 等。

07 InfiniBand 與以太網

從InfiniBand的誕生、發展,到現在占據HPC 領域的主流地位,人們總會拿它與普遍采用的以太網技術做比較。作者整理兩者的比較如表2 所示。

68d2c7c0-71fe-11ed-8abf-dac502259ad0.png

從表2 可知,InfiniBand 在數據傳輸和低延遲兩方面大大超過了以太網。InfiniBand 的低延遲設計使得它極其適合高性能計算領域。此外,InfiniBand 在單位成本方面也具有相當的優勢。

最新的全球HPCTOP500中可以發現,Infiniband 的占有率不斷提高,其在TOP100 中更是占主導地位,而以太網的占有率則逐年下降,目前兩者在HPC 領域的占有率基本持平。

08 結束語

隨著InfiniBand的不斷發展,它已成為取代千兆/ 萬兆以太網的最佳方案,必將成為高速互連網絡的首選,其與以太網絡、iSCSI 融合將更加緊密。IBTA 對InfiniBand的發展作出了預測,表明在未來三年里InfiniBand FDR、EDR 和HDR 將有快速增長的市場需求,2020 年之前InfiniBand 的帶寬將有望達到1000Gbps。InfiniBand 未來在GPU、固態硬盤和集群數據庫方面將有廣闊的應用前景。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 數據傳輸
    +關注

    關注

    9

    文章

    1582

    瀏覽量

    63796
  • 路由器
    +關注

    關注

    22

    文章

    3577

    瀏覽量

    111686
  • 中央處理器
    +關注

    關注

    1

    文章

    112

    瀏覽量

    16421

原文標題:InfiniBand網絡設計和研究

文章出處:【微信號:算力基建,微信公眾號:算力基建】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    深入探索InfiniBand網絡、HDR與IB技術

    InfiniBand和以太網之間的延遲對比可以分為兩個主要組成部分。首先,在交換機層面上,以太網交換機在網絡傳輸模型中作為第2層設備運行,通常采用MAC表查找尋址和存儲轉發機制(某些產品可能采用InfiniBand的直通技術)。
    發表于 04-19 11:01 ?372次閱讀
    深入探索<b class='flag-5'>InfiniBand</b><b class='flag-5'>網絡</b>、HDR與IB技術

    一文詳解超算中的InfiniBand網絡、HDR與IB

    InfiniBand技術被認為是面向未來的高性能計算(HPC)標準,在超級計算機、存儲甚至LAN網絡的HPC連接方面享有很高的聲譽。
    的頭像 發表于 04-16 10:18 ?683次閱讀
    一文詳解超算中的<b class='flag-5'>InfiniBand</b><b class='flag-5'>網絡</b>、HDR與IB

    什么是NVIDIA?InfiniBand網絡VSNVLink網絡

    NVSwitch物理交換機將多個NVLink GPU服務器連接成一個大型Fabric網絡,即NVLink網絡,解決了GPU之間的高速通信帶寬和效率問題。
    發表于 04-16 09:56 ?400次閱讀
    什么是NVIDIA?<b class='flag-5'>InfiniBand</b><b class='flag-5'>網絡</b>VSNVLink<b class='flag-5'>網絡</b>

    介紹一種高性能計算和數據中心網絡架構:InfiniBand(IB)

    InfiniBand(IB)是一種高性能計算和數據中心網絡架構,其設計目標是通過提供低延遲、高帶寬以及可擴展性來滿足大規模計算和數據傳輸的需求。讓我們深入了解InfiniBand的基本概念。
    的頭像 發表于 03-13 17:14 ?623次閱讀

    產品實拍—200G HDR DAC高速線纜/無源銅纜 200G QSFP56 DAC InfiniBand網絡

    網絡InfiniBand
    一只冷包子
    發布于 :2024年01月18日 13:45:38

    200G InfiniBand HDR線纜和光模塊:為高速網絡應用帶來新的突破

    InfiniBand作為目前發展最快的高速互連網絡技術之一,具有高帶寬、低延遲和易擴展的特點。根據數據傳輸速率的不同可分為SDR(10G)、DDR(25G)、QDR(40G)、FDR(56G
    的頭像 發表于 12-14 16:27 ?412次閱讀
    200G <b class='flag-5'>InfiniBand</b> HDR線纜和光模塊:為高速<b class='flag-5'>網絡</b>應用帶來新的突破

    英偉達三大AI法寶:CUDA、Nvlink、InfiniBand

    以太網是一種廣泛使用的網絡協議,但其傳輸速率和延遲無法滿足大型模型訓練的需求。相比之下,端到端IB(InfiniBand網絡是一種高性能計算網絡,能夠提供高達 400 Gbps 的傳
    發表于 12-05 11:02 ?2532次閱讀
    英偉達三大AI法寶:CUDA、Nvlink、<b class='flag-5'>InfiniBand</b>

    態路小課堂丨InfiniBand與以太網:AI時代的網絡差異

    ? 近年來,隨著人工智能技術的迅猛發展,以ChatGPT為代表的大型AI模型引起了廣泛關注。然而,在這個AI時代,我們不得不重新審視傳統的以太網和基于InfiniBand構建的網絡之間的區別。尤其是
    的頭像 發表于 11-29 18:16 ?521次閱讀
    態路小課堂丨<b class='flag-5'>InfiniBand</b>與以太網:AI時代的<b class='flag-5'>網絡</b>差異

    縱覽:InfiniBand與以太網標準之異同

    我們在購買光模塊時,經??吹胶喗樯厦鑼憽胺螴EEE某以太網標準”以及“兼容InfiniBand xDR協議”等描述,那么,InfiniBand(IB)和以太網(Ethernet)身為常見的通信網絡標準,具體有什么區別?
    的頭像 發表于 10-26 14:41 ?553次閱讀

    InfiniBand AOC有源光纜簡介

    InfiniBand(直譯為“無限帶寬”技術,縮寫為IB)是一個用于高性能計算的計算機網絡通信標準,它具有極高的吞吐量和極低的延遲,用于計算機與計算機之間的數據互連。InfiniBand也用作服務器與存儲系統之間的直接或交換互連
    的頭像 發表于 10-26 10:54 ?359次閱讀
    <b class='flag-5'>InfiniBand</b> AOC有源光纜簡介

    InfiniBand與以太網標準的區別

    我們在購買光模塊時,經??吹胶喗樯厦鑼憽胺螴EEE某以太網標準”以及“兼容InfiniBand xDR協議”等描述,那么,InfiniBand(IB)和以太網(Ethernet)身為常見的通信網絡標準,具體有什么區別?
    的頭像 發表于 10-26 09:58 ?427次閱讀

    高性能、低延遲的InfiniBand網絡并不是唯一的選擇

    正如我們喜歡指出的那樣,當談到高性能、低延遲的 InfiniBand網絡時,Nvidia 并不是唯一的選擇,自 20 世紀 90 年代末 InfiniBand 互連出現以來就一直不是唯一的選擇。
    的頭像 發表于 08-27 09:44 ?1166次閱讀
    高性能、低延遲的<b class='flag-5'>InfiniBand</b>式<b class='flag-5'>網絡</b>并不是唯一的選擇

    InfiniBand網絡架構及技術原理解析

    簡單來說,InfiniBand的誕生目的,就是為了取代PCI總線。它引入了RDMA協議,具有更低的延遲,更大的帶寬,更高的可靠性,可以實現更強大的I/O性能。(技術細節,后文會詳細介紹。)
    發表于 08-09 10:38 ?2623次閱讀
    <b class='flag-5'>InfiniBand</b>的<b class='flag-5'>網絡</b>架構及技術原理解析

    InfiniBand到底是什么技術?它為什么會倍受追捧?

    對于InfiniBand,很多搞數通的同學肯定不會陌生。
    的頭像 發表于 08-01 11:05 ?1048次閱讀
    <b class='flag-5'>InfiniBand</b>到底是什么技術?它為什么會倍受追捧?

    英偉達Quantum-2 Infiniband平臺技術

    Quantum-2采用最新一代NVIDIA Mellanox HDR 200Gb/s Infiniband網絡適配器,支持高速數據傳輸和低延遲計算。結合NVIDIA GPU,實現加速計算和分布式存儲,提高計算效率和資源利用率。
    的頭像 發表于 07-18 16:02 ?2916次閱讀
    英偉達Quantum-2 <b class='flag-5'>Infiniband</b>平臺技術
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>