電子發燒友網報道(文/李彎彎)不久前,IBM 研究院推出了一款AI處理器,名為人工智能單元(Artificial Intelligent Unit,AIU),這是IBM首個用于運行和訓練深度學習模型的完整 SoC。IBM聲稱,其比通用CPU工作更快、更高效。
AIU:32個處理器核心、230億個晶體管
這款AIU芯片是IBM研究院AI硬件中心投入五年開發出的結果,AI硬件中心于2019年啟動,專注于開發下一代芯片與AI系統。該中心的目標是,計劃未來每年將AI硬件效率提升2.5倍。到2029年,將AI模型的訓練和運行速度拉高1000倍。
據IBM介紹,該芯片采用5nm制程工藝,共有32個處理器核心和230億個晶體管,在設計易用性方面,與普通顯卡相當,能夠介入任何帶有PCI插槽的計算機或服務器。AIU芯片,旨在支持多種格式并簡化從圖像識別到自然語言處理的人工智能工作流程。
AIU芯片與傳統用于訓練的GPU芯片有何不同?一直以來,深度學習模型依賴于CPU加GPU協處理器的組合進行訓練與運行。GPU最初是為沉浸圖形圖像而開發,后來人們發現其在AI領域有著顯著優勢,因此GPU在AI訓練領域占據了非常重要的位置。
IBM開發的AIU并非圖形處理器,它是專為深度學習模型加速設計的,針對矩陣和矢量計算進行了優化。AIU能夠解決高復雜計算問題,并以遠超CPU的速度執行數據分析。
AIU芯片有何特點呢?過去這些年,AI與深度學習模型在各行各業中快速普及,同時深度學習的發展也給算力資源帶來了巨大的壓力。深度學習模型的體量越來越大,包含數十億甚至數萬億個參數。而硬件效率的發展卻似乎跟不上深度學習模型的增長速度。
過去,計算一般集中在高精度64位與32位浮點運算層面。IBM認為,有些計算任務并不需要這樣的精度,于是提出了降低傳統計算精度的新術語——近似計算。
如何理解呢?IBM認為對于常見的深度學習任務,其實并不需要那么高的計算精度,就比如說人類大腦,即使沒有高分辨率,也能夠分辨出家人或者小貓。也就是說各種任務,其實都可以通過近似計算來處理。
在AIU芯片的設計中,近似計算發揮著重要作用。IBM研究人員設計的AIU芯片精度低于CPU,而這種較低精度也讓新型AIU硬件加速器獲得了更高的計算密度。IBM使用混合8位浮點(HFP)計算,而非AI訓練中常見的32位或16點浮點計算。由于精度較低,因此該芯片的運算執行速度可達到FP16的2倍,同時繼續保持類似的訓練效能。
IBM在AI芯片技術上的不斷升級
在去年2月的國際固態電路會議(ISSCC 2021)上,IBM也曾發布過一款性能優異的AI芯片,據IBM稱它是當時全球首款高能效AI芯片,采用7nm制程工藝,可達到80%以上的訓練利用率和60%以上的推理利用率,而通常情況下,GPU的利用率在30%以下。
有對比數據顯示,IBM 7nm高能效AI芯片的性能和能效,不同程度地超過了IBM此前推出的14nm芯片、韓國科學院(KAIST)推出的65nm芯片、平頭哥推出的12nm芯片含光800、NVIDIA推出的7nm芯片A100、聯發科推出的7nm芯片。
IBM去年推出的這款7nm AI芯片支持fp8、fp16、fp32、int4、int2混合精度。在fp32和fp8精度下,這款芯片每秒浮點運算次數分別達到16TFLOPS和25.6TFLOPS,能效比為3.5TFLOPS/W和1.9TFLOPS。而被業界高度認可的NVIDIA A100 GPU在fp16精度下的能效比為0.78TFLOPS/W,低于IBM這款高能效AI芯片。
IBM在官網中稱,這款AI芯片之所以能夠兼顧能效和性能,是因為該芯片支持超低精度混合8位浮點格式((HFP8,hybrid FP8)。這是IBM于2019年發布的一種高度優化設計,允許AI芯片在低精度下完成訓練任務和不同AI模型的推理任務,同時避免任何質量損失。
可以看到IBM此次發布的新款AIU與去年2月發布的7nm AI芯片,都采用了IBM此前提出的近似計算。從性能來看,去年推出的那款AI芯片一定程度上甚至超過了目前業界訓練場景普遍使用的NVIDIA A100 GPU,而今年新推出的AIU無論是在制程工藝、晶體管數量上都有升級,可想而知性能水平將會更高。
AIU:32個處理器核心、230億個晶體管
這款AIU芯片是IBM研究院AI硬件中心投入五年開發出的結果,AI硬件中心于2019年啟動,專注于開發下一代芯片與AI系統。該中心的目標是,計劃未來每年將AI硬件效率提升2.5倍。到2029年,將AI模型的訓練和運行速度拉高1000倍。
據IBM介紹,該芯片采用5nm制程工藝,共有32個處理器核心和230億個晶體管,在設計易用性方面,與普通顯卡相當,能夠介入任何帶有PCI插槽的計算機或服務器。AIU芯片,旨在支持多種格式并簡化從圖像識別到自然語言處理的人工智能工作流程。
AIU芯片與傳統用于訓練的GPU芯片有何不同?一直以來,深度學習模型依賴于CPU加GPU協處理器的組合進行訓練與運行。GPU最初是為沉浸圖形圖像而開發,后來人們發現其在AI領域有著顯著優勢,因此GPU在AI訓練領域占據了非常重要的位置。
IBM開發的AIU并非圖形處理器,它是專為深度學習模型加速設計的,針對矩陣和矢量計算進行了優化。AIU能夠解決高復雜計算問題,并以遠超CPU的速度執行數據分析。
AIU芯片有何特點呢?過去這些年,AI與深度學習模型在各行各業中快速普及,同時深度學習的發展也給算力資源帶來了巨大的壓力。深度學習模型的體量越來越大,包含數十億甚至數萬億個參數。而硬件效率的發展卻似乎跟不上深度學習模型的增長速度。
過去,計算一般集中在高精度64位與32位浮點運算層面。IBM認為,有些計算任務并不需要這樣的精度,于是提出了降低傳統計算精度的新術語——近似計算。
如何理解呢?IBM認為對于常見的深度學習任務,其實并不需要那么高的計算精度,就比如說人類大腦,即使沒有高分辨率,也能夠分辨出家人或者小貓。也就是說各種任務,其實都可以通過近似計算來處理。
在AIU芯片的設計中,近似計算發揮著重要作用。IBM研究人員設計的AIU芯片精度低于CPU,而這種較低精度也讓新型AIU硬件加速器獲得了更高的計算密度。IBM使用混合8位浮點(HFP)計算,而非AI訓練中常見的32位或16點浮點計算。由于精度較低,因此該芯片的運算執行速度可達到FP16的2倍,同時繼續保持類似的訓練效能。
IBM在AI芯片技術上的不斷升級
在去年2月的國際固態電路會議(ISSCC 2021)上,IBM也曾發布過一款性能優異的AI芯片,據IBM稱它是當時全球首款高能效AI芯片,采用7nm制程工藝,可達到80%以上的訓練利用率和60%以上的推理利用率,而通常情況下,GPU的利用率在30%以下。
有對比數據顯示,IBM 7nm高能效AI芯片的性能和能效,不同程度地超過了IBM此前推出的14nm芯片、韓國科學院(KAIST)推出的65nm芯片、平頭哥推出的12nm芯片含光800、NVIDIA推出的7nm芯片A100、聯發科推出的7nm芯片。
IBM去年推出的這款7nm AI芯片支持fp8、fp16、fp32、int4、int2混合精度。在fp32和fp8精度下,這款芯片每秒浮點運算次數分別達到16TFLOPS和25.6TFLOPS,能效比為3.5TFLOPS/W和1.9TFLOPS。而被業界高度認可的NVIDIA A100 GPU在fp16精度下的能效比為0.78TFLOPS/W,低于IBM這款高能效AI芯片。
IBM在官網中稱,這款AI芯片之所以能夠兼顧能效和性能,是因為該芯片支持超低精度混合8位浮點格式((HFP8,hybrid FP8)。這是IBM于2019年發布的一種高度優化設計,允許AI芯片在低精度下完成訓練任務和不同AI模型的推理任務,同時避免任何質量損失。
可以看到IBM此次發布的新款AIU與去年2月發布的7nm AI芯片,都采用了IBM此前提出的近似計算。從性能來看,去年推出的那款AI芯片一定程度上甚至超過了目前業界訓練場景普遍使用的NVIDIA A100 GPU,而今年新推出的AIU無論是在制程工藝、晶體管數量上都有升級,可想而知性能水平將會更高。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
芯片
+關注
關注
447文章
48292瀏覽量
411488 -
IBM
+關注
關注
3文章
1695瀏覽量
74331
發布評論請先 登錄
相關推薦
蘋果M3芯片有多少晶體管組成
蘋果M3芯片在晶體管數量上有了顯著的提升。具體來說,標準版的M3芯片內部集成了250億個晶體管,相比前代M2芯片多了50億個。這一數量的增加
M3芯片有多少晶體管
M3芯片的晶體管數量根據不同的版本有所差異。具體來說,標準版的M3芯片擁有250億個晶體管,這一數量相比前代產品M2有了顯著的提升,使得M3芯片
晶體管Ⅴbe擴散現象是什么?
晶體管并聯時,當需要非常大的電流時,可以將幾個晶體管并聯使用。因為存在VBE擴散現象,有必要在每一個晶體管的發射極上串聯一個小電阻。電阻R用以保證流過每個晶體管的電流近似相同。電阻值R
發表于 01-26 23:07
IBM發布首款專為液氮冷卻設計的CMOS晶體管
IBM突破性研發的納米片晶體管,通過將硅通道薄化切割為納米級別的薄片,再用柵極全方位圍繞,實現更為精準控電。此結構使得在指甲蓋大小空間內可容納最多達500億個晶體管,并且經過液氮冷卻處理
可性能翻倍的新型納米片晶體管
IBM 的概念納米片晶體管在氮沸點下表現出近乎兩倍的性能提升。這一成就預計將帶來多項技術進步,并可能為納米片晶體管取代 FinFET 鋪平道路。更令人興奮的是,它可能會導致更強大的
三大芯片巨頭角逐2nm技術
過去數十年里,芯片設計團隊始終專注于小型化。減小晶體管體積,能降低功耗并提升處理性能。如今,2nm及3nm已取代實際物理尺寸,成為描述新一代
全球首顆3nm電腦來了!蘋果Mac電腦正式進入3nm時代
前兩代M1和M2系列芯片均采用5nm制程工藝,而M3系列芯片的發布,標志著蘋果Mac電腦正式進入3nm時代。 3
發表于 11-07 12:39
?376次閱讀
2nm芯片什么時候出 2nm芯片手機有哪些
N2,也就是2nm,將采用GAAFET全環繞柵極晶體管技術,預計2025年實現量產。 2nm芯片是指采用了2nm制程
2nm芯片是什么意思 2nm芯片什么時候量產
可以容納更多的晶體管在同樣的芯片面積上,從而提供更高的集成度和處理能力。此外,較小的節點尺寸還可以降低電路的功耗,提供更高的能效??梢哉f,2nm芯片
什么是3nm工藝芯片?3nm工藝芯片意味著什么?
的大部分時間里,用于制造芯片的工藝節點的名稱是由晶體管柵極長度的最小特征尺寸(以納米為單位)或最小線寬來指定的。350nm工藝節點就是一個例
發表于 09-19 15:48
?6793次閱讀
華為發布首款5nm 5G SoC,集成153億晶體管
的NMN910 5G SoC 芯片,也被稱為麒麟9000。 這款芯片集成了49億個晶體管,尺寸為 5 納米,成為了全球首個量產的5nm 5G SoC
不同類型的晶體管及其功能
邏輯高電壓驅動,則集電極電流會簡單地停止流動,從而使用單個晶體管執行 NAND 邏輯處理。多發射極晶體管取代了 DTL 的二極管,并同意減少開關時間和功耗。
雙柵極MOSFET
在多種
發表于 08-02 12:26
未來的芯片演進還在繼續,邏輯縮放技術仍是現代計算的基礎
晶體管結構:2012年IBM首次提出“Nanosheet”這個新晶體管架構,在這一架構的支撐下,IBM研究院在2021年推出了全球首款2納米節點芯片
評論