<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

大模型AI算力劇增,誰來扛國產GPU大旗?

智能計算芯世界 ? 來源:智能計算芯世界 ? 2023-08-15 16:51 ? 次閱讀

AI算力、算法和數據人工智能行業三要素中,AI算力更是重中之重,業界廠商通過對各類AI硬件不斷迭代為算力狂飆的需求提供強有力保障。自ChatGPTAI、GPT-4模型發布火爆出圈后,在引發了普羅大眾對AI大模型熱情的同時,也引燃了AI算力的戰火。全球科技巨頭紛紛發布AI大模型、AI訓練卡產品都是入場者爭奪AI制高點的戰爭縮影。

1、AI異構計算三分天下,GPU表現異常亮眼

眾所周知,人工智能(尤其是大模型新興應用領域)對AI算力需求超過了通用CPU的摩爾定律的發展速度,而異構計算的性能增長恰恰能夠滿足這些新興領域的算力需求發展方向和趨勢。異構計算領域,目前呈現出GPU、FPGA、ASIC芯片三分天下的局面,GPU、FPGA、ASIC芯片都會有自己獨特的技術特長和應用領域,有自己獨特的客戶群體。

4ddb3086-3aff-11ee-9e74-dac502259ad0.png

ASIC芯片可以獲得最優性能,即面積利用率高、速度快、功耗低;但AISC開發風險極大,算法是固定,而且從研發到市場的時間周期很長,不適合例如深度學習快速迭代的領域。大多是具備AI算法又擅長芯片研發的巨頭參與,如 Google 的TPU。 FPGA稱為現場可編程門陣列,用戶可以根據自身的需求進行重復編程,相比之下,具有可硬件編程的特點,靈活性好;但基本單元的計算能力有限,速度和功耗存在不足。FPGA 在工業互聯網領域、工業機器人設備領域應用前景十分巨大。 GPU具備高效的并行性、高密集的運算、超長流水線,以及成熟生態,最先被引入深度學習;GPU針對不同應用領域的需求,增加了專用向量、張量、矩陣運算指令,提升浮點運算精度和性能,以滿足天氣預報、工業設計、基因工程、藥物發現、金融工程、自動駕駛等不同計算場景的需求。 綜合考慮性能、能效比和編程靈活性等因素,GPU明顯優于ASIC、FPGA等芯片,并成為目前AI加速服務器的最主流選擇。 目前,英偉達AMD是目前全球GPU的領軍企業,兩家合計獲取了全球GPU絕大部分市場份額。國內海光信息、寒武紀公司的GPU產品已經實現規?;N售。 全球來看,英偉達的H100及A100、AMD的MI100及MI200等均為主流的GPGPU產品型號。據IDC數據顯示,2021年GPU服務器份額占國內AI加速服務器市場的88.4%,2021-2025年間年復合增速為19.1%。據Jon Peddie Research數據顯示2022Q1英偉達占據79%市場份額,AMD占據21%。英偉達在獨立GPU領域一枝獨秀。

在中國市場上,根據IDC數據,2021年英偉達占國內AI加速卡80%以上市場份額,2015-2021年間年復合增速高達77.4%,處于市場領先地位。

2、英偉達中國版GPU限制及可供應性風險

無論在HPC高性能計算,科學研發領域,還是人工智能大模型場景,尤其是對算力要求的比較高Training(訓練)環節,AMD的MI 100、MI 200以及Nvidia的A100,H100都是GPU領域的超強算力芯片,極其普遍的應用在AI服務器中實現加速計算,提供計算精度,減少訓練周期。 NVIDIA A100、H100等加速計算卡的需求過于火爆,即便在臺積電增加了大量的訂單,緊急提升產能,依然無法滿足。但在中國市場上,由于美國的禁令,NVIDIA基于中市場策略定制了特供版A800、H800。那么,中國特供版A800和H800與A100和H100的具體差距?主要差距是互聯后整體集群帶寬的下降。A800的互聯帶寬從A100的600GB/s下降到400GB/s,H800的互聯帶寬從H100的900GB/s下降到450GB/s。本身單卡的算力不變,但是集群卡間互聯的帶寬限制整個集群的算力規模,從而限制了集群性能,相當于限制了AI模型訓練精度以及中國AI技術發展。

4e347d9e-3aff-11ee-9e74-dac502259ad0.png

即便如此,NVIDIA特供版A800、H800發布也是異常搶手,在國內大型互聯網企業在采購潮的推動下,漲價幅度已經超過40%。在如此大模型高算力市場需求下,依靠國外GPU技術發展AI技術本身就是偽命題,如同沙灘筑高樓;同時,在可供應性和技術演進上成了極大風險。

3、國內GPU廠商概述及國產化應對策略

美國對中國GPU等芯片的“卡脖子”制裁也給國內產品替代英偉達帶來非常大的機會。國產AI芯片廠商持續發力,對標行業龍頭已縮小差距。在AI加速和高性能計算領域,國內主要有GPGPU和NPU兩條技術路徑;GPGPU技術沉淀深、生態兼容廣,NPU發展迅速,但算力供給單一性和生態壁壘比較難打破,兩條路徑都得到相應廠商的支持和發展,在特定領域性能都達到業界一流水平。

相較而言,GPGPU路線更加符合AI算力發展需求,更具潛力。GPGPU也叫做通用GPU,優勢在于具備大規模并行計算的能力,可快速開發高能效的應用程序,在產品性能、通用性、易用性等方面優勢明顯,全球9成以上商用AI系統的選擇GPGPU架構芯片,在訓練負載方面更是如此。而且,當前AI應用基本全都建立在GPGPU架構的軟件開發平臺上,生態體系更加完善,好用,易用。AI技術發展日新月異,AI軟件開發者通過在GPGPU平臺開發,能夠更好的提高生產力。

ASIC架構,優勢在于根據產品的需求,進行特定設計和制造的集成電路,因此計算速度快,能耗更低。它的出現存在一個理論前提,即算法發展相對成熟,已發現最優算法,通過將軟件固化到硬件執行,以實現最優效率。由于當前AI算法、模型快速迭代發展,ASIC架構需要投入大量的資金,以及經歷較長的研發和工程周期,容易出現量產即落后的局面。另外,國際上還有基于FPGA架構開發AI芯片,雖然可根據自身需求進行重復編程,但缺點在于頻率較低,單元計算能力有限,價格昂貴。而且,基于FPGA的AI應用開發,需要軟件工程師同時具備軟件、硬件能力,開發難度較大;并且目前FPGA被國外巨頭壟斷,因此很少有FPGA架構的國產AI芯片。

相對于ASIC與FPGA而言,國內對GPGPU芯片其實需求更為迫切。大模型預訓練面臨著計算資源需求、數據集規模、訓練時間和效率、參數調優和模型調整、以及泛化能力和適應性等多個難題。應對這些難題需要綜合考慮硬件資源、數據管理、算法設計等多方面因素。因此,算力領先、軟件完善的 GPGPU成為先進大模型的首選算力來源。而且,隨著AI應用向多模態進一步發展,通用性更優的GPGPU可以更好的支持這類應用發展

另外,國內對GPGPU芯片的需求不止于芯片可提供多少算力,是否能滿足應用場景所需的計算精度也同樣重要。原因在于,AI應用視場景不同,需要算力精度不同。例如AICG領域對圖像和語音的處理,用32位、16位計算精度即可;而部分科學計算,則需要用到FP64雙精度浮點運算,才可保證模型訓練和預測結果的準確性??偠灾?,AI算力的全面發展,需要全精度、通用性強的GPGPU芯片支撐。

當前,國內AI芯片廠商數量約在6000+家,其中主流廠商數量約60余家,主要分為三個梯隊,第一梯隊包括海光、華為、寒武紀等。劃分原因在于,第一梯隊廠商有成熟產品,且已有商業化量產規模的應用。

海光:DCU產品深算系列,兼容通用的“類 CUDA”環境以及國際主流商業計算軟件和人工智能軟件,對標主流 NVIDIA A100 產品,海光 DCU 單芯片產品基本能達到與其相近的性能水平。并且,海光DCU深算一號,國內唯一能支持全部算力精度,可以滿足需要更高精度的數學計算的需要。GPGPU架構,讓其通用性更強,海光DCU產品在AI計算、大數據處理、商業計算等領域發揮著重要作用。

華為昇騰:產品包括昇騰310、910,自研達芬奇架構實現較低功耗和較好散熱,可在華為龐大的AI軟件工程師支持下,通過運行華為的全棧軟硬件平臺,并且深度適配、遷移和優化,可以應用于云邊端全場景覆蓋,目前已形成較為完善的生態。

寒武紀:產品主要由云端芯片與邊緣芯片等組成,產品體系豐富,適配AI應用及各類算法,產品的能效較好,并掌握了智能芯片架構、編譯器、工具鏈等核心技術。但因為AISC架構芯片的天然劣勢,使得寒武紀產品在實際應用中需要大量資金、人才投入,落地部署困難重重,實際應用限制多多。

第二梯隊包括,燧原、昆侖芯、天數、壁仞、沐曦等近幾年成立的初創企業。這幾家廠商雖然發布了產品,但由于AI芯片產品化、復雜度等原因,在實際應用中進展有限,或開始在某些領域局部試水,或者還在努力建設軟件生態,集群部署方案等。

第三梯隊包括龍芯、景嘉微等,這兩家廠商有意向進軍AI計算領域,但尚無AI芯片量產。龍芯作為國產CPU領域的主流廠商,5月份宣布集成龍芯自研GPGPU的第一款AI計算芯片,預計將于 2024 年一季度流片。而景嘉微作為國內最早投入GPU研發的廠商之一,近期也宣布募資42億元投入高性能GPGPU芯片研發及產業化項目。這兩家廠商作為國內計算芯片代表廠商,如今在布局AI計算芯片研發,終于邁出了第一步。

4、總結

AI大模型催生GPU市場需求劇增,在嚴峻的國際形勢下,GPU的國產替代進程刻不容緩,海光信息深算一號已基本具備英偉達高端 GPU的技術能力,在緊張的局勢背景下,未來有望推動高端GPU國產替代進程。

在特定AI應用領域(尤其是GPU圖形計算和AI推理領域),國內GPU廠商從技術到生態都具備一定積累,隨著產品不斷迭代更新,以及在AI訓練領域持續發力,未來在爭奪AI制高點的戰爭中發光發熱,從而緩解“卡脖子”問題和供應風險。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    27

    文章

    4422

    瀏覽量

    126711
  • 人工智能
    +關注

    關注

    1776

    文章

    43871

    瀏覽量

    230627
  • 算力
    +關注

    關注

    1

    文章

    659

    瀏覽量

    14360
  • 大模型
    +關注

    關注

    2

    文章

    1532

    瀏覽量

    1130

原文標題:大模型AI算力劇增,誰來扛國產GPU大旗?

文章出處:【微信號:AI_Architect,微信公眾號:智能計算芯世界】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    模型時代,國產GPU面臨哪些挑戰

    ,國產GPU在不斷成長的過程中也存在諸多挑戰。 ? 在大模型訓練上存在差距 ? 大語言模型是基于深度學習的技術。這些模型通過在海量文本數據上
    的頭像 發表于 04-03 01:08 ?3127次閱讀
    大<b class='flag-5'>模型</b>時代,<b class='flag-5'>國產</b><b class='flag-5'>GPU</b>面臨哪些挑戰

    國產GPUAI模型領域的應用案例一覽

    電子發燒友網報道(文/李彎彎)近一年多時間,隨著大模型的發展,GPUAI領域的重要性再次凸顯。雖然相比英偉達等國際大廠,國產GPU起步較晚
    的頭像 發表于 04-01 09:28 ?2445次閱讀
    <b class='flag-5'>國產</b><b class='flag-5'>GPU</b>在<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>領域的應用案例一覽

    盤點國產GPU在支持大模型應用方面的進展

    ,近些年國內也有不少GPU企業在逐步成長,雖然在大模型的訓練和推理方面,與英偉達GPU差距極大,但是不可忽視的是,不少國產GPU企業也在
    的頭像 發表于 03-29 00:27 ?3077次閱讀
    盤點<b class='flag-5'>國產</b><b class='flag-5'>GPU</b>在支持大<b class='flag-5'>模型</b>應用方面的進展

    FPGA在深度學習應用中或將取代GPU

    現場可編程門陣列 (FPGA) 解決了 GPU 在運行深度學習模型時面臨的許多問題 在過去的十年里,人工智能的再一次興起使顯卡行業受益匪淺。英偉達 (Nvidia) 和 AMD 等公司的股價也大幅
    發表于 03-21 15:19

    防止AI模型被黑客病毒入侵控制(原創)聆思大模型AI開發套件評測4

    神經網絡的電路實現 // 比如說我們已經有一臺神奇的AI黑科技在默默工作... endmodule // 我們召喚出這個神秘的AI模型
    發表于 03-19 11:18

    使用cube-AI分析模型時報錯的原因有哪些?

    使用cube-AI分析模型時報錯,該模型是pytorch的cnn轉化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.
    發表于 03-14 07:09

    大茉莉X16-P,5800M大稱王稱霸

    Rykj365
    發布于 :2024年01月25日 14:54:52

    AI模型可以取代大學教育嗎?

    AI模型
    電子發燒友網官方
    發布于 :2024年01月02日 16:27:52

    AI模型怎么解決芯片過剩?

    AI模型
    電子發燒友網官方
    發布于 :2024年01月02日 15:42:05

    AI模型可以設計電路嗎?

    AI模型
    電子發燒友網官方
    發布于 :2024年01月02日 15:09:29

    FPGA和CPU、GPU有什么區別?為什么越來越重要?

    是“XPU”等加速器興起的原因。 圖1:CPU 面臨瓶頸的原因 同時, 自 2010 年 AI 興起, AI 模型的訓練所需
    發表于 11-09 14:09

    【KV260視覺入門套件試用體驗】Vitis AI 構建開發環境,并使用inspector檢查模型

    Vitis AI 的所有工具和庫,而不需要在本地安裝任何依賴。CPU版本的Vitis AI docker 可以在沒有 GPU 的機器上運行,但是模型優化的速度會比
    發表于 10-14 15:34

    英碼科技精彩亮相火爆的IOTE 2023,多面賦能AIoT產業發展!

    硬件為基礎,搭載自研的0代碼移植工具鏈,在不觸碰客戶模型文件的前提下,實現算法從GPU到XPU的一鍵移植,最快1天實現算法適配,快、易、省賦能長尾
    發表于 09-25 10:03

    盤古ai模型用的什么芯片?

    ,具有自學能力,能夠自動從大量數據中提取并學習規律,從而實現人工智能的基礎。 盤古AI模型采用了GPU(圖形處理器)加速技術,GPU優化的算法使其在短時間內能夠完成非常龐大的數據集的
    的頭像 發表于 08-31 09:01 ?2411次閱讀

    沐曦基于曦云C500發布國產首臺GPU千億參數大模型訓推一體機

    首臺GPU千億參數大模型訓推一體機由數字寧夏倡議發起技術攻關,基于沐曦最新發布的曦云C500旗艦GPU芯片提供的算力支持、智譜華章的AI模型
    的頭像 發表于 08-21 14:41 ?2921次閱讀
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>