<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

阿里云暫停A100服務器出租,AI算力奇缺!國產AI芯片任重道遠

Carol Li ? 來源:電子發燒友網 ? 作者:李彎彎 ? 2023-11-09 09:08 ? 次閱讀

電子發燒友網報道(文/李彎彎)上個月,美國發布更新針對AI芯片的出口管制規定,新措施意在填補去年10月發布法規中的漏洞。這樣意味著,除了英偉達A100/H100之外,其針對中國市場推出的替代版本A800/H800等GPU對華出售也將受到限制。

近日,阿里云A100服務器業務暫停出租的消息傳出。這反映出,美國對AI芯片的出口管制規定,已經對中國的算力供應造成影響。當前的情況是,需求側大模型正在快速發展,對算力的需求不斷提升;供給側英偉達GPU芯片對華銷售受阻,市面上A100/A800等現貨價格水漲船高,算力租賃服務售價同樣如此。而阿里云在滿足自身大模型研發需求之外,也已經沒有足夠多算力用于對外出租。

捉襟見肘的AI算力

目前,國內各大互聯網廠商都已經推出自己的大模型產品,并在不斷探索技術和應用創新,同時各行各業的企業,無論大小,都在嘗試將大模型技術引入自己的產品和解決方案中。而無論是大模型的研究和應用,其訓練和推理過程都需要依靠強大的算力作支撐。

百度、騰訊、字節、阿里作為國內主要的云服務廠商。相較之下,購買和積累了更多的GPU產品。其中,字節跳動A100 和V100顯卡總數接近10萬塊,阿里巴巴集團也大概擁有10萬塊頂級顯卡。騰訊因為在2022年底砍掉一批英偉達訂單,其擁有的GPU數量較少。相對來說,百度所擁有的頂級GPU數量也偏少。

近年來,大模型熱潮如龍卷風般襲來,這對GPU的需求不斷增加,上述各大廠商也加大了向英偉達GPU所下的訂單,以擴大自己的基礎硬件設施儲備。今年8月,百度、字節、騰訊和阿里向英偉達下單訂購50億美元的芯片,其中價值10億美元約10萬顆英偉達A800芯片,將在年內交付。另外價值40億美元的芯片將于2024年交付。

然而,在上個月美國發布AI芯片出口管制新規之后,這些訂單都將不能如期交付。這意味著各大互聯網廠商面臨著不同程度的GPU芯片緊缺的局面。

阿里云此次暫停A100服務器對外出租可想而知就是如此。阿里云是全球領先的云計算服務提供商之一,它提供各種各樣的云計算產品和服務,包括云服務器租賃。

阿里云云服務器租賃是一種將計算資源分配給用戶的服務,用戶可以通過互聯網租用虛擬化的服務器資源。這些服務器資源是在阿里云數據中心中運行的,用戶只需要根據自己的需求選擇適合自己的云服務器,并根據需要支付租金。

在10月31日開幕的2023年云棲大會上,阿里巴巴集團董事會主席蔡崇信談到,在當下的智能化時代,阿里巴巴要致力于打造AI時代最開放的云。他表示,目前,中國有80%的科技企業和一半的大模型公司都跑在阿里云上。

除了對外出租,阿里云正在研發和迭代自己的通義千問大模型,這對GPU算力的需求很高。舉例來看,OpenAI的GPT-3訓練使用了128臺英偉達A100服務器(訓練34天),對應640P算力,GPT-4模型訓練使用了3125臺英偉達A100 服務器(訓練90-100天),對應15625P算力。從GPT-3至GPT-4模型參數規模增加約10倍,用于訓練的GPU數量增加了近24倍。

根據行業人士的推測,國內頭部大模型廠商如果對標GPT-3模型的訓練需求,需要1920臺A100/A800服務器,對應15360張GPU。如果對標GPT-4模型的訓練需求,則額外需要13705臺A100/A800服務器,對應近11萬張GPU。

根據此前傳出的一份交流紀要里,阿里云AI專家提到,阿里云在云上有上萬片的A100,整體能夠達到10萬片,集團體量應該是阿里云的5倍。該AI專家提到,大模型大規模的應用,成本也很高,比如ChatGPT完成一個推理任務,需要5張A100在2秒鐘之內做一次推理。

大致來看,1萬張頂級顯卡才剛剛算是能夠跨進大模型的門。而如果要訓練更高級別的大模型,對GPU的需求將會呈大幅度增長。就如上文所述,阿里云擁有大約1萬張A100,已經足夠其訓練大模型產品,然而如果它想訓練出對標GPT-4的模型,可能就要用上阿里集團目前所有的GPU卡。

逐漸能用的國產AI芯片

隨著大模型的研發和應用,以及美國對AI芯片的出口管制,目前市場面現有的英偉達GPU芯片已經漲到天價,而且所剩不多,各個算力租賃服務企業價格也在不斷上漲。阿里云或許是為了率先滿足自己對算力的需求,只得暫停A100服務器對外出租。

然而這些舉措都沒有辦法真正解決,目前國內對可用于大模型訓練和推理的AI芯片的需求問題。近日,面對美國加強對華人工智能芯片管制,英特爾率先提出應變策略。據英特爾供應鏈透露,英特爾已針對最新發布的Gaudi2推出降規版出貨,預計將不受新禁令影響。

不過,即使Gaudi2降規版短期內能夠出貨,然而其性能必然是會大打折扣的。要知道,之前英偉達在符合去年10月法規的基礎上,推出的A800/H800,相對于A100/H100在關鍵性能上就已經大幅限制,如今要符合更新后的出口管制規定,Gaudi2降規版計算性能還得更進一步下調。

期待國產AI算力芯片的突圍,才是長久之計。事實上,目前已經有一些國產企業的人工智能芯片,受到客戶的青睞。比如弘信電子近日發布公告稱,已與上海燧原科技有限公司簽署采購協議,擬長期向燧原科技采購一定數量的人工智能加速卡及配套產品作為原材料。本次公司已正式向燧原科技下發9152片芯片采購訂單,計劃于年底前完成全部芯片的交付,快速形成國產算力落地。

近日也有消息傳出,百度為200臺服務器訂購了1600片昇騰910B AI芯片。到10月份,華為已向百度交付了超過60%的訂單。而且此前科大訊飛此前就已經采用華為昇騰910B芯片,該公司還表示,當前華為昇騰910B能力已經基本做到可對標英偉達A100。

總結

可以看到,在當前大模型的不斷發展,及美國對AI芯片的出口管制下,算力已經出現了極度緊缺的情況。雖然英特爾表示,已發布針對最新發布的Gaudi2推出降規版。然而可想而知其性能將會大打折扣,而且不能確保美國后續不會針對降規版也實施限制。長久來看,發展中國自己的AI算力芯片極其重要,而如今已經有國產的AI芯片可以用于大模型的訓練和推理,這無疑給國產AI芯片在未來的發展中增添了更多信心。






聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    27061

    瀏覽量

    264832
  • 阿里云
    +關注

    關注

    3

    文章

    898

    瀏覽量

    42666
收藏 人收藏

    評論

    相關推薦

    耐能推出最新的邊緣AI服務器及內置耐能AI芯片的PC設備

    - 耐能的邊緣 AI 服務器 KNEO 330 為中小企業帶來 30-40% 的成本節省,同兼顧隱私和安全性。- 耐能的邊緣 GPT AI 芯片 KL830 可完全應用于
    的頭像 發表于 06-05 10:21 ?153次閱讀

    risc-v多核芯片AI方面的應用

    得RISC-V多核芯片能夠更好地適應AI算法的不同需求,包括深度學習、神經網絡等,從而提高芯片的性能和效率,降低成本,使AI邊緣計算晶片更具競爭
    發表于 04-28 09:20

    聯想向燧弘華創交付首臺搭載國產AI算力芯片的問天WA5480 G3服務器

    3月19日,在聯想集團(全球)最大的智能計算設備研發和制造基地——聯寶科技,聯想集團向燧弘華創交付聯想首臺可搭載國產AI算力芯片的聯想問天WA5480 G3服務器。
    的頭像 發表于 03-22 09:40 ?341次閱讀

    聯想首臺搭載國產AI算力芯片服務器成功交付

    在聯想(全球)最大的智能計算設備研發和制造基地——聯寶科技,一場科技界的盛事吸引了業界的廣泛關注。這一天,中國領先的智能IT基礎設施提供商聯想成功交付了首臺可搭載國產AI算力芯片的聯想問天WA5480 G3
    的頭像 發表于 03-20 09:42 ?341次閱讀

    Suma AI服務器:全棧國產,入局!

    要求算力供應者穩定可靠,產品生態兼容,可減少升級成本,同時更懂本土“體質”。 在這一背景下,中科可控Suma AI服務器脫穎而出,其搭載國產計算平臺,兼容主流軟件生態,算力強勁,最高支持8卡加速互聯,可提供多種產品組合,按需定制
    的頭像 發表于 02-28 15:18 ?673次閱讀
    Suma <b class='flag-5'>AI</b><b class='flag-5'>服務器</b>:全棧<b class='flag-5'>國產</b>,入局!

    能RADXA微服務器試用體驗】Radxa Fogwise 1684X Mini 規格

    通過網絡可以了解到,能RADXA微服務器的具體規格: 處理:BM1684X :高達32Tops INT8峰值
    發表于 02-28 11:21

    英偉達AI服務器需求助推生益科技CCL供應

    據悉,AI服務器所需的CCL用量大約是普通服務器的八倍,而當英偉達的AI服務器計劃在2024年下半年升級至更先進的B
    的頭像 發表于 12-13 15:37 ?848次閱讀

    AI服務器的內存接口芯片技術

    DXG 服務器配備 8 塊 H100 GPU,6400億個晶體管,在全新的 FP8 精度下 AI 性能比上一代高 6 倍,可提供 900GB/s 的帶寬。
    發表于 12-13 09:23 ?518次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>服務器</b>的內存接口<b class='flag-5'>芯片</b>技術

    2023年上半年中國AI服務器市場規模成長了54%

    國產AI服務器所需的AI加速芯片的供應商來看,目前國內阿里巴巴(含光系列)、百度(昆侖系列)、
    的頭像 發表于 10-15 11:00 ?1487次閱讀
    2023年上半年中國<b class='flag-5'>AI</b><b class='flag-5'>服務器</b>市場規模成長了54%

    AI服務器架構的五大硬件拆解

    AI 服務器我們瞄準英偉達 DGX A100 和 DGX H100 兩款具有標桿性產品力的產品進行分析,鑒于 H100 發布時間較短、資料詳
    發表于 08-11 09:24 ?4011次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>服務器</b>架構的五大硬件拆解

    英偉達a100國產替代嗎?

    英偉達a100國產替代嗎? 目前尚未出現明確可替代英偉達A100國產產品,但中國國內的企業正在積極推進相關領域的研發和生產。例如,中國科技巨頭華為正在開發自主研發的
    的頭像 發表于 08-08 15:37 ?3834次閱讀

    英偉達A100的優勢分析

    HBM2顯存。 英偉達A100是一款高性能的GPU,其主要優勢如下: 1. 支持高效的AI計算:A100采用了新一代的Tensor Core技術,能夠在AI計算方面提供卓越的性能,為
    的頭像 發表于 08-08 15:25 ?2788次閱讀

    英偉達A100是什么系列?

    英偉達A100是什么系列? 全球都在關注生成式人工智能;特別是OpenAI發布ChatGPT以來,生成式人工智能技術一下就被拔高。在大模型訓練中,A100是非常強大的GPU。英偉達的AI芯片
    的頭像 發表于 08-08 15:13 ?2484次閱讀

    AI服務器與傳統服務器的區別是什么?

    AI 服務器確實是整個服務器市場的一部分,但它們是專門為基于云的 AI 模型訓練或推理而設計的。在規格方面,廣義的AI
    發表于 06-21 12:40 ?1463次閱讀
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>