電子發燒友網報道(文/李彎彎)近年來,在全球數字化、智能化的浪潮下,智能手機、自動駕駛、數據中心、圖像識別等應用推動 AI服務器市場迅速成長。根據 IDC 數據,2021 年全球 AI 服務器市場規模已達到 145 億美元,并預計 2025 年將超過 260 億美元。
近段時間ChatGPT概念的火熱,更是對算力基礎設施的需求起到了帶動作用。寧暢副總裁兼CTO趙雷此前在接受媒體采訪的時候表示,ChatGP的訓練和部署,都需要大量智能計算數據存儲以及傳輸資源,計算機基礎設施、算力等上游技術將因此受益。
ChatGPT有著多達1750億個模型參數。在算力方面,GPT-3.5在訓練階段消耗的總算力約3640PF-days。在應用時,ChatGPT仍然需要大算力的服務器支持。ChatGPT的持續爆火也為AIGC帶來全新增量,行業對AI模型訓練所需要的算力支持提出了更高要求。
寧暢是一家集研發、生產、部署、運維一體的服務器廠商,及IT系統解決方案提供商。該公司早早就開始著重發力于人工智能服務器和液冷服務器。趙雷表示,公司目前在用的、在研的人工智能和液冷服務器,包括明年還將推出的浸沒液冷服務器,剛好跟上算力高速增長的市場需求。公司隨時準備著為客戶提供合適的高算力產品和解決方案。
在人工智能服務器方面,寧暢已經推出多款產品,包括X620 G50、X660 G45、X640 G40、X620 G40。X620 G50適用于機器學習、AI推理、云計算、高性能計算等場景;660 G45是專門為深度學習訓練開發的高性能計算平臺;X640 G40是兼備訓練與推理功能的全能型GPU服務器;X620 G40性能提升的同時支持PCIe 4.0高速總線技術,完美支持NVIDIA各類最新型GPU加速服務,是最為理想的AI推理平臺。
在液冷服務器方面,寧暢推出了三款冷板式液冷服務器,包括產品B5000 G4 LP、X660 G45 LP、R620 G40 LP,范圍覆蓋了高密度、通用機架以及人工智能服務器產品,可滿足科學計算、AI訓練、云計算等眾多IT應用場景,可滿足用戶不同需求。
作為服務器廠商需要給下游互聯網客戶提供怎樣的產品和服務呢?對于服務器廠商來說,不只是要提供服務器硬件或者基礎設施,還要有對應的服務能力。
從服務層面來看,在用戶現場會關注什么呢,比如說核心業務,會關注業務的在線率,不管服務器壞不壞,整個業務的運行是要有彈性的、靈活的,不會給客戶造成影響的。就以百度、微信這些業務為例,大家幾乎不會看到微信不能用了,或者百度搜索不反饋結果了。
趙雷表示,對于服務器廠商來說,要做的是在服務層面能夠快速響應,不管是采用現場備件模式,機房備機模式,還是駐場人員巡檢的模式,都需要做到24小時的快速響應。這是純粹的服務方面,也就是說,在互聯網搭建業務連續性良好的基礎上,服務器廠商能夠將故障和快速維修的能力做到極致,有效地支撐客戶的前端應用。
從產品層面來看,對于每個硬件子系統在設計研發過程中,都需要從易維修和低故障角度去思考如何將產品做得更好。寧暢在這方面做了很多工作:首先,現在冷卻方式是影響故障率比較重要的因素,因為溫度太高故障率就會高,寧暢的精密風冷和液冷的方式,能夠有效地降低芯片和對應組件的故障率。
其次,其精密六維減震模式,能夠有效提升硬盤的性能,降低故障率;接著是,采用DAE的散熱器,從散熱的維度有效降低光模塊的故障率。同時CPU、GPU的液冷可以有效降低CPU、GPU的故障率;通過內存的漏斗,內存的故障篩選或者在線隔離技術,有效地降低內存的故障率;另外還在板卡走線、機箱結構方面進行了優化設計。
此外還有整機BMC易管理特性,趙雷認為,任何東西不可能不壞,有毛病是不可避免的,壞了以后,如何快速通知客戶或者維護人員維修時關鍵。BMC有一個完善的通知機制,郵件自動通知、SMP遠程告警、IPMI告警等。寧暢按照互聯網客戶的需求定制,將其融入整個機房的運維系統,出現故障以后可以第一時間通知去維修。
雖然目前國內有不少優秀的服務器、云廠商等,不過整體來看,國內的算力仍然存在瓶頸,比如,總體算力不夠,算力的分布不平均。部分客戶算力過剩,部分客戶算力不足?;蛘逜時間算力過剩,B時間算力不足,這是算力協調的問題。
短期來看這個問題要靠云技術解決,長期來看是要提供過剩的算力。也就是說,需要云技術去平衡協調算力不均勻的問題,還需要提供算力、算力效率等。
再比如算力成本高的問題,雖然目前每單位算力單價下降了,但是過去幾年服務器的平均售價一直上漲。趙雷認為,可能算力類型單一,不太能夠有效地支撐高速增長的模式,可能要有各種各樣不同類型的算力。比如ChatGPT,是不是可以做針對GPT模型專門的ASIC。算力的應用類型越窄,它的效率就會越高,越通用,效率就越低。
整體而言,過去幾年在全球數字化、智能化浪潮下,市場對算力的需求不斷增加。ChatGP的出現更是讓行業對算力提出了新的要求。國內服務器廠商在對人工智能行業提供算力支持方面已經有所準備。不過從目前的情況來看,國內在算力方面仍然存在一些瓶頸,比如算力分布不均勻,成本高等問題。后續還需業界共同去探討解決。
近段時間ChatGPT概念的火熱,更是對算力基礎設施的需求起到了帶動作用。寧暢副總裁兼CTO趙雷此前在接受媒體采訪的時候表示,ChatGP的訓練和部署,都需要大量智能計算數據存儲以及傳輸資源,計算機基礎設施、算力等上游技術將因此受益。
ChatGPT有著多達1750億個模型參數。在算力方面,GPT-3.5在訓練階段消耗的總算力約3640PF-days。在應用時,ChatGPT仍然需要大算力的服務器支持。ChatGPT的持續爆火也為AIGC帶來全新增量,行業對AI模型訓練所需要的算力支持提出了更高要求。
寧暢是一家集研發、生產、部署、運維一體的服務器廠商,及IT系統解決方案提供商。該公司早早就開始著重發力于人工智能服務器和液冷服務器。趙雷表示,公司目前在用的、在研的人工智能和液冷服務器,包括明年還將推出的浸沒液冷服務器,剛好跟上算力高速增長的市場需求。公司隨時準備著為客戶提供合適的高算力產品和解決方案。
在人工智能服務器方面,寧暢已經推出多款產品,包括X620 G50、X660 G45、X640 G40、X620 G40。X620 G50適用于機器學習、AI推理、云計算、高性能計算等場景;660 G45是專門為深度學習訓練開發的高性能計算平臺;X640 G40是兼備訓練與推理功能的全能型GPU服務器;X620 G40性能提升的同時支持PCIe 4.0高速總線技術,完美支持NVIDIA各類最新型GPU加速服務,是最為理想的AI推理平臺。
在液冷服務器方面,寧暢推出了三款冷板式液冷服務器,包括產品B5000 G4 LP、X660 G45 LP、R620 G40 LP,范圍覆蓋了高密度、通用機架以及人工智能服務器產品,可滿足科學計算、AI訓練、云計算等眾多IT應用場景,可滿足用戶不同需求。
作為服務器廠商需要給下游互聯網客戶提供怎樣的產品和服務呢?對于服務器廠商來說,不只是要提供服務器硬件或者基礎設施,還要有對應的服務能力。
從服務層面來看,在用戶現場會關注什么呢,比如說核心業務,會關注業務的在線率,不管服務器壞不壞,整個業務的運行是要有彈性的、靈活的,不會給客戶造成影響的。就以百度、微信這些業務為例,大家幾乎不會看到微信不能用了,或者百度搜索不反饋結果了。
趙雷表示,對于服務器廠商來說,要做的是在服務層面能夠快速響應,不管是采用現場備件模式,機房備機模式,還是駐場人員巡檢的模式,都需要做到24小時的快速響應。這是純粹的服務方面,也就是說,在互聯網搭建業務連續性良好的基礎上,服務器廠商能夠將故障和快速維修的能力做到極致,有效地支撐客戶的前端應用。
從產品層面來看,對于每個硬件子系統在設計研發過程中,都需要從易維修和低故障角度去思考如何將產品做得更好。寧暢在這方面做了很多工作:首先,現在冷卻方式是影響故障率比較重要的因素,因為溫度太高故障率就會高,寧暢的精密風冷和液冷的方式,能夠有效地降低芯片和對應組件的故障率。
其次,其精密六維減震模式,能夠有效提升硬盤的性能,降低故障率;接著是,采用DAE的散熱器,從散熱的維度有效降低光模塊的故障率。同時CPU、GPU的液冷可以有效降低CPU、GPU的故障率;通過內存的漏斗,內存的故障篩選或者在線隔離技術,有效地降低內存的故障率;另外還在板卡走線、機箱結構方面進行了優化設計。
此外還有整機BMC易管理特性,趙雷認為,任何東西不可能不壞,有毛病是不可避免的,壞了以后,如何快速通知客戶或者維護人員維修時關鍵。BMC有一個完善的通知機制,郵件自動通知、SMP遠程告警、IPMI告警等。寧暢按照互聯網客戶的需求定制,將其融入整個機房的運維系統,出現故障以后可以第一時間通知去維修。
雖然目前國內有不少優秀的服務器、云廠商等,不過整體來看,國內的算力仍然存在瓶頸,比如,總體算力不夠,算力的分布不平均。部分客戶算力過剩,部分客戶算力不足?;蛘逜時間算力過剩,B時間算力不足,這是算力協調的問題。
短期來看這個問題要靠云技術解決,長期來看是要提供過剩的算力。也就是說,需要云技術去平衡協調算力不均勻的問題,還需要提供算力、算力效率等。
再比如算力成本高的問題,雖然目前每單位算力單價下降了,但是過去幾年服務器的平均售價一直上漲。趙雷認為,可能算力類型單一,不太能夠有效地支撐高速增長的模式,可能要有各種各樣不同類型的算力。比如ChatGPT,是不是可以做針對GPT模型專門的ASIC。算力的應用類型越窄,它的效率就會越高,越通用,效率就越低。
整體而言,過去幾年在全球數字化、智能化浪潮下,市場對算力的需求不斷增加。ChatGP的出現更是讓行業對算力提出了新的要求。國內服務器廠商在對人工智能行業提供算力支持方面已經有所準備。不過從目前的情況來看,國內在算力方面仍然存在一些瓶頸,比如算力分布不均勻,成本高等問題。后續還需業界共同去探討解決。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
服務器
+關注
關注
12文章
8295瀏覽量
83215 -
AI
+關注
關注
87文章
27183瀏覽量
264954 -
算力
+關注
關注
1文章
715瀏覽量
14441
發布評論請先 登錄
相關推薦
智能算力存在缺口,AI服務器市場規模持續提升
商的資本支出將大幅增加。全球前四大云服務商資本支出調升,預計將從2023年的1400億美元提升至2024年的超過2000億美元。 ? AI 服務器市
英飛凌2023年全球汽車半導體市場規模增長16.5%,首次實現領跑
英飛凌科技在2023年持續擴大其在汽車半導體市場的領先優勢。TechInsights的最新研究顯示,2023年全球汽車半導體市場規模增長16.5%,創下692億美元的記錄。
高盛談HBM四年十倍市場 受益于AI服務器持續增長
高盛談HBM四年十倍市場 受益于AI服務器持續增長 AI需求爆發引發HBM存儲水漲船高,高盛認為HBM供不應求的情況未來幾年或將
以太網交換芯片市場規模
以太網交換芯片市場規模在近年來呈現穩步增長的態勢。根據公開數據,2022年中國以太網交換芯片市場的銷售規模已經增長到132.45億元,2018~2022年的年均復合增長率達到13.8%。2023年
【算能RADXA微服務器試用體驗】Radxa Fogwise 1684X Mini 規格
通過網絡可以了解到,算能RADXA微服務器的具體規格:
處理器:BM1684X
算力:高達32Tops INT8峰值
發表于 02-28 11:21
明年有期待?2024年全球半導體市場規模增長17%
來源:半導體綜研,謝謝 編輯:感知芯視界 Link 2024年全球半導體市場規模達6240億美元,同比增長16.8%。 2023年全球半導體市場規模約5340億美元,同比下降10.9%。 根據
生成式AI市場規模或超10萬億元
此報告進一步證實生成式AI在制造業、零售業、電信及醫療健康領域的快速應用趨勢,各行業綜合采用率均有顯著提升。數據表明,截止今年底,已有 15%的企業選擇采用生成式AI,實現市場規模約14.4萬億元。
全球及中國Al服務器市場規模情況
未來全球服務器市場規模有望超萬億。長遠來看,在國內外數據流量迅速增長以及公有云蓬勃發展的背景下,服務器作為云網體系中最重要的算力基礎設施,未來存在
發表于 11-29 10:48
?1498次閱讀
降維打擊 _ 友商 _?華為云這款輕量應用服務器性能全面升級
IDC 數據顯示,中國云服務器市場規模已連續幾年保持著高速增長,2023 年中國云服務器市場規模達到 191.8 億元,同比增長了 22.6%,這其中輕量應用
華秋亮相第五屆模擬半導體大會,助力電子行業高質量發展
“全球芯片看模擬,模擬市場看中國?!备鶕STS統計,全球模擬芯片市場規模從2017年的268億美元增長到2022年的845億億美元。預計2023年全球模擬芯片市場規模預計將達948億美元。中國模擬
發表于 09-15 16:50
市場規模持續增長,機器人視覺解決方案備受關注!
電子發燒友網報道(文/李彎彎)機器人是一種能夠通過編程和自動控制來執行諸如作業或移動等任務的機器。近些年,全球機器人市場規模持續增長,從2017年的267億美元增長至2022年的513億美元,預計
2023年AI服務器全球規模將達248億美元 中國網絡四巨頭向英偉達下50億美元訂單
2023年,以 ChatGPT 為代表的生成式 AI 應用引發新一輪算力需求。根據 IDC 數據,2023年全球高性能 AI 服務器市場規模預計達 248 億美元,年增率預計高達 27
思必馳:生成式AI發展潛力十足,市場規模將達349億美元
Research的數據,全球生成式AI市場規模預計在2026年將達到349億美元。毫無疑問,生成式AI將成為AI行業發展的重要方向。面對該領域,國
評論