<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

采用OpenACC框架的FVCOM模型實現超百倍計算加速

NVIDIA英偉達企業解決方案 ? 來源:NVIDIA英偉達企業解決方案 ? 2024-04-26 09:44 ? 次閱讀

華東師范大學河口海岸學國家重點實驗室葛建忠教授團隊作為國際先進海洋數值模型 FVCOM 開發團隊核心成員,隨著 FVCOM 的發展和應用越來越廣泛,以及行業不斷提升的對預報精度與時效性要求,算力需求劇增,借助 NVIDIA GPU 加速計算技術,不僅實現了傳統動力學數值模型的百倍計算加速,造福了海洋預報、水利工程等具體應用領域,也為海洋模型系統向人工智能模型轉型以及人工智能海洋學的發展提供了關鍵的基礎數據生成工具和方法,是人工智能技術進一步應用于海洋領域的重要基石。

海洋預報數值模型計算負載劇增

隨著自然災害越來越頻發,為災害過程防御提供技術支撐的數值預報系統對“精確、及時、高效、穩定”有著越來越高的需求,特別是隨著集合預報模型的研發和應用帶來了數值模型計算量的急劇上升(比如在集合預報中計算量與集合樣本數量成正比,是單個模型計算的數十倍),超大的計算負載給預報業務單位和超算中心帶來了極大的壓力,而預報系統又具有“高時效”的特點,要盡可能地控制計算量,從而提高預報時效。與此同時,河口生態、生物地球化學過程模型具有變量多、過程復雜的特點,其計算量一般是動力模型的 10 倍以上。潮灘濕地植被斑塊及潮溝系統、近海工程、海上風電場等模型一般都要求小于 5 米的空間分辨率,這也造成了模型計算量顯著增大。

面對計算量劇增的挑戰,實驗室目前的計算架構主要采取基于 CPU 的多核計算節點擴展方案為主,以增加核數、節點來應對,這對高性能集群的建設和運維提出了更高的要求,也進一步提高了數值模型應用和拓展的門檻。

采用 OpenACC 框架加速 FVCOM 模型

為了解決數值模型計算負載劇增這一難點問題,華東師范大學河口海岸學國家重點實驗室葛建忠教授團隊調研分析了目前的主要 GPU 加速計算技術,包括 CUDA、OpenACC、stdpar、Kokkos、OpenCL 等,并與 NVIDIA 技術團隊進行了詳細討論和分析,結合 FVCOM 模型代碼的復雜度,選擇了 OpenACC 為主的技術路線,并于 2023 年初開始相關代碼遷移工作,并在 2023 年 8 月參加了 NVIDIA 舉辦的武漢大學 GPU Hackthon 活動,得到了專業的技術支持,解決了多個關鍵技術難點,于 2023 年底完成了主要代碼的遷移、測試和驗證工作。

為降低大規模數值模型的使用門檻,模型代碼的遷移和測試都在一臺搭載 NVIDIA GeForce RTX 40 系列 GPU 的臺式電腦上完成,并在 2023 年初完成部署的超算中心計算節點上采用 CPU 進行對比,該計算節點為 Intel Xeon Gold CPU,遷移后的模型支持正壓、斜壓、泥沙、植被等關鍵模型,并支持全部外部驅動包括風場、熱通量、降雨、離線流場、嵌套文件的高效傳輸,也可進行單精度、雙精度計算的自由切換。遷移后模型相關的輸入、輸出和控制文件未發生任何變化,可以適用于原有 FVCOM 的相關應用。

加速對比測試選擇 10 萬、35 萬、100 萬、150 萬、200 萬水平方向網格等模型,所有模型都在 RTX GPU 上進行單精度模式計算,并采用計算節點進行單線程運行相同模型。相對于 CPU 單線程計算速度,采用 OpenACC 技術的 FVCOM 模型分別達到了 88、181、194、195、198 倍的加速比(圖 1)。在此基礎上采用編譯器控制選項可以在同一套代碼上靈活切換 CPU 或者 GPU 模式,且經檢驗,CPU 和 GPU 加速模型都得到一致的模擬結果。在單精度 FVCOM 的前提下,一個 RTX GPU 的計算能力在不考慮網絡交換的情況下相當于超算集群的 3.5 個 64 核計算節點,在考慮節點間網絡交換延遲時可相當于 5 個節點。

25df4e44-030b-11ef-a297-92fbcf53809c.jpg

圖 1:單精度 GPU-FVCOM 加速實驗結果

該模型可在 NVIDIA 加速計算框架體系內高效擴展,將 10 萬、35 萬、100 萬、150 萬網格模型再調整為雙精度模式,采用單個 NVIDIA Ampere Tensor Core GPU 進行加速計算,分別達到了 48、77、139 和 135 的加速比,顯示了對雙精度模式也有良好的加速效果。在多個 GPU 計算節點的情況下,也可采用 MPI+OpenACC 方式支持多 GPU 并行計算。

25f49b6e-030b-11ef-a297-92fbcf53809c.jpg

圖 2:雙精度 GPU-FVCOM 加速實驗結果

超百倍計算加速造福海洋預報

目前,FVCOM 模型在海洋預報、海洋工程與作業等領域應用極為廣泛。以國內外近海海洋預報業務為例,FVCOM 已經成為我國沿海省、市、區各級海洋預警預報部門開展業務化預報工作的主要模型選擇。海洋預報業務的發展趨勢是不斷提升對預報精度與時效的要求,二者都意味著巨大的算力需求,而將 FVCOM 模型實現 GPU 加速是解決實際應用中劇增的算力需求的有效途徑。

采用 GPU 加速的預報模型可以將預報時效從小時級別降低到分鐘級,甚至秒級。顯著的效率提升也釋放了模型進一步采用更高網格分辨率從而提高模擬精度的潛力。

另一方面,業務部門對于臺風風暴潮等事件的集合預報愈發重視。集合預報是指針對不同的初始條件或驅動要素(例如臺風演化過程)的擾動,計算出多個可能的未來情形,以考慮預報中的不確定性。這就對模型的計算速度提出了更大的挑戰,而 GPU 加速能夠很好地加以應對。

在水利工程領域,FVCOM 模型也已廣泛用于工程可行性分析與評估。尤其是在工程前期研究階段,需要借助數值模型對多種施工建設方案的效果進行模擬評估,多工況計算對傳統模型也造成了極大挑戰。實現 GPU 加速從而更快地給出論證結果,則可以切實地提高工程推進效率,節省工期。

此外,本項目所實現的案例具有較高的啟示意義與推廣價值,例如 OpenACC 技術方案還可以應用在其他近海和海洋數值模型系統。在采用結構化網格的模型中(如ROMS、ECOM、POM 等),該方案甚至可能實現更好的加速效果。本次實踐也證明,GPU 加速能夠極大地降低河口、海岸、海洋研究和工程應用領域進行數值模擬所需的硬件門檻,為學科發展、業務應用都提供了巨大幫助。

目前,海洋數值模型正經歷其發展歷程中的最大轉型,即從基于動力學機制與方程的傳統海洋數值模型轉型為基于機器學習深度學習)等方法的人工智能模型。而人工智能模型對數據的需求與依賴巨大,其訓練通常離不開海量的、可靠的數據。然而,海洋系統中的實測數據,相較于海洋巨大的空間尺度以及所關切問題的具體時間范圍,總是稀缺的。數值模型則可以為人工智能模型提供大量的基礎訓練數據,也是當下保障數據范圍與質量最有效的途徑之一。例如,葛建忠教授團隊已經用實現 GPU 加速的 FVCOM 模型系統計算了中國近海 1960 – 2023 年海洋流場和生態動力過程,用該三維高分辨率模型生成了超 20TB 容量的同化數據產品。隨后,通過利用 NVIDIA 開發的基于 AFNO 架構的 FourCastNet 模型對該數據集開展訓練,他們實現了對河口及近海動力學過程的快速推演與分析。此外,他們還采用實現 GPU 加速的 FVCOM 模型高效快速地計算了超過 1000 個臺風風暴潮過程樣本,用于訓練一個基于深度學習方法的風暴潮預報模型。這兩個數據集的構建,若采用傳統的、未經加速的數值模型,所耗費的時間成本將高出百倍以上。

綜上,采用 OpenACC 框架的 FVCOM 為傳統動力學數值模型提供了超過百倍的計算加速。這樣的效率提升不僅直接造福了海洋預報、水利工程等具體應用領域,也為海洋模型系統向人工智能模型轉型以及人工智能海洋學的發展提供了關鍵的基礎數據生成工具和方法,是人工智能技術進一步應用于海洋領域的重要基石。

團隊介紹

華東師范大學河口海岸學國家重點實驗室葛建忠教授團隊長期致力于海洋數值模型的研發與應用,是國際先進海洋數值模型 FVCOM 開發團隊核心成員,主持開發了其中導堤-丁壩、細顆粒粘性泥沙、浮泥、河流閘門、植被、藻類漂移生長等 FVCOM 核心模塊,并參與開發了波流共同作用、FVCOM-ERSEM 生物地球化學等模塊。此外,該團隊也建立了中國海-長江口多空間尺度物理-生物地球化學耦合數值模擬系統。

葛建忠教授團隊基于 FVCOM 框架,主要聚焦高濃度泥沙、物理-生物地球化學耦合過程、臺風風暴潮等方面的研究,并針對長江河口、黃海、浙閩沿海、珠江口和北部灣等國內典型河口海岸區域進行了應用研究。在德國的易北河口、漢堡港、越南的峴港等區域,該團隊也開展了相關合作和應用研究,其相關成果也為國家海洋與水利等部門的黃海滸苔防治、風暴潮預報、咸潮入侵防御等方面提供了多項技術支撐。



審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    4665

    瀏覽量

    102043
  • 人工智能
    +關注

    關注

    1780

    文章

    44671

    瀏覽量

    231491
  • 機器學習
    +關注

    關注

    66

    文章

    8176

    瀏覽量

    130993
  • 深度學習
    +關注

    關注

    73

    文章

    5257

    瀏覽量

    120079
  • GPU芯片
    +關注

    關注

    1

    文章

    303

    瀏覽量

    5697

原文標題:造福海洋預報!采用 OpenACC 框架的 FVCOM 模型實現超百倍計算加速

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    進一步解讀英偉達 Blackwell 架構、NVlink及GB200 超級芯片

    人工智能模型在規模和復雜性上呈指數級增長,對先進計算能力和內存容量的需求變得至關重要。Blackwell圖形處理器架構通過在性能和效率方面實現大幅躍升,解決了這些需求。 HGX B200 訓練性能提升3
    發表于 05-13 17:16

    【大語言模型:原理與工程實踐】大語言模型的評測

    計算和代碼糾錯等。這些場景覆蓋日常生活和學習的多個方面,使得對話能力評測變得尤為復雜和關鍵。為了全面評估大語言模型在各種應用場景下的對話能力,研究人員和使用者需要一套綜合性的評測框架。該框架
    發表于 05-07 17:12

    軟通動力大模型一體機亮相2024昇思人工智能框架峰會

    人工智能框架作為軟件根技術,已成為加速人工智能大模型開發、推動產業智能化發展的核心力量。
    的頭像 發表于 03-26 09:35 ?482次閱讀
    軟通動力大<b class='flag-5'>模型</b>一體機亮相2024昇思人工智能<b class='flag-5'>框架</b>峰會

    谷歌模型框架是什么軟件?谷歌模型框架怎么用?

    谷歌模型框架通常指的是谷歌開發的用于機器學習和人工智能的軟件框架,其中最著名的是TensorFlow。TensorFlow是一個開源的機器學習框架,由谷歌的機器學習團隊開發,用于構建和
    的頭像 發表于 03-01 16:25 ?325次閱讀

    谷歌模型框架是什么?有哪些功能和應用?

    谷歌模型框架(Google Model Framework)并不是一個特定的框架,而是指谷歌開發的一系列軟件框架,用于支持機器學習和人工智能的應用。以下是一些與谷歌
    的頭像 發表于 02-29 18:11 ?817次閱讀

    什么是加速計算?加速計算的應用場景和解決方案

    前所未有的處理能力,在云基礎設施中發揮著核心作用,因為它有助于更高效、更有效地管理數據中心的海量信息。此外,加速計算還能提供必要的計算能力和內存,以便更高效地訓練和實施 GPT-4 等高級生成式人工智能
    的頭像 發表于 12-28 10:07 ?1273次閱讀
    什么是<b class='flag-5'>加速</b><b class='flag-5'>計算</b>?<b class='flag-5'>加速</b><b class='flag-5'>計算</b>的應用場景和解決方案

    邊緣計算框架有哪些

    邊緣計算架構是一種將計算能力、存儲和分析功能盡可能地靠近數據源的計算模型。它通過將計算任務從中心數據中心移至近距離的設備上,提供低延遲、高帶
    的頭像 發表于 12-27 15:01 ?742次閱讀

    設定值前饋控制與加速度觀測模型應用

    ,其二是被跟蹤軸系的轉動慣性計算,其三是被跟蹤軸系的加速度生成。在其跟蹤過程,被跟蹤軸的轉速實際值作為工藝調節器的設定值,跟蹤軸的轉速實際值作為工藝調節器的反饋值。被跟蹤軸慣性與加速度作為調節器的前饋
    發表于 11-02 07:05

    主流大模型推理框架盤點解析

    vLLM是一個開源的大模型推理加速框架,通過PagedAttention高效地管理attention中緩存的張量,實現了比HuggingFace Transformers高14-24倍
    發表于 10-10 15:09 ?2458次閱讀
    主流大<b class='flag-5'>模型</b>推理<b class='flag-5'>框架</b>盤點解析

    揭秘英偉達A100、A800、H100、H800 GPU如何實現高性能大模型百倍訓練加速

    原理包括輸入數據的處理、多層神經網絡計算和輸出結果生成。這些模型通常由數十億個參數組成,需要龐大的計算資源和高速的存儲器來進行訓練和推理。
    的頭像 發表于 09-09 11:15 ?1412次閱讀
    揭秘英偉達A100、A800、H100、H800 GPU如何<b class='flag-5'>實現</b>高性能大<b class='flag-5'>模型</b>的<b class='flag-5'>百倍</b>訓練<b class='flag-5'>加速</b>

    深度學習框架pytorch介紹

    深度學習框架pytorch介紹 PyTorch是由Facebook創建的開源機器學習框架,其中TensorFlow是完全基于數據流圖的。它是一個使用動態計算圖的框架,允許用戶更靈活地定
    的頭像 發表于 08-17 16:10 ?1256次閱讀

    三種主流模型部署框架YOLOv8推理演示

    深度學習模型部署有OpenVINO、ONNXRUNTIME、TensorRT三個主流框架,均支持Python與C++的SDK使用。對YOLOv5~YOLOv8的系列模型,均可以通過C++推理
    的頭像 發表于 08-06 11:39 ?2029次閱讀

    模型部署框架FastLLM實現細節解析

    接著 大模型部署框架 FastLLM 簡要解析 這篇文章首先梳理了一下FastLLM的調用鏈和關鍵的數據結構,然后解析了 FastLLM 的一些實現細節和CPU/GPU后端實現
    的頭像 發表于 07-27 10:48 ?945次閱讀
    大<b class='flag-5'>模型</b>部署<b class='flag-5'>框架</b>FastLLM<b class='flag-5'>實現</b>細節解析

    TorchVision框架模型導出并部署到ONNXRUNTIME C++全流程解析

    ONNXRUNTIME是主流的深度學習部署框架之一,支持ONNX格式模型在CPU、GPU、ARM等不同硬件平臺上加速推理,支持C++、Python、Java、C#、JS等不同語言SDK。C++版本安裝包下載如下。
    的頭像 發表于 07-13 14:46 ?847次閱讀
    TorchVision<b class='flag-5'>框架</b>下<b class='flag-5'>模型</b>導出并部署到ONNXRUNTIME C++全流程解析

    基于 FPGA 的目標檢測網絡加速電路設計

    了對 HLS 的理解,開始初步掌握使用 HLS 進行并行性編程的方法。我們學習了 PYNQ 框架,在 PYNQ-Z2 上實現神經網絡加速 電路,有了軟硬件協同開發的經歷。除此之外,我們還學習了
    發表于 06-20 19:45
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>