<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

NVIDIA英偉達企業解決方案 ? 來源:NVIDIA英偉達企業解決方案 ? 2024-04-28 10:36 ? 次閱讀

NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM 是一個開源庫,用于優化從 PC 到云端的 NVIDIA GPU 上運行的大語言模型推理。

Phi-3 Mini 與 10 倍之于其大小的模型能力不相上下。不同于僅用于研究的 Phi-2,Phi-3 Mini 不僅可以用于研究,同時還可以用于多種商業用途。搭載 NVIDIA RTX GPU 的工作站或搭載 GeForce RTX GPU 的 PC 可以使用 Windows DirectML 或 TensorRT-LLM 在本地運行該模型。

該模型有 38 億個參數,在 512 個 NVIDIA Tensor Core GPU 上使用 3.3 萬億個 token 訓練而成,僅耗時七天時間。

Phi-3 Mini 有兩個版本,一個版本支持 4K token,另一個版本支持 128K token,是同類模型中第一個支持超長上下文的模型。因此,開發者在向該模型提問時,可以使用 128,000 個 token(模型能夠處理的最小語言單位),使模型能夠做出更加符合現實的回答。

開發者可以在 ai.nvidia.com上試用帶有 128K 上下文窗口的 Phi-3 Mini。該模型被打包成 NVIDIA NIM,這是一項帶有標準應用編程接口的微服務,可以部署在任何位置。

在邊緣高效運行

自主機器人和嵌入式設備開發者可以通過社區教程(如 Jetson AI Lab)學習創建和部署生成式 AI,并在 NVIDIA Jetson 上部署 Phi-3。

Phi-3 Mini 模型只有 38 億個參數,非常小巧緊湊,可以在邊緣設備上高效運行。參數就像內存中的旋鈕,可在模型訓練過程中進行精確的調整,使模型能夠對輸入的提示做出高度準確的響應。

Phi-3 可以在成本和資源受限的用例中提供幫助,尤其是較簡單的任務。該模型在關鍵語言基準測試中的表現優于一些較大的模型,同時在滿足延遲要求的情況下給出結果。

TensorRT-LLM 將支持 Phi-3 Mini 的長上下文窗口,并使用 LongRoPE、FP8/飛行批處理等眾多優化措施和內核來提高推理吞吐量,減少延遲。TensorRT-LLM 的應用很快將在 GitHub 上的示例文件夾中提供。

開發者可以轉換為 TensorRT-LLM 檢查點格式,該格式針對推理進行了優化,可以輕松地與 NVIDIA Triton 推理服務器一起部署。

開發開放式系統

NVIDIA 是開源生態系統的積極貢獻者,已經發布了 500 多個帶有開源許可證的項目。

NVIDIA 為 JAX、Kubernetes、OpenUSD、PyTorch 和 Linux 內核等眾多外部項目做出了貢獻,還為各種開源基金會和標準機構提供支持。

此次發布建立在 NVIDIA 與微軟深厚的合作基礎上,雙方的合作為加速 DirectML、Azure 云、生成式 AI 研究以及醫療和生命科學等領域的創新鋪平了道路。



審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 機器人
    +關注

    關注

    206

    文章

    27041

    瀏覽量

    201417
  • NVIDIA
    +關注

    關注

    14

    文章

    4595

    瀏覽量

    101724
  • 嵌入式設備
    +關注

    關注

    0

    文章

    104

    瀏覽量

    16830
  • GPU芯片
    +關注

    關注

    1

    文章

    291

    瀏覽量

    5689
  • 大模型
    +關注

    關注

    2

    文章

    1528

    瀏覽量

    1116

原文標題:小巧而強大:NVIDIA 加速微軟 Phi-3 開源“小語言模型”

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    微軟發布phi-3AI模型,性能超越GPT-3.5

    微軟稱,帶有38億參數的phi-3-mini經過3.3萬億token的強化學習,其基礎表現已經超過Mixtral 8x7B及GPT-3.5;此外,該模型可在手機等移動設備上運行,并在phi
    的頭像 發表于 04-23 14:32 ?193次閱讀

    NVIDIA全面加快Meta Llama 3的推理速度

    Meta 最新開源語言模型采用 NVIDIA 技術構建,其經過優化后可在云、數據中心、邊緣和 PC 的 NVIDIA GPU 上運行。
    的頭像 發表于 04-23 09:52 ?121次閱讀

    機器人基于開源的多模態語言視覺大模型

    ByteDance Research 基于開源的多模態語言視覺大模型 OpenFlamingo 開發了開源、易用的 RoboFlamingo 機器人操作
    發表于 01-19 11:43 ?124次閱讀
    機器人基于<b class='flag-5'>開源</b>的多模態<b class='flag-5'>語言</b>視覺大<b class='flag-5'>模型</b>

    微軟宣布推出一個27億參數的語言模型Phi-2

    Phi-2 是微軟 “小語言模型(SLM)” 系列中的最新版本。第一個版本是擁有 13 億參數的 Phi-1,針對基本的 Python 編碼
    發表于 12-15 09:46 ?161次閱讀
    <b class='flag-5'>微軟</b>宣布推出一個27億參數的<b class='flag-5'>語言</b><b class='flag-5'>模型</b><b class='flag-5'>Phi</b>-2

    微軟正式發布一個27億參數的語言模型Phi-2

    先后和 OpenAI、Meta 牽手推動大模型發展的微軟,也正在加快自家小模型的迭代。
    的頭像 發表于 12-14 15:45 ?488次閱讀
    <b class='flag-5'>微軟</b>正式發布一個27億參數的<b class='flag-5'>語言</b><b class='flag-5'>模型</b>—<b class='flag-5'>Phi</b>-2

    微軟Phi-2 2.7B性能領先谷歌Gemini Nano-2 3.2B

    今年九月份,微軟又進一步推出了Phi-1.5版,盡管依舊僅含13億元參數,但已可創作詩歌、電子郵件及故事,甚至可以對大量文本進行總結概括。在常識、語言理解以及推理的基準測試中,該版本的模型
    的頭像 發表于 12-13 11:05 ?531次閱讀

    php的源碼是什么開源語言

    PHP的源碼是用C語言編寫的,是一種開源的服務器端腳本語言。下面是關于PHP源碼的詳細介紹。 一、PHP簡介 PHP(全稱:PHP: Hypertext Preprocessor)是一種開源
    的頭像 發表于 12-04 16:11 ?605次閱讀

    研討會回顧:NVIDIA 助力汽車行業大語言模型創新與發展

    10 月 28 日,汽車行業大語言模型研討會正式結束。 NVIDIA 解決方案架構師陳文愷 在研討會中講解了 汽車行業如何開發企業級大語言模型
    的頭像 發表于 11-03 19:10 ?384次閱讀

    現已公開發布!歡迎使用 NVIDIA TensorRT-LLM 優化大語言模型推理

    NVIDIA 于 2023 年 10 月 19 日公開發布 TensorRT-LLM ,可在 NVIDIA GPU 上加速和優化最新的大語言模型
    的頭像 發表于 10-27 20:05 ?530次閱讀
    現已公開發布!歡迎使用 <b class='flag-5'>NVIDIA</b> TensorRT-LLM 優化大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>推理

    在線研討會 | NVIDIA 加速汽車行業大語言模型的開發與應用

    10 月 28?日上午?10?點 ,NVIDIA 解決方案架構師陳文愷將出席研討會,講解 ?NVIDIA 如何助力汽車行業開發企業級大語言模型 ,
    的頭像 發表于 10-27 20:05 ?197次閱讀
    在線研討會 | <b class='flag-5'>NVIDIA</b> <b class='flag-5'>加速</b>汽車行業大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的開發與應用

    周四研討會預告 | 注冊報名 NVIDIA AI Inference Day - 大模型推理線上研討會

    由 CSDN 舉辦的 NVIDIA AI Inference Day - 大模型推理線上研討會,將幫助您了解 NVIDIA 開源大型語言
    的頭像 發表于 10-26 09:05 ?195次閱讀

    NVIDIA DLI 實戰培訓 | 加速語言模型開發的核心技能

    實戰開發技能 | 實時講師授課 實驗用 GPU 環境 | 實名 NVIDIA 證書 大語言模型的發展宛如一場風潮席卷全球,激發了企業、學術界和科研機構的無限熱情。其龐大且復雜的規模和計算需求,令
    的頭像 發表于 07-14 19:40 ?272次閱讀
    <b class='flag-5'>NVIDIA</b> DLI 實戰培訓 | <b class='flag-5'>加速</b>大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>開發的核心技能

    微軟韋青:“大語言模型”之于人類,新啟蒙時代的思考

    日前,由微軟和湛廬合辦的以 GPT 將如何改變世界為主題的新書共讀會上,有關以 GPT 為代表的 大語言模型 提升社會生產力,打破傳統人機交互模式的話題引起了與會者的廣泛思考。 作為一種重要的推動力
    的頭像 發表于 07-12 00:10 ?411次閱讀
    <b class='flag-5'>微軟</b>韋青:“大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>”之于人類,新啟蒙時代的思考

    悟道·天鷹 Aquila + 天秤 FlagEval,打造大模型能力與評測標準雙標桿

    開源商用許可語言模型系列 悟道·天鷹(Aquila) 語言模型是首個具備中英雙語知識、支持商用許可協議、國內數據合規需求的
    的頭像 發表于 06-27 16:37 ?268次閱讀

    NVIDIA微軟合作加速企業就緒的生成式 AI

    NVIDIA AI Enterprise 與 Azure 機器學習集成,提供端到端云平臺,供開發者構建、部署和管理大型語言模型的 AI 應用 微軟 Build 大會——太平洋時間 20
    的頭像 發表于 05-25 09:15 ?377次閱讀
    <b class='flag-5'>NVIDIA</b> 與<b class='flag-5'>微軟</b>合作<b class='flag-5'>加速</b>企業就緒的生成式 AI
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>