<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

英偉達聯手推出StarCoder2 LLM系列模型,成代碼生成領域新標桿

微云疏影 ? 來源:綜合整理 ? 作者:綜合整理 ? 2024-02-29 10:14 ? 次閱讀

近期,英偉達與Hugging Face及ServiceNow攜手推出新品StarCoder2系列LLMs模型,致力于在代碼生成領域建立新的行業標桿,憑借諸多優勢凸顯性能、透明度以及經濟性。

此系列共包含三款模型,其中ServiceNow負責訓練的30億參數模型、Hugging Face訓練的70億參數模型以及英偉達訓練的150億參數模型。

新一代模型得以實現,借助Stack v2代碼集,該數據集容量是上一代Stack v1的7倍之多。此外,創新性的訓練技術使其能夠更精準地解析低資源編程語言、數學和程序源代碼討論等內容。

經過619門編程語言的訓練后,StarCoder2支持多種專業任務,例如源代碼生成、工作流創建以及文本摘要等。英偉達承諾,開發者可借此進行代碼填充、高層次代碼摘要以及代碼片段搜索等操作,以提升工作效率。

相比初版StarCoder LLM,這款30億參數的最新模型對優質參數進行了更為精確的篩選,性能相當于初版150億參數模型的StarCoder。

特別值得關注的是,StarCoder2特許使用BigCode Open RAIL-M許可證,無需支付任何版權費用即可享受使用權。IT之家建議有需用戶前往BigCode項目GitHub頁面下載源代碼,同時亦可在Hugging Face獲取模型信息。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 編程語言
    +關注

    關注

    9

    文章

    1881

    瀏覽量

    33545
  • 數據集
    +關注

    關注

    4

    文章

    1182

    瀏覽量

    24427
  • 英偉達
    +關注

    關注

    22

    文章

    3438

    瀏覽量

    88591
收藏 人收藏

    評論

    相關推薦

    進一步解讀英偉 Blackwell 架構、NVlink及GB200 超級芯片

    30 倍,能源效率提高了 25 倍。這些提升使得它能夠更快地處理大規模的人工智能任務,加速模型的訓練和推理過程。 **2. **超級計算機 英偉
    發表于 05-13 17:16

    了解大型語言模型 (LLM) 領域中的25個關鍵術語

    1.LLM(大語言模型)大型語言模型(LLMs)是先進的人工智能系統,經過大量文本數據集的訓練,可以理解和生成類似人類的文本。他們使用深度學習技術以上下文相關的方式處理和
    的頭像 發表于 05-10 08:27 ?824次閱讀
    了解大型語言<b class='flag-5'>模型</b> (<b class='flag-5'>LLM</b>) <b class='flag-5'>領域</b>中的25個關鍵術語

    英偉達將推出生成式AI專業認證

    在人工智能日益成為技術發展的核心領域的今天,英偉達在近日舉行的GTC大會上將推出生成式AI專業認證。這一創新舉措旨在幫助開發者、職場人士以及其他相關人員更好地證明和展示自己在生成式AI
    的頭像 發表于 03-19 11:44 ?482次閱讀

    Anthropic發布Claude3系列模型

    近日,人工智能領域的創新者 Anthropic 宣布推出其備受矚目的 Claude 3 系列大型語言模型LLM)。這一
    的頭像 發表于 03-06 09:56 ?274次閱讀

    ServiceNow、Hugging Face和NVIDIA發布StarCoder2助力生成式AI構建企業應用

    與 BigCode 社區共同創建的 StarCoder2 是在 600 多種編程語言上訓練而成,它將推進代碼生成、透明度、治理和創新。
    的頭像 發表于 03-01 10:28 ?299次閱讀

    ServiceNow、Hugging Face 和 NVIDIA 發布全新開放獲取 LLM,助力開發者運用生成式 AI 構建企業應用

    2024 年 2 月 28 日 - ServiceNow(NYSE:NOW)、Hugging Face 和 NVIDIA 于今日發布 StarCoder2,其為一系列用于代碼生成的開
    發表于 02-29 11:12 ?171次閱讀
    ServiceNow、Hugging Face 和 NVIDIA 發布全新開放獲取 <b class='flag-5'>LLM</b>,助力開發者運用<b class='flag-5'>生成</b>式 AI 構建企業應用

    Meta推出最新版AI代碼生成模型Code Llama70B

    Meta近日宣布了其最新版本的AI代碼生成模型Code Llama70B,并稱其為“目前最大、最優秀的模型”。這一更新標志著Meta在AI代碼
    的頭像 發表于 01-30 18:21 ?918次閱讀

    2023年LLM模型研究進展

    作為做LLM應用的副產品,我們提出了RLCD[11],通過同時使用正例和負例prompt,自動生成帶標簽的生成樣本不需人工標注,然后可以接大模型微調,或者用于訓練reward mode
    發表于 01-19 13:55 ?331次閱讀

    安霸發布N1系列生成式AI芯片支持前端設備運行本地LLM應用

    單顆 SoC 支持 1 至 340 億參數的多模態大模型(Multi-Modal LLM)推理,實現前端低功耗生成式 AI。
    的頭像 發表于 01-09 15:19 ?672次閱讀

    英偉HBM4預計2026年推出

    英偉行業資訊
    深圳市浮思特科技有限公司
    發布于 :2023年11月27日 15:15:17

    從HumanEval到CoderEval: 你的代碼生成模型真的work嗎?

    本文主要介紹了一個名為CoderEval的代碼生成模型評估基準,并對三個代碼生成模型(Code
    的頭像 發表于 11-25 15:55 ?936次閱讀
    從HumanEval到CoderEval: 你的<b class='flag-5'>代碼</b><b class='flag-5'>生成</b><b class='flag-5'>模型</b>真的work嗎?

    Meta發布一款可以使用文本提示生成代碼的大型語言模型Code Llama

    今天,Meta發布了Code Llama,一款可以使用文本提示生成代碼的大型語言模型LLM)。
    的頭像 發表于 08-25 09:06 ?1028次閱讀
    Meta發布一款可以使用文本提示<b class='flag-5'>生成</b><b class='flag-5'>代碼</b>的大型語言<b class='flag-5'>模型</b>Code Llama

    MBD的Simulink使用技巧:詳解代碼生成中的模型代碼(2)

    上一篇文章中提到,生成嵌入式代碼,必須選擇定步長求解器。實際中,生成嵌入式代碼幾乎不會使用Simulink模型庫中的連續
    的頭像 發表于 07-13 15:13 ?3301次閱讀
    MBD的Simulink使用技巧:詳解<b class='flag-5'>代碼</b><b class='flag-5'>生成</b>中的<b class='flag-5'>模型</b>與<b class='flag-5'>代碼</b>(2)

    聯手英偉達,聯發科“對戰”高通

    聯發科與英偉達在車用領域聯手,從車用座艙系統到自駕車芯片市場,可能出現變化。
    的頭像 發表于 07-13 09:01 ?740次閱讀

    大型語言模型LLM)的自定義訓練:包含代碼示例的詳細指南

    近年來,像 GPT-4 這樣的大型語言模型LLM) 因其在自然語言理解和生成方面的驚人能力而受到廣泛關注。但是,要根據特定任務或領域定制LLM
    發表于 06-12 09:35 ?2001次閱讀
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>