<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

與ChatGPT性能最相匹配的開源模型

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 2023-04-06 10:16 ? 次閱讀

前言

最近由UC Berkeley、CMU、Stanford, 和 UC San Diego的研究人員創建的 Vicuna-13B,通過在 ShareGPT 收集的用戶共享對話數據中微調 LLaMA獲得。其中使用 GPT-4 進行評估,發現Vicuna-13B 的性能達到了ChatGPT 和 Bard 的 90% 以上,同時在 90% 情況下都優于 LLaMA 和 Alpaca 等其他模型。訓練 Vicuna-13B 的費用約為 300 美元。訓練和代碼[1]以及在線演示[2]已公開。

Vicuna到底怎么樣?

Vicuna在官網中通過和Alpaca、LLaMA、ChatGPT和Bard對比,然后通過GPT4當裁判來打出分數,具體如下。

13c714ec-d401-11ed-bfe3-dac502259ad0.png

問題

13de1fde-d401-11ed-bfe3-dac502259ad0.png

Alpaca-13b vs Vicuna

140b2c9a-d401-11ed-bfe3-dac502259ad0.png

LLaMA-13b vs Vicuna

1430ff2e-d401-11ed-bfe3-dac502259ad0.png

ChatGPT vs Vicuna

1454ff3c-d401-11ed-bfe3-dac502259ad0.png

Bard vs Vicuna

可以看出,Vicuna的回答還是非常棒的,讓GPT4來打分,Vicuna和ChatGPT是十分接近的,遠遠高于Alpaca和LLaMA。

如果大家想試試別的問題,可以自己去嘗試[3]哈。

1476f48e-d401-11ed-bfe3-dac502259ad0.png

可換不同類型的不同問題

然而,官方認為評估聊天機器人絕非易事,聽過GPT4進行評估是一件十分不嚴格的事情,但是目前還是無法解決評估的問題,需要后續學者進行進一步探索。

148f1b54-d401-11ed-bfe3-dac502259ad0.png

圖1 GPT-4 評估

在線demo

14a82ec8-d401-11ed-bfe3-dac502259ad0.png

概述

14cef7ec-d401-11ed-bfe3-dac502259ad0.png

圖2 工作流

圖 2 介紹了整體工作流程。訓練是在一天時間在 8 個 A100 上使用 PyTorch FSDP 完成的。 LLaMA、Alpaca、ChatGPT 和 Vicuna 的詳細比較如表 1 所示。

14f36212-d401-11ed-bfe3-dac502259ad0.png

表1 一些模型的對比

訓練

Vicuna 是通過使用從 ShareGPT.com 使用公共 API 收集的大約 7萬 用戶共享對話微調 LLaMA 基礎模型創建的。為了確保數據質量,將 HTML 轉換回 markdown 并過濾掉一些不合適或低質量的樣本。此外,將冗長的對話分成更小的部分,以適應模型的最大上下文長度。

訓練方法建立在斯坦福alpaca的基礎上,并進行了以下改進。

內存優化:為了使 Vicuna 能夠理解長上下文,將最大上下文長度從alpaca 中的 512 擴展到 2048。還通過gradient checkpointingflash attentio來解決內存壓力。

多輪對話調整訓練損失考慮多輪對話,并僅根據聊天機器人的輸出進行微調。

通過 Spot 實例降低成本:使用 SkyPilot 托管點來降低成本。該解決方案將 7B 模型的訓練成本從 500 美元削減至 140 美元左右,將 13B 模型的訓練成本從 1000 美元左右削減至 300 美元。

150d9588-d401-11ed-bfe3-dac502259ad0.png

圖3 通過GPT4來評估打分

153299aa-d401-11ed-bfe3-dac502259ad0.png

通過GPT4評估得出的總分






審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 機器人
    +關注

    關注

    206

    文章

    27273

    瀏覽量

    202004
  • CMU
    CMU
    +關注

    關注

    0

    文章

    19

    瀏覽量

    15148
  • GPT
    GPT
    +關注

    關注

    0

    文章

    326

    瀏覽量

    15032
  • ChatGPT
    +關注

    關注

    28

    文章

    1481

    瀏覽量

    5503

原文標題:Vicuna:與ChatGPT 性能最相匹配的開源模型

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    【書籍評測活動NO.34】大語言模型應用指南:以ChatGPT為起點,從入門到精通的AI實踐教程

    有OpenAI 的 GPT 系列和 Anthropic 的 Claude 系列。毫無疑問,目前 OpenAI 的 GPT 系列模型在整個行業中處于領先地位,其性能遠超其他大語言模型。開源
    發表于 06-03 11:39

    OpenAI 深夜拋出王炸 “ChatGPT- 4o”, “她” 來了

    當地時間5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前邁出的一大步。在GPT-4turbo的強大基礎上,這種迭代擁有顯著的改進。在發布會的演示中,OpenAI展示該模型的高級
    發表于 05-27 15:43

    在FPGA設計中是否可以應用ChatGPT生成想要的程序呢

    當下AI人工智能崛起,很多開發領域都可看到ChatGPT的身影,FPGA設計中,是否也可以用ChatGPT輔助設計呢?
    發表于 03-28 23:41

    谷歌發布輕量級開源人工智能模型Gemma

    谷歌近日宣布推出開源人工智能(AI)模型系列Gemma,旨在為開發人員和研究人員提供一個負責任的AI構建平臺。這一舉措標志著自2022年OpenAI的ChatGPT引領AI聊天機器人熱潮后,谷歌首次發布重要的
    的頭像 發表于 02-23 11:38 ?492次閱讀

    【國產FPGA+OMAPL138開發板體驗】(原創)6.FPGA連接ChatGPT 4

    方面。而且,由于ChatGPT 4是一個大型的語言模型。通常,FPGA會用于處理一些底層的數據流或執行特定的硬件加速任務,而ChatGPT 4這樣的模型則會在云端或高
    發表于 02-14 21:58

    ChatGPT原理 ChatGPT模型訓練 chatgpt注冊流程相關簡介

    的影響,其注冊相對繁瑣。那么國內如何注冊ChatGPT賬號?本文跟大家詳細分享GPT賬戶注冊教程,手把手教你成功注冊ChatGPT。 ChatGPT是一種自然語言處理模型,
    的頭像 發表于 12-06 16:28 ?480次閱讀
    <b class='flag-5'>ChatGPT</b>原理 <b class='flag-5'>ChatGPT</b><b class='flag-5'>模型</b>訓練 <b class='flag-5'>chatgpt</b>注冊流程相關簡介

    不到1分鐘開發一個GPT應用!各路大神瘋狂整活,網友:ChatGPT就是新iPhone

    這個說法并不準確。盡管ChatGPT等語言模型已經在一定程度上改變了我們獲取信息、學習知識的方式,但它們并不能替代人類進行創造性思考和創造性活動。 雖然一些人可能會利用ChatGPT等語言模型
    發表于 11-19 12:06

    性能超越開源模型標桿Llama2-70B,書生·浦語大模型InternLM-20B開源發布

    開源首發。 同時,書生·浦語面向大模型研發與應用的全鏈條工具鏈全線升級,與InternLM-20B一同繼續全面開放,向企業和開發者提供 免費商用授權 。 今年6月首次發布以來,書生·浦語歷多輪升級,在開源社區和產業界產生廣泛
    的頭像 發表于 09-20 16:45 ?748次閱讀
    <b class='flag-5'>性能</b>超越<b class='flag-5'>開源</b><b class='flag-5'>模型</b>標桿Llama2-70B,書生·浦語大<b class='flag-5'>模型</b>InternLM-20B<b class='flag-5'>開源</b>發布

    盤古大模型ChatGPT不在一個軌道上相比優勢更多?

    張平安表示,openai發布chatgpt后,世界上出現了很多大型模型,但華為的盤古大模型chatgpt沒有直接比較。他說華為的目標不是單純提供聊天功能,而是解決實際的行業問題。
    的頭像 發表于 09-05 10:06 ?1766次閱讀

    華為盤古大模型ChatGPT的應用場景

     從應用場景來看,華為盤古大模型chatgpt的應用場景相似,均可用于智能客戶服務、智能寫作等領域。但是,華為盤古大模型還可以用于智能翻譯,具有更廣闊的應用前景。
    的頭像 發表于 09-05 10:01 ?2770次閱讀

    盤古大模型ChatGPT4

    盤古大模型ChatGPT4 盤古大模型ChatGPT4:人工智能領域重要的兩大進展 隨著人工智能技術的不斷發展,越來越多的模型和算法被開
    的頭像 發表于 08-31 10:15 ?4156次閱讀

    盤古大模型ChatGPT4的區別

    盤古大模型ChatGPT4的區別 對于大家尤其是人工智能領域的從業者而言,盤古大模型(PanGu-α)和ChatGPT-4是兩個大家的比較關注的
    的頭像 發表于 08-30 18:27 ?4521次閱讀

    chatgpt是什么意思 ChatGPT背后的技術原理

      今天我們為大家帶來的文章,深入淺出地闡釋了ChatGPT背后的技術原理,沒有NLP或算法經驗的小伙伴,也可以輕松理解ChatGPT是如何工作的?! ?b class='flag-5'>ChatGPT是一種機器學習自然語言處理
    發表于 07-18 17:12 ?0次下載

    沐曦付軒:蹄急而步穩,GPU助力ChatGPT快、準、穩全面發展

    付軒在“ChatGPT風向下的集成電路新趨勢”論壇中發表主題為《蹄急而步穩:ChatGPT與高性能GPU戰略概覽》的主題演講,分析了ChatGPT的應用特點及軟硬件需求,指出以
    的頭像 發表于 06-20 10:57 ?931次閱讀

    如何將ChatGPT的能力蒸餾到另一個大模型

    如何將ChatGPT的能力蒸餾到另一個大模型,是當前許多大模型研發的研發范式。當前許多模型都是采用chatgpt來生成微調數據,如self
    的頭像 發表于 06-12 15:06 ?619次閱讀
    如何將<b class='flag-5'>ChatGPT</b>的能力蒸餾到另一個大<b class='flag-5'>模型</b>
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>