<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

開源大模型Falcon(獵鷹) 180B發布 1800億參數

OSC開源社區 ? 來源:OSC開源社區 ? 2023-09-18 09:29 ? 次閱讀

世界最強開源大模型 Falcon 180B 忽然火爆全網,1800億參數,Falcon 在 3.5 萬億 token 完成訓練,性能碾壓 Llama 2,登頂 Hugging Face 排行榜。

今年5月,TII(阿聯酋阿布扎比技術創新研究所)推出了號稱是 “史上最強的開源大語言模型”——Falcon(獵鷹)。雖然 Falcon 的參數比 LLaMA 小,但性能卻更加強大。

此前,Falcon 已經推出了三種模型大小,分別是1.3B、7.5B、40B。據介紹,Falcon 180B 是 40B 的升級版本,Falcon 180B 的規模是 Llama 2 的 2.5 倍,且可免費商用。 Falcon 180B在 Hugging Face 開源大模型榜單上被認為是當前評分最高的開放式大模型,其評分68.74,Meta 的 LlaMA 2以 1.39 的分數差距排名第二。

360532b2-4fcd-11ee-a25d-92fbcf53809c.png

3624d5c2-4fcd-11ee-a25d-92fbcf53809c.png

據官方介紹,Falcon 180B 是當前最好的開源大模型。 其在 MMLU 上 的表現超過了 Llama 2 70B 和 OpenAI 的 GPT-3.5。在 HellaSwag、LAMBADA、WebQuestions、Winogrande、PIQA、ARC、BoolQ、CB、COPA、RTE、WiC、WSC 及 ReCoRD 上與谷歌的 PaLM 2-Large 不相上下。

364a2cf0-4fcd-11ee-a25d-92fbcf53809c.png

目前大家可以通過以下地址進行Demo 體驗:https://hf.co/spaces/HuggingFaceH4/falcon-chat


硬件要求

類型 種類 最低要求 配置示例
Falcon 180B Training Full fine-tuning 5120GB 8x 8x A100 80GB
Falcon 180B Training LoRA with ZeRO-3 1280GB 2x 8x A100 80GB
Falcon 180B Training QLoRA 160GB 2x A100 80GB
Falcon 180B Inference BF16/FP16 640GB 8x A100 80GB
Falcon 180B Inference GPTQ/int4 320GB 8x A100 40GB

Prompt 格式

其基礎模型沒有 Prompt 格式,因為它并不是一個對話型大模型也不是通過指令進行的訓練,所以它并不會以對話形式回應。預訓練模型是微調的絕佳平臺,但或許你不該直接使用。其對話模型則設有一個簡單的對話模式。

System: Add an optional system prompt here
User: This is the user input
Falcon: This is what the model generates
User: This might be a second turn input
Falcon: and so on

Transformers

從 Transfomers 4.33 開始,可以在 Hugging Face 上使用 Falcon 180B 并且使用 HF 生態里的所有工具。但是前提是請確保你已經登錄了自己的 Hugging Face 賬號,并安裝了最新版本的 transformers:

pip install --upgrade transformers
huggingface-cli login
bfloat16 以下是如何在bfloat16中使用基礎模型的方法。Falcon 180B 是一個大型模型,所以請注意它的硬件要求(硬件要求如上所示)。
from transformers import AutoTokenizer, AutoModelForCausalLM
import transformers
import torch

model_id = "tiiuae/falcon-180B"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    device_map="auto",
)

prompt = "My name is Pedro, I live in"
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")

output = model.generate(
    input_ids=inputs["input_ids"],
    attention_mask=inputs["attention_mask"],
    do_sample=True,
    temperature=0.6,
    top_p=0.9,
    max_new_tokens=50,
)
output = output[0].to("cpu")
print(tokenizer.decode(output)

這可能會產生如下輸出結果:

My name is Pedro, I live in Portugal and I am 25 years old. I am a graphic designer, but I am also passionate about photography and video.
I love to travel and I am always looking for new adventures. I love to meet new people and explore new places.
使用 8 位和 4 位的 bitsandbytes Falcon 180B 的 8 位和 4 位量化版本在評估方面與bfloat16幾乎沒有差別!這對推理來說是個好消息,因為你可以放心地使用量化版本來降低硬件要求。請記住,在 8 位版本進行推理要比 4 位版本快得多。要使用量化,你需要安裝 “bitsandbytes” 庫,并在加載模型時啟用相應的標志:
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    **load_in_8bit=True,**
    device_map="auto",
)
對話模型 如上所述,為跟蹤對話而微調的模型版本使用了非常直接的訓練模板。我們必須遵循同樣的模式才能運行聊天式推理。作為參考,你可以看看聊天演示中的format_prompt函數:
def format_prompt(message, history, system_prompt):
    prompt = ""
    if system_prompt:
        prompt += f"System: {system_prompt}
"
    for user_prompt, bot_response in history:
        prompt += f"User: {user_prompt}
"
        prompt += f"Falcon: {bot_response}
"
        prompt += f"User: {message}
Falcon:"
    return prompt
如你所見,用戶的交互和模型的回應前面都有User:和Falcon:分隔符。我們將它們連接在一起,形成一個包含整個對話歷史的提示。這樣就可以提供一個系統提示來調整生成風格。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 開源
    +關注

    關注

    3

    文章

    3029

    瀏覽量

    41812
  • 大模型
    +關注

    關注

    2

    文章

    1822

    瀏覽量

    1418

原文標題:1800億參數,性能碾壓Llama 2,世界最強開源大模型Falcon 180B發布

文章出處:【微信號:OSC開源社區,微信公眾號:OSC開源社區】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    浪潮信息重磅發布“源2.0-M32”開源模型

    浪潮信息近日發布了一款全新的開源模型——“源2.0-M32”。這款大模型在“源2.0”系列大模型的基礎上,進行了深度的技術創新與升級。
    的頭像 發表于 06-05 14:50 ?409次閱讀

    浪潮信息發布源2.0-M32開源模型,模算效率大幅提升

    5月28日,浪潮信息發布“源2.0-M32”開源模型?!霸?.0-M32”在基于”源2.0”系列大模型已有工作基礎上,創新性地提出和采用了“基于注意力機制的門控網絡”技術
    的頭像 發表于 05-29 09:34 ?177次閱讀
    浪潮信息<b class='flag-5'>發布</b>源2.0-M32<b class='flag-5'>開源</b>大<b class='flag-5'>模型</b>,模算效率大幅提升

    通義千問開源千億級參數模型

    通義千問近日開源了其首個千億級參數模型Qwen1.5-110B,這是其全系列中首個達到千億級別的開源模型。Qwen1.5-110B模型繼承了
    的頭像 發表于 05-08 11:01 ?376次閱讀

    通義千問推出1100億參數開源模型

    通義千問近日震撼發布1100億參數開源模型Qwen1.5-110B,這一舉措標志著通義千問在AI領域邁出了重大步伐。該模型成為通義千問全系
    的頭像 發表于 05-06 10:49 ?334次閱讀

    谷歌發布用于輔助編程的代碼大模型CodeGemma

    谷歌發布了用于輔助編程的代碼大模型 CodeGemma。CodeGemma 基于谷歌今年 2 月發布的輕量級開源模型 Gemma,針對 G
    的頭像 發表于 04-17 16:07 ?300次閱讀
    谷歌<b class='flag-5'>發布</b>用于輔助編程的代碼大<b class='flag-5'>模型</b>CodeGemma

    谷歌發布輕量級開源人工智能模型Gemma

    谷歌近日宣布推出開源人工智能(AI)模型系列Gemma,旨在為開發人員和研究人員提供一個負責任的AI構建平臺。這一舉措標志著自2022年OpenAI的ChatGPT引領AI聊天機器人熱潮后,谷歌首次發布重要的
    的頭像 發表于 02-23 11:38 ?503次閱讀

    模型開源開放評測體系司南正式發布

    近日,大模型開源開放評測體系司南(OpenCompass2.0)正式發布,旨在為大語言模型、多模態模型等各類
    的頭像 發表于 02-05 11:28 ?672次閱讀

    Meta發布CodeLlama70B開源模型

    Meta發布CodeLlama70B開源模型 Meta發布開源模型CodeLlama70B
    的頭像 發表于 01-31 10:30 ?1064次閱讀

    幻方量化發布了國內首個開源MoE大模型—DeepSeekMoE

    幻方量化旗下組織深度求索發布了國內首個開源 MoE 大模型 —— DeepSeekMoE,全新架構,免費商用。
    的頭像 發表于 01-23 11:28 ?1002次閱讀
    幻方量化<b class='flag-5'>發布</b>了國內首個<b class='flag-5'>開源</b>MoE大<b class='flag-5'>模型</b>—DeepSeekMoE

    【飛騰派4G版免費試用】仙女姐姐的嵌入式實驗室之五~LLaMA.cpp及3B“小模型”OpenBuddy-StableLM-3B

    預訓練語言模型。該模型最大的特點就是基于以較小的參數規模取得了優秀的性能,根據官網提供的信息,LLaMA的模型包含4個版本,最小的只有70
    發表于 12-22 10:18

    阿里云通義千問720億參數模型宣布開源

    12月1日,阿里云通義千問720億參數模型Qwen-72B宣布開源。與此同時,他們還開源了18億參數模型Qwen-1.8B和音頻大模型Qwe
    的頭像 發表于 12-01 17:08 ?973次閱讀

    浪潮信息發布源2.0基礎大模型,千億參數全面開源

    11月27日,浪潮信息發布"源2.0"基礎大模型,并宣布全面開源。源2.0基礎大模型包括1026億、518億、21億等三種參數規模的
    的頭像 發表于 11-28 09:10 ?534次閱讀
    浪潮信息<b class='flag-5'>發布</b>源2.0基礎大<b class='flag-5'>模型</b>,千億<b class='flag-5'>參數</b>全面<b class='flag-5'>開源</b>

    性能超越開源模型標桿Llama2-70B,書生·浦語大模型InternLM-20B開源發布

    開源首發。 同時,書生·浦語面向大模型研發與應用的全鏈條工具鏈全線升級,與InternLM-20B一同繼續全面開放,向企業和開發者提供 免費商用授權 。 今年6月首次發布以來,書生·浦語歷多輪升級,在
    的頭像 發表于 09-20 16:45 ?761次閱讀
    性能超越<b class='flag-5'>開源</b><b class='flag-5'>模型</b>標桿Llama2-70B,書生·浦語大<b class='flag-5'>模型</b>InternLM-20B<b class='flag-5'>開源</b><b class='flag-5'>發布</b>

    【AI簡報20230908期】正式亮相!打開騰訊混元大模型,全部都是生產力

    /s/B3KycAYJ2bLWctvoWOAxHQ 一夜之間,世界最強開源模型Falcon 180B引爆全網! 1800
    的頭像 發表于 09-08 19:15 ?578次閱讀
    【AI簡報20230908期】正式亮相!打開騰訊混元大<b class='flag-5'>模型</b>,全部都是生產力

    AI大模型開源算法介紹

    自定義。 AI大模型開源算法簡單來說就是用于訓練AI大模型的算法,并且是開源的。 現階段隨著計算能力的不斷提升和數據量的不斷攀升,越來越多的機器學習算法開始涌現出來。其中一個趨勢就是
    的頭像 發表于 08-08 17:25 ?1582次閱讀
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>