<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Meta推出最強開源模型Llama 3 要挑戰GPT

A面面觀 ? 2024-04-19 17:00 ? 次閱讀

Meta推出最強開源模型Llama 3 要挑戰GPT

Facebook母公司Meta Platforms(META.US)推出了開源AI大模型“Llama”的最新升級版本“Llama 3”,Meta公司這次開源了Llama 3 8B與70B兩款不同規模的模型,開發者可以免費使用,而Meta公司還將陸續推出一系列具備多模態、多語言對話、更長上下文窗口等能力的新模型。

據悉Meta用搭載超2.4萬塊H100芯片的計算機集群訓練Llama 3。Llama 3最大參數規模超4000億,訓練token超15萬億,訓練數據規模差不多是Llama 2的七倍。而且訓練效率比Llama 2高3倍;同時在安全性也有非常明顯的進步。對比GPT-3.5多種人類評估測評勝率超六成。

基于Llama 3模型目前已經覆蓋Instagram、WhatsApp、Facebook等Meta公司的應用軟件。

OpenAI的核心創始成員之一、特斯拉前AI總監Andrej Karpathy認為400B Llama3性能已接近GPT-4 的水平。

Meta首席產品官考克斯表示Llama 3在它參數模型的許多基準上都處于行業領先地位。

有業界分析師認為開源大模型Llama 3期待已久,Meta公司肯定非常希望Llama3能夠超越OpenAI的GPT-4。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • Meta
    +關注

    關注

    0

    文章

    163

    瀏覽量

    11180
  • ChatGPT
    +關注

    關注

    27

    文章

    1408

    瀏覽量

    4726
  • 大模型
    +關注

    關注

    2

    文章

    1516

    瀏覽量

    1098
收藏 人收藏

    評論

    相關推薦

    百度智能云國內首家支持Llama3全系列訓練推理!

    4月18日,Meta 正式發布 Llama 3,包括8B 和 70B 參數的大模型,官方號稱有史以來最強大的開源
    的頭像 發表于 04-20 09:20 ?122次閱讀
    百度智能云國內首家支持<b class='flag-5'>Llama</b>3全系列訓練推理!

    高通支持Meta Llama 3大語言模型在驍龍旗艦平臺上實現終端側執行

    高通和Meta合作優化Meta Llama 3大語言模型,支持在未來的驍龍旗艦平臺上實現終端側執行。
    的頭像 發表于 04-20 09:13 ?164次閱讀

    Meta推出新一代語言模型LLAMA 3,性能優于GPT-3.5

    Meta決定將Llama 3的80億參數版開源,以期讓更多人能夠接觸到尖端的AI技術。全球范圍內的開發者、研究員以及對AI充滿好奇的人士均可參與其中,進行游戲開發、模型構建與實驗探索。
    的頭像 發表于 04-19 10:21 ?264次閱讀

    新火種AI|谷歌深夜炸彈!史上最強開源模型Gemma,打響新一輪AI之戰

    作者:文子 編輯:小迪 谷歌,2024年卷出新高度。 全球最強開源模型,Gemma重燃戰局 短短12天連放三次大招,谷歌AI更新迭代之快,讓人始料未及。 當地時間2月21日,谷歌毫無預兆地發布號稱
    的頭像 發表于 02-23 10:21 ?153次閱讀
    新火種AI|谷歌深夜炸彈!史上<b class='flag-5'>最強開源</b><b class='flag-5'>模型</b>Gemma,打響新一輪AI之戰

    LLaMA 2是什么?LLaMA 2背后的研究工作

    Meta 發布的 LLaMA 2,是新的 sota 開源大型語言模型 (LLM)。LLaMA 2 代表著
    的頭像 發表于 02-21 16:00 ?352次閱讀

    Meta發布CodeLlama70B開源模型

    Meta發布CodeLlama70B開源模型 Meta發布了開源模型CodeLlama70B
    的頭像 發表于 01-31 10:30 ?961次閱讀

    Meta發布開源模型Code Llama 70B

    近日,Meta宣布推出了一款新的開源模型Code Llama 70B,這是其“Code Llama
    的頭像 發表于 01-31 09:24 ?374次閱讀

    Meta推出最新版AI代碼生成模型Code Llama70B

    Meta近日宣布了其最新版本的AI代碼生成模型Code Llama70B,并稱其為“目前最大、最優秀的模型”。這一更新標志著Meta在AI代
    的頭像 發表于 01-30 18:21 ?859次閱讀

    【飛騰派4G版免費試用】仙女姐姐的嵌入式實驗室之五~LLaMA.cpp及3B“小模型”OpenBuddy-StableLM-3B

    和1750億參數的GPT-3都是非常由有競爭力的 MetaAI研究人員認為,當前大模型的高成本阻礙了學術研究,因此,開發出這個更小更強的模型將有利于學術研究的發展。使用較少參數的模型,
    發表于 12-22 10:18

    開源模型Falcon(獵鷹) 180B發布 1800億參數

    ? 世界最強開源模型 Falcon 180B 忽然火爆全網,1800億參數,Falcon 在 3.5 萬億 token 完成訓練,性能碾壓 Llama 2,登頂 Hugging Face 排行榜
    的頭像 發表于 09-18 09:29 ?941次閱讀
    <b class='flag-5'>開源</b>大<b class='flag-5'>模型</b>Falcon(獵鷹) 180B發布 1800億參數

    Meta發布一款可以使用文本提示生成代碼的大型語言模型Code Llama

    今天,Meta發布了Code Llama,一款可以使用文本提示生成代碼的大型語言模型(LLM)。
    的頭像 發表于 08-25 09:06 ?946次閱讀
    <b class='flag-5'>Meta</b>發布一款可以使用文本提示生成代碼的大型語言<b class='flag-5'>模型</b>Code <b class='flag-5'>Llama</b>

    關于Llama 2的一切資源,我們都幫你整理好了

    Meta 發布的 Llama 2,是新的 SOTA 開源大型語言模型(LLM)。Llama 2 代表著
    的頭像 發表于 08-23 15:40 ?751次閱讀

    IBM 計劃在 watsonx 平臺上提供 MetaLlama 2 模型

    IBM 企業就緒的 AI 和數據平臺?watsonx?不斷推出新功能。IBM 宣布,計劃在 watsonx 的 AI 開發平臺?watsonx.ai?上納入?Meta?的 700?億參數 Llama
    的頭像 發表于 08-09 20:35 ?330次閱讀

    Meta推出Llama 2 免費開放商業和研究機構使用

    與所有LLM一樣,Llama 2偶爾會產生不正確或不可用的答案,但Meta介紹Llama的論文聲稱,它在學術基準方面與OpenAI的GPT 3.5不相上下,如MMLU(衡量LLM在57
    的頭像 發表于 08-02 16:17 ?449次閱讀
    <b class='flag-5'>Meta</b><b class='flag-5'>推出</b><b class='flag-5'>Llama</b> 2 免費開放商業和研究機構使用

    Meta推出免費大模型Llama 2,GPT要有危機感了

    作為Meta首批合作伙伴之一,亞馬遜云科技宣布客戶可以通過Amazon SageMaker JumpStart來使用Meta開發的Llama 2基礎模型。
    的頭像 發表于 07-21 16:10 ?959次閱讀
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>