<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

愛芯通元NPU完成Llama 3和Phi-3大模型適配,推動AI大模型技術普及

愛芯元智AXERA ? 來源:愛芯元智AXERA ? 2024-04-26 16:57 ? 次閱讀

背景

AI大模型技術的持續進步正在推動千行百業智能化升級。近日,Meta、Microsoft相繼發布具有里程碑意義的Llama 3系列和Phi-3系列模型,其中Llama 3包括8B、70B兩種規格,Phi-3包括mini(3.8B)、small(7B)、medium(14B)三種規格。為了進一步給開發者提供更多嘗鮮,愛芯元智的NPU工具鏈團隊迅速響應,已基于AX650N平臺完成 Llama 3 8B和Phi-3-mini模型適配。

Llama 3

上周五,Meta發布了Meta Llama 3系列語言模型(LLM),具體包括一個8B模型和一個70B模型在測試基準中,Llama 3模型的表現相當出色,在實用性和安全性評估中,與那些市面上流行的閉源模型不相上下。

ef8a8238-03a9-11ef-a297-92fbcf53809c.png

在架構層面,Llama 3選擇了標準的僅解碼(decoder-only)式Transformer架構,采用包含128K token詞匯表的分詞器。Llama 3使用了超過15T的公開數據進行訓練,其中5%為非英文數據,涵蓋30多種語言,訓練數據量是前代Llama 2的七倍。

根據Meta的測試結果,Llama 3 8B模型在MMLU、GPQA、HumanEval等多項性能基準上均超過了Gemma 7B和Mistral 7B Instruct,70B模型則超越了名聲在外的閉源模型Claude 3的中間版本Sonnet,和谷歌的Gemini Pro 1.5相比三勝兩負。

efa71060-03a9-11ef-a297-92fbcf53809c.png

實際上板結果

目前AX650N已經完成了Llama 3 8B Int8版本的適配,若采用Int4量化,每秒token數還能再翻一倍,能滿足正常的人機交流。

Phi-3

Llama 3剛發布沒多久,競爭對手就來了,而且是可以在手機上運行的小體量模型。

本周二,微軟發布了自研小尺寸模型Phi-3。盡管Phi-3-mini被優化至可部署在手機上,但它的性能可以與Mixtral 8x7B和GPT-3.5等模型相媲美。微軟表示,該創新主要在于用了質量更好的訓練數據集。

efcbd13e-03a9-11ef-a297-92fbcf53809c.jpg

efe2ec48-03a9-11ef-a297-92fbcf53809c.png

實際上板結果

目前AX650N已經完成了Phi-3-mini Int8版本的適配,已能滿足正常的人機交流。

其他成果

AX650N能第一時間完成Llama 3和Phi-3的適配,源于今年以來相關團隊悄悄完成了現有NPU工具鏈針對大語言模型的支持和調優。目前除了Llama 3之外,已經完成了Llama 2、TinyLlama、Phi-2、Qwen1.5、ChatGLM3等國內外主流的開源大語言模型適配。



審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NPU
    NPU
    +關注

    關注

    2

    文章

    210

    瀏覽量

    18082
  • 愛芯元智
    +關注

    關注

    1

    文章

    54

    瀏覽量

    4448
  • LLM
    LLM
    +關注

    關注

    0

    文章

    201

    瀏覽量

    233
  • AI大模型
    +關注

    關注

    0

    文章

    194

    瀏覽量

    91

原文標題:愛芯通元NPU完成Llama 3和Phi-3大模型適配,推動AI大模型技術應用普及

文章出處:【微信號:愛芯元智AXERA,微信公眾號:愛芯元智AXERA】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    Meta推出最強開源模型Llama 3 要挑戰GPT

    Meta推出最強開源模型Llama 3 要挑戰GPT Facebook母公司Meta Platforms(META.US)推出了開源AI模型Ll
    的頭像 發表于 04-19 17:00 ?446次閱讀

    Meta推出最新版AI代碼生成模型Code Llama70B

    Meta近日宣布了其最新版本的AI代碼生成模型Code Llama70B,并稱其為“目前最大、最優秀的模型”。這一更新標志著Meta在AI
    的頭像 發表于 01-30 18:21 ?859次閱讀

    寒武紀與智象未來達成戰略合作并完成模型適配

    1月22日,寒武紀與智象未來 (HiDream.ai) 在北京簽訂戰略合作協議,雙方將通過資源共享、優勢互補,依托各自在大模型領域的技術積累,持續產品適配,攜手
    的頭像 發表于 01-23 13:46 ?280次閱讀
    寒武紀與智象未來達成戰略合作并<b class='flag-5'>完成</b>大<b class='flag-5'>模型</b><b class='flag-5'>適配</b>

    【飛騰派4G版免費試用】仙女姐姐的嵌入式實驗室之五~LLaMA.cpp及3B“小模型”OpenBuddy-StableLM-3B

    和語法規則,將這些詞匯串聯起來,形成一個完整的回答 關于LLaMALLaMA.cpp LLaMA全稱是Large Language Model Meta AI,是由Meta
    發表于 12-22 10:18

    派 Pro 開發板試用體驗】在派部署ChatGLM3(一)

    ChatGLM3是由智譜AI和清華大學KEG實驗室聯合發布的第三代大型語言模型,是基于GLM-130B的對話微調版本,國內首個全線對標OpenAI產品線,官網:https://chatglm.cn
    發表于 12-17 22:54

    派 Pro 開發板試用體驗】部署派官方YOLOV5模型

    、總結 得益于官方案例,開發者可以很方便的在智SoC硬件平臺上部署常見的深度學習算法模型,方便開發者快速評估和適配業務。
    發表于 12-12 22:58

    派 Pro 開發板試用體驗】智AX650N部署yolov8s 自定義模型

    智AX650N部署yolov8s 自定義模型 本博客將向你展示零基礎一步步的部署好自己的yolov8s模型(博主展示的是自己訓練的手
    發表于 11-24 20:40

    派 Pro 開發板試用體驗】+開箱初次體驗

    ) M4N-Dock開發板(已安裝好風扇、適配器接口) 產品基本介紹 ? ?M4N-Dock 是 Sipeed 公司推出的端側混合精度高算力邊緣計算盒子,搭載智第三代高能效比
    發表于 11-12 10:58

    英特爾一系列AI解決方案,為Llama 2大模型提供實力之選

    英特爾廣泛的AI硬件組合及開放的軟件環境,為Meta發布的Llama 2模型提供了極具競爭力的選擇,進一步助力大語言模型普及,
    的頭像 發表于 07-25 09:56 ?761次閱讀
    英特爾一系列<b class='flag-5'>AI</b>解決方案,為<b class='flag-5'>Llama</b> 2大<b class='flag-5'>模型</b>提供實力之選

    英特爾一系列AI解決方案,為Llama 2大模型提供實力之選

    英特爾廣泛的AI硬件組合及開放的軟件環境,為Meta發布的Llama 2模型提供了極具競爭力的選擇,進一步助力大語言模型普及,
    的頭像 發表于 07-24 19:31 ?401次閱讀
    英特爾一系列<b class='flag-5'>AI</b>解決方案,為<b class='flag-5'>Llama</b> 2大<b class='flag-5'>模型</b>提供實力之選

    英特爾通過軟硬件為LIama 2大模型提供加速,持續發力推動AI發展

    英特爾廣泛的AI硬件組合及開放的軟件環境,為Meta發布的Llama 2模型提供了極具競爭力的選擇,進一步助力大語言模型普及,
    的頭像 發表于 07-21 18:15 ?522次閱讀
    英特爾通過軟硬件為LIama 2大<b class='flag-5'>模型</b>提供加速,持續發力<b class='flag-5'>推動</b><b class='flag-5'>AI</b>發展

    RISC-V 跑大模型(三):LLaMA中文擴展

    這是RISC-V跑大模型系列的第三篇文章,前面我們為大家介紹了如何在RISC-V下運行LLaMA,本篇我們將會介紹如何為LLaMA提供中文支持。
    的頭像 發表于 07-17 17:15 ?526次閱讀
    RISC-V 跑大<b class='flag-5'>模型</b>(三):<b class='flag-5'>LLaMA</b>中文擴展

    RISC-V 跑大模型(二):LLaMA零基礎移植教程

    這是RISC-V跑大模型系列的第二篇文章,主要教大家如何將LLaMA移植到RISC-V環境里。
    的頭像 發表于 07-17 16:16 ?988次閱讀
    RISC-V 跑大<b class='flag-5'>模型</b>(二):<b class='flag-5'>LLaMA</b>零基礎移植教程

    RISC-V跑大模型(二):LLaMA零基礎移植教程

    這是RISC-V跑大模型系列的第二篇文章,主要教大家如何將LLaMA移植到RISC-V環境里。
    的頭像 發表于 07-10 10:10 ?769次閱讀
    RISC-V跑大<b class='flag-5'>模型</b>(二):<b class='flag-5'>LLaMA</b>零基礎移植教程

    摩爾線程率先完成對“悟道·天鷹”大模型的推理兼容適配

    )大模型的推理兼容適配,整個適配過程僅花費不到6小時時間,便實現與摩爾線程自研MUSAChat應用的無縫集成。此前,摩爾線程曾在ChatGLM發布后24小時內實現適配,并在數小時內
    的頭像 發表于 06-12 14:30 ?1213次閱讀
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>