<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Ambarella展示了在其CV3-AD芯片上運行LLM的能力

Astroys ? 來源:Astroys ? 2023-11-28 09:05 ? 次閱讀

Ambarella前不久展示了在其CV3-AD芯片上運行LLM的能力。這款芯片是CV3系列中最強大的,專為自動駕駛設計。

CV3-AD一年前開始出樣,使用Ambarella現有的AI軟件堆棧,運行Llama2-13B模型時,可以實現每秒推理25個token。

Ambarella的CEO Fermi Wang表示:“當transformer在今年早些時候變得流行時,我們開始問自己,我們擁有一個強大的推理引擎,我們能做到嗎?我們進行了一些快速研究,發現我們確實可以。我們估計我們的性能可能接近Nvidia A100?!?

Ambarella工程師正在展示Llama2-13B在CV3-AD上的實時演示,CV3-AD是一款50W的自動駕駛芯片。

Ambarella芯片上的CVFlow引擎包括其NVP(Neural Vector Processor)和一個GVP(General Vector Processor),演示中的LLM正在NVP上運行。NVP采用數據流架構,Ambarella已將諸如卷積之類的高級運算符指令組合成圖表,描述數據如何通過處理器進行該運算符的處理。所有這些運算符之間的通信都使用片上內存完成。CV3系列使用LPDDR5(而非HBM),功耗約為50W。

268a3c3c-8d86-11ee-939d-92fbcf53809c.png

Ambarella的CTO Les Kohn表示,LLM演示確實需要一些新軟件。實現transformer架構核心操作的構建模塊,目前這些操作針對的是像Llama2這樣的模型。

他說:“隨著時間的推移,我們將擴展這些功能以覆蓋其它模型,但Llama2正在成為開源世界的事實標準。這絕對是一項不小的投資,但與從頭開始開發軟件相比,還差得遠?!?

Edge LLM發展路線圖?????

Wang表示:“現在我們知道我們擁有這項技術,我們可以解決一些實際問題。如果你與LLM的研發人員交談,問他們最頭疼的是什么,一個顯然是價格,另一個是功耗?!?

CV3-AD設計用于50W的功率范圍(包括整個芯片的功率,不僅僅是AI加速器)。因此,Wang希望Ambarella能夠以大約四分之一的功耗,為LLM提供與A100相似的性能。

他說:“這意味著對于固定的數據中心功率,我可以增加四倍的AI性能。這是巨大的價值。盡管這種想法很簡單,但我們相信我們可以為渴望使用LLM的任何人提供價值。在過去的六個月里,渴望使用LLM的人數迅速增加?!?

雖然超大規模計算中心可能是首批跟進LLM趨勢的,但Ambarella在安防攝像頭和汽車領域的現有客戶開始考慮如何在他們的邊緣系統中實施LLM,以及LLM將如何實施他們的發展路線圖。

Wang說:“我們相信LLM將成為我們需要在路線圖中為當前客戶提供的重要技術。當前的CV3可以運行LLM,而無需Ambarella進行太多額外的工程投資,所以這對我們來說并非分心之事。我們當前的市場在他們的路線圖中已經有了LLM?!? 多模態AI???? Kohn指出,在邊緣計算中,具有生成文本和圖像能力的大型多模態生成型AI潛力日益增大。

他說:“對于像機器人這樣的應用,transformer網絡已經可以用于計算機視覺處理,這比任何傳統計算機視覺模型都要強大,因為這種模型可以處理零樣本學習,這是小模型無法做到的?!?

零樣本學習指的是模型能夠推斷出在其訓練數據中未出現的對象類別的信息。這意味著模型可以以更強大的方式預測和處理邊緣情況,這在自動系統中尤其重要。

他補充說:“自動駕駛本質上是一種機器人應用:如果你看看L4/L5系統需要什么,很明顯你需要更強大、更通用的AI模型,這些模型能以更類似于人類的方式理解世界,超越我們今天的水平。我們將這看作是為各種邊緣應用獲取更強大的AI處理能力的一種方式?!?

LLM發展路線圖??

問及Ambarella是否會制造專門針對LLM的邊緣芯片時,Wang表示:“這可能是我們需要考慮的事情。我們需要一個具有更多AI性能的LLM路線圖。LLM本身需要大量的DRAM帶寬,這幾乎使得在芯片上集成其他功能變得不可能(因為其他功能也需要DRAM帶寬)?!?/p>

Wang說,盡管在某些人看來,一個大型信息娛樂芯片應該能夠同時處理其他工作負載和LLM,但目前這是不可能的。LLM所需的性能和帶寬或多或少地需要一個單獨的加速器。

Kohn補充說:“這取決于模型的大小。我們可能會看到目前使用的模型比較小的版本應用于像機器人學這樣的領域,因為它們不需要處理大型模型所做的所有通用事務。但與此同時,人們希望有更強大的性能。所以,我認為最終我們將看到未來更優化的解決方案,它們將被應用于不同的價格/性能點?!?/p>

在邊緣計算之外,CV3系列也有可能在數據中心中使用。Kohn說,CV3系列有多個PCIe接口,這在多芯片系統中可能很有用。他還補充說,該公司已經有一個可以利用的PCIe卡。

Wang表示:“對我們來說,真正的問題是,‘我們能否將當前產品和未來產品銷售到超大規模計算中心或基于云的解決方案中?’這是一個我們還沒有回答的問題,但我們已經確認了技術的可行性,并且我們有一些差異化。我們知道我們可以將這種產品銷售到邊緣設備和邊緣服務器。我們正在制定一個計劃,希望如果我們想要進入基于云的解決方案,我們可以證明進一步投資是合理的?!?/p>







審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 處理器
    +關注

    關注

    68

    文章

    18538

    瀏覽量

    223728
  • 機器人
    +關注

    關注

    206

    文章

    27273

    瀏覽量

    202009
  • LPDDR5
    +關注

    關注

    2

    文章

    87

    瀏覽量

    11818
  • 自動駕駛芯片

    關注

    3

    文章

    47

    瀏覽量

    5043
  • LLM
    LLM
    +關注

    關注

    0

    文章

    217

    瀏覽量

    246

原文標題:Ambarella展示在自動駕駛芯片上的LLM推理能力

文章出處:【微信號:Astroys,微信公眾號:Astroys】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    解鎖LLM新高度—OpenVINO? 2024.1賦能生成式AI高效運行

    LLM 的發展仍保持著驚人的速度。盡管現有的 LLM 已經具備強大的功能,但通過 OpenVINO? 的優化和推理加速,可以對這些復雜模型的執行進行精煉,實現更快、更高效的處理,減少計算開銷并最大限度發揮硬件潛力,這將直接導致 LLM
    的頭像 發表于 05-10 10:36 ?219次閱讀

    安霸發布5nm制程的CV75S系列芯片,進一步拓寬AI SoC產品路線圖

    安防展(ISC West)期間發布 5nm 制程的 CV75S 系列芯片,進一步拓寬其 AI SoC 產品路線圖。
    的頭像 發表于 04-09 10:26 ?644次閱讀

    100%在樹莓派上執行的LLM項目

    ChatGPT的人性口語化回復相信許多人已體驗過,也因此掀起一波大型語言模型(Large Language Model, LLM)熱潮,LLM即ChatGPT背后的主運作技術,但LLM運作需要龐大運算力,因此目前多是在云端(Cl
    的頭像 發表于 02-29 16:29 ?805次閱讀
    100%在樹莓派上執行的<b class='flag-5'>LLM</b>項目

    CV3域控芯片家族又添兩員!各檔規格完整覆蓋,軟件功能全面兼容

    CV3-AD635 和 CV3-AD655 還集成了一對雙核 Cortex R52 CPU。這些 SoC 符合芯片ASIL-B 功能安全標準,其功能安全島符合 ASIL-D標準。此外,兩款芯片
    的頭像 發表于 01-11 16:44 ?588次閱讀
    <b class='flag-5'>CV</b>3域控<b class='flag-5'>芯片</b>家族又添兩員!各檔規格完整覆蓋,軟件功能全面兼容

    安霸發布N1系列生成式AI芯片支持前端設備運行本地LLM應用

    單顆 SoC 支持 1 至 340 億參數的多模態大模型(Multi-Modal LLM)推理,實現前端低功耗生成式 AI。
    的頭像 發表于 01-09 15:19 ?684次閱讀

    安霸CV3-AD685 AI域控芯片助力Kodiak開發下一代自動駕駛卡車

    安霸的 CV3-AD685 AI 域控芯片來開發其新一代自動駕駛卡車使用的嵌入式計算解決方案。通過該芯片,Kodiak 的域控制器支持多個攝像頭、激光雷達和毫米波雷達的同時輸入,并通過 CVflow
    的頭像 發表于 01-03 10:08 ?776次閱讀

    TensorRT-LLM初探(一)運行llama

    TensorRT-LLM正式出來有半個月了,一直沒有時間玩,周末趁著有時間跑一下。
    的頭像 發表于 11-16 17:39 ?878次閱讀
    TensorRT-<b class='flag-5'>LLM</b>初探(一)<b class='flag-5'>運行</b>llama

    淺析tensorrt-llm搭建運行環境以及庫

    之前玩內測版的時候就需要cuda-12.x,正式出來仍是需要cuda-12.x,主要是因為tensorr-llm中依賴的CUBIN(二進制代碼)是基于cuda12.x編譯生成的,想要跑只能更新驅動。
    的頭像 發表于 11-13 14:42 ?1993次閱讀
    淺析tensorrt-<b class='flag-5'>llm</b>搭建<b class='flag-5'>運行</b>環境以及庫

    AT32工程在M3內核芯片運行使用注意事項

    AT32 工程在 M3 內核芯片運行進入硬件錯誤處理函數(HardFault_Handler)?
    發表于 10-20 06:48

    對比解碼在LLM上的應用

    為了改進LLM的推理能力,University of California聯合Meta AI實驗室提出將Contrastive Decoding應用于多種任務的LLM方法。實驗表明,所提方法能有效改進
    發表于 09-21 11:37 ?414次閱讀
    對比解碼在<b class='flag-5'>LLM</b>上的應用

    如何將host的bgr planar cv::Mat變成host的BGR packed cv::Mat?

    如何將host的bgr planar cv::Mat變成host的BGR packed cv::Mat?
    發表于 09-19 07:33

    LLM的長度外推淺談

    蘇神最早提出的擴展LLM的context方法,基于bayes啟發得到的公式
    的頭像 發表于 07-28 17:37 ?1641次閱讀
    <b class='flag-5'>LLM</b>的長度外推淺談

    基于算能CV1800B芯片的Milk-V Duo開發板

    Milk-V Duo是一款基于算能 CV1800B芯片的MPU,可在其運行LINUX操作系統。
    的頭像 發表于 07-01 15:59 ?5151次閱讀
    基于算能<b class='flag-5'>CV</b>1800B<b class='flag-5'>芯片</b>的Milk-V Duo開發板

    基于Transformer的大型語言模型(LLM)的內部機制

    工作原理變得越來越重要。更好地理解這些模型是如何做出決策的,這對改進模型和減輕其故障(如幻覺或推理錯誤)至關重要。 眾所周知,最近 LLM 成功的一個重要因素是它們能夠從上下文中學習和推理。LLM 對這些上下文的學習能力通常歸功
    的頭像 發表于 06-25 15:08 ?1114次閱讀
    基于Transformer的大型語言模型(<b class='flag-5'>LLM</b>)的內部機制

    基準數據集(CORR2CAUSE)如何測試大語言模型(LLM)的純因果推理能力

    )的純因果推理能力。其中CORR2CAUSE對LLM來說是一項具有挑戰性的任務,有助于指導未來關于提高LLM純粹推理能力和可推廣性的研究。 簡介 因果推理 因果推理是推理的一個基本方面
    的頭像 發表于 06-20 15:39 ?1414次閱讀
    基準數據集(CORR2CAUSE)如何測試大語言模型(<b class='flag-5'>LLM</b>)的純因果推理<b class='flag-5'>能力</b>
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>