<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

通過Transformer架構賦能新一代邊緣AI應用

Arm社區 ? 來源:Arm社區 ? 2024-04-08 10:45 ? 次閱讀

人工智能 (AI) 和機器學習 (ML) 的加速發展既得益于基礎硬件的不斷改進,也離不開軟件領域的發展成果。

以 Transformer 架構為例。2017 年,谷歌在一篇研究論文中[1]首次提出這一架構,它采用自注意力機制 (self-attention),使模型能夠在進行預測時對不同的輸入詞元 (token) 賦予不同權重。利用自注意力機制,Transformer 模型能夠捕捉數據中的遠程依賴關系,因此在執行語言翻譯、圖像處理、文本生成和情感分析等任務時非常高效。例如,生成式預訓練模型 (GPT) 就是當前流行訓練有素的 Transformer 模型。這些模型已經在語音助手和 AI 圖像生成工具中得到應用。

這之于感知器 (perceptron) 還是存在很大的差別。感知器是早期的一種神經網絡,由單層人工神經元組成,可在模式識別任務(例如,識別手寫數字)中做出二元決策。相較于卷積神經網絡 (CNN),Transformer 架構已開始受到更多青睞。CNN 對數據架構方式會進行內置假設,它關注附近的關系,以及觀察圖像或視頻中的對象移動或變化方式。

而 Transformer 架構則不會做出這些假設。相反地,它利用自注意力來理解序列的不同部分如何相互關聯,而忽略其位置信息。得益于這種靈活性,基于 Transformer 的模型能夠更加輕松地適應不同的任務。

這是如何實現的?Transformer 架構及其采用的注意力機制徹底改變了 AI 應用的格局,因為注意力機制具備的相關功能可以為諸多用例提供支持。文本(及語言)本身就是編碼信息,圖像、音頻以及其他形式的串行數據同樣如此。由于編碼信息可以解讀為一種語言,因此 Transformer 模型可以廣泛應用于不同的用例中。這種適應性對于理解視頻、填充圖像的缺失部分或同時分析來自多個攝像頭的數據或多模態數據來源(參見下文示例)等任務非常有效。

2020 年問世的 Vision Transformer (ViT) 是將 Transformer 架構成功應用于圖像分類的最早一批神經網絡技術[2]之一。ViT 將圖像劃分為多個圖塊,并使用自注意力機制對這些圖塊之間的交互進行建模。

自此,Transformer 模型被迅速應用于各類視覺任務中,例如:

圖像分類

目標檢測

語義分割

圖像超分辨率

圖像生成

視頻分類

在硬件上優化模型

那么,硬件與這一切有什么關系呢?關系相當密切!而且硬件將是未來發展的關鍵因素。

GPU、TPU 或 NPU(甚至 CPU)都可以處理 Transformer 模型所需的密集矩陣運算和并行計算。同時,Transformer 架構可使更復雜的模型運行于資源更為受限的邊緣設備上。

主要有以下三個原因:

與 CNN 或循環神經網絡 (RNN) 相比,Transformer 架構從本質上而言更具可并行性。這一特性能更有效地利用硬件,從而可以在計算資源受限的邊緣設備上部署基于 Transformer 的模型。

自注意力機制意味著通過較小的 Transformer 模型所帶來的性能表現,可以媲美基于 CNN 或 RNN 的較大模型,從而降低邊緣部署的算力與內存需求。

模型壓縮技術(例如剪枝、量化、知識提煉和注意力稀疏)的提升可進一步縮小 Transformer 模型的大小,同時又不會造成性能或準確性的明顯下降。

Transformer 架構提升

現在,不妨想象一下功能更強大的計算資源,畢竟這一切并不遙遠。通過優化支持 Transformer 架構的硬件,創新者可充分發掘這些強大神經網絡的全部潛力,并為跨不同領域和模式的 AI 應用帶來全新的可能性。

例如,硬件性能和效率的提升可以:

加快 Transformer 模型的推理速度,從而提高響應能力,并改善用戶體驗。

部署更大的 Transformer 模型,從而在語言翻譯、文本生成和圖像處理等任務中獲得更佳表現。

提高在一系列應用和部署場景中的邊緣設備、云服務器或專用 AI 加速器中部署 Transformer 解決方案的可擴展性。

探索全新架構,并不斷優化 Transformer 模型。這其中包括嘗試不同的層配置、注意力機制和正則化技術,以進一步提高模型的性能和效率。

顯著提高能效,鑒于某些模型的規模增長,這一點至關重要。

試想一下,當你打開手機或智能眼鏡上[3]的某個視覺應用,它可以識別某個款式的襯衫,并從你的衣柜中推薦與之搭配的下半身穿著?;蛘哂捎谒懔μ嵘霈F的新的圖像生成功能[4]。

增加計算資源并不困難。集成子系統可提供經過驗證的各種處理單元塊,包括 CPU、NPU、互連、內存和其他組件。而軟件工具可以根據處理器來優化 Transformer 模型,以獲得性能和效率的最大化。

擁抱未來

通過硬件優化,Transformer 模型架構有望推動一些令人驚嘆的新應用。借助優化的硬件配置以及集成子系統、互連和軟件開發,無論是更快的推理速度,為更大的模型提供更好的性能,還是更出色的可擴展性等等,這一切都將成為可能。這條通往創新和探索的全新旅程,正在蓬勃發展,引領我們走向更遠的未來。



審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4590

    瀏覽量

    99202
  • 人工智能
    +關注

    關注

    1780

    文章

    44560

    瀏覽量

    231303
  • 機器學習
    +關注

    關注

    66

    文章

    8173

    瀏覽量

    130889
  • AI加速器
    +關注

    關注

    1

    文章

    66

    瀏覽量

    8567

原文標題:大咖觀點 | 通過 Transformer 架構賦能新一代邊緣 AI 應用

文章出處:【微信號:Arm社區,微信公眾號:Arm社區】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    步解讀英偉達 Blackwell 架構、NVlink及GB200 超級芯片

    2024年3月19日,[英偉達]CEO[黃仁勛]在GTC大會上公布了新一代AI芯片架構BLACKWELL,并推出基于該架構的超級芯片GB200,將助推數據處理、工程模擬、電子設計自動化
    發表于 05-13 17:16

    主流邊緣AI算法,在安防、零售、交通等領域的應用

    邊緣AI可以應用在哪些場景實現哪些功能。 ? 市面上主流的邊緣AI算法應用 ? 目前市面上比較主流的邊緣
    的頭像 發表于 05-13 01:56 ?2305次閱讀

    面向邊緣AI應用的全新RZ/V2H

    器人和家用電器;相比之下,云AI處理是在中央服務器群中進行的。? 瑞薩電子的RZ/V系列微處理器均采用多核技術,并針對本地機器視覺處理進行了優化。新的RZ/V2 H通過額外的處理器內核、更快的處理速度和更低的功耗大大提高了賭注,在Resnet 50(一種50層深度卷積神經
    的頭像 發表于 05-07 14:56 ?791次閱讀
    面向<b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>應用的全新RZ/V2H

    risc-v多核芯片在AI方面的應用

    在極低的能耗下實現高效的AI元器件的運行。這對于需要長時間運行和依賴電池供電的AI設備來說尤為重要。 其次,RISC-V的模塊化架構允許其不同部分以模塊化的方式串在起,從而滿足各種不
    發表于 04-28 09:20

    國科微:將持續優化邊緣AI戰略布局

    國科微近日在接受調研時透露,公司正積極推進搭載自研NPU架構的芯片研發,主要聚焦在邊緣側應用。公司表示,將持續優化邊緣AI戰略布局,加快AI
    的頭像 發表于 02-23 11:23 ?480次閱讀

    國產六核CPU,三屏異顯,新一代商顯

    處理器共同推出米爾MYC-YD9360核心板及開發板,新一代車載智能、電力智能、工業控制、新能源、機器智能等行業發展,滿足多屏的顯示需求。
    發表于 12-22 18:07

    TI 新一代明星CPU

    功耗,走紅了全球。 今天給大家分享的是 TI 新一代明星CPU——AM62x,它相比上一代AM335x在工藝、外設、性能等多方面都有很大提升。 這里結合米爾電子的“MYC-YM62X核心板及開發板”給
    發表于 12-15 18:59

    Transformer迎來強勁競爭者 新架構Mamba引爆AI圈!

    作為通用序列模型的骨干,Mamba 在語言、音頻和基因組學等多種模態中都達到了 SOTA 性能。在語言建模方面,無論是預訓練還是下游評估,他們的 Mamba-3B 模型都優于同等規模的 Transformer 模型,并能與兩倍于其規模的 Transformer 模型相媲美
    發表于 12-07 14:14 ?355次閱讀
    <b class='flag-5'>Transformer</b>迎來強勁競爭者 新<b class='flag-5'>架構</b>Mamba引爆<b class='flag-5'>AI</b>圈!

    算力強勁的AI邊緣計算盒子# 邊緣計算

    AI邊緣計算
    成都華江信息
    發布于 :2023年11月24日 16:31:06

    英碼科技精彩亮相火爆的IOTE 2023,多面AIoT產業發展!

    產品,包括覆蓋多層次算力的智能工作站(邊緣計算盒子)、AI加速卡等;同時向大家展示自研的AI技術服務——“深元”0碼移植工具鏈和創新性的行業解決方案,
    發表于 09-25 10:03

    STM32U599平衡圖顯性能與功耗的新一代產品

    STM32U599平衡圖顯性能與功耗的新一代產品,內容包含: STM32U5x9 的高性能與高階圖形加速器 、STM32U5的矢量圖形 、STM32U5x9 的低功耗設計 、LPBAM - sensor hub等。
    發表于 09-05 07:21

    邊緣計算ai技術是什么?

    邊緣計算ai技術是什么? 邊緣計算AI技術是指將人工智能技術應用于邊緣計算中的一種新興技術。邊緣
    的頭像 發表于 08-24 15:49 ?815次閱讀

    AI邊緣計算是什么意思?邊緣ai是什么?AI邊緣計算應用

    AI邊緣計算是什么意思?邊緣ai是什么?AI邊緣計算應用? 隨著人工智能技術的不斷發展,
    的頭像 發表于 08-24 15:18 ?1592次閱讀

    【書籍評測活動NO.18】 AI加速器架構設計與實現

    加速器架構設計與實現》 主要內容本書是本講解NPU硬件架構設計與技術實現的著作。作者將自己在CPU、GPU和NPU領域15年的軟硬件工作經驗融會貫通,將四NPU
    發表于 07-28 10:50

    RetNet架構Transformer架構對比分析

    微軟研究院最近提出了一個新的 LLM 自回歸基礎架構 Retentive Networks (RetNet)[1,4],該架構相對于 Transformer 架構的優勢是同時具備:訓練
    發表于 07-26 10:44 ?1001次閱讀
    RetNet<b class='flag-5'>架構</b>和<b class='flag-5'>Transformer</b><b class='flag-5'>架構</b>對比分析
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>