<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

我們可以使用transformer來干什么?

深度學習自然語言處理 ? 來源:AI部落聯盟 ? 作者:AI部落聯盟 ? 2021-04-22 10:49 ? 次閱讀

前言

2021年4月,距離論文“Attention is all you need”問市過去快4年了。這篇論文的引用量正在沖擊2萬大關。

筆者所在的多個學習交流群也經常有不少同學在討論:transformer是什么?transformer能干啥?為什么要用transformer?transformer能替代cnn嗎?怎么讓transformer運行快一點?以及各種個樣的transformer技術細節問題。

解讀以上所有問題不再本文范疇內,但筆者也將在后續文章中繼續探索以上問題。本文重點關注:我們用transformer干啥?

我們用transformer干啥?筆者突然發現這句話有兩種理解(orz中文博大精深),希望我的語文不是體育老師教的。

疑問句:

我們使用transformer在做什么?

解決什么深度學習任務?

反問句:

我們用用transformer干啥?

為啥不用LSTM和CNN或者其他神經網絡呢?

疑問句:用transformer干啥?

谷歌學術看一眼。

為了簡潔+有理有據回答這個問題(有缺失之處忘大家指出),筆者首先在谷歌學術上搜尋了一下“Attention is all you need”看了一下被引,到底是哪些文章在引用transformer呢?

“Attention is all you need”被引:19616次。

先看一下前幾名引用的被引:

最高引用的“Bert:Pre-training of deep bidirectional transformers for language understanding“被引:17677次。BERT在做自然語言處理領域的語言模型。

第2和4名:“Squeeze and Excitaion Networks”被引用6436次,“Non-local neural networks”。計算機視覺領域,但還沒有直接用transformer。

第3名:“Graph attention networks”被引用3413,一種圖神經網絡,該文也不是直接使用transformer的,但使用了attention。

第5和6名:“Xlnet:Generalized autoregressive pretraining for language undersstanding“ 2318次和 ”Improving language understanding by generative pretraining“ 1876次。自然語言處理領域預訓練/語言模型/生成模型。

第7名“self-attention generative adversarial networks” 1508次?;趕elf-attetnion的生成對抗網絡。

第8、9、10都屬于自然語言處理領域,一個是GLUE數據集,一個做multi-task learning。

從Top的引用已經看出自然語言處理領域肯定是使用transformer的大頭了。隨后筆者對熟悉的深度學習任務關鍵詞搜了一下被引用:

計算機視覺領域vision前2的被引用:“Vibert”和“Stand-alone self-attetnion in vision model”分別為385和171次。

語音信號處理領域speech:“state-of-the-art speech recognition with sequence-to-sequence model” 被引710次。

多模態任務modal:“Unicoder-Vl:

A universal encoder for vision and language by cross-model pre-training。

檢索領域etrieval:“multilingual universal sentence encoder for semantic retrieval”被引73次

推薦領域recommendation:驚訝的我發現居然只有10篇文章orz。

初步結論:transformer在自然語言處理任務中大火,隨后是語音信號領域和計算機視覺領域,然后信息檢索領域也有所啟航,推薦領域文章不多似乎剛剛起步。

執著的筆者擴大搜索范圍直接谷歌搜索了一下,找到了這篇文章BERT4Rec(被引用128):”BERT4Rec: Sequential Recommendation with Bidirectional Encoder Representations from Transformer“。

Github上搜一搜。

排名第1的是HuggingFace/transformers代碼庫。筆者對這個庫還算熟悉,但最近瘋狂新增的模型缺失還沒有完全跟進過,于是也整理看了一下。

7d5ac588-a295-11eb-aece-12bb97331649.png

圖1 HuggingFace/transformers代碼庫關系圖

如圖1所示,左邊展示了Huggingface/transformers代碼庫能處理的各種深度學習任務,中間展示的是處理這些任務的統一流水線(pipeline),右邊展示的是與任務對應的transformers模型名稱,下方表示用transformers解決這些深度學習任務可以在cpu或者gpu上進行,可以使用tensorflow也可以使用pytorch框架。

那么根據谷歌和github結果基本可以得到這個核心結論啦:transformer能干啥?目前已有的transformer開源代碼和模型里自然語言處理任務占大頭(幾乎覆蓋了所有自然語言處理任務),隨后是計算機視覺和語音信號處理,最后自然而然進行多模態信號處理啦,推薦系統中的序列建模也逐步開始應用transformer啦。

有一點值得注意:自然語言處理里,所有研究同學的詞表庫基本統一,所有谷歌/facebook在大規模語料上預訓練的transformer模型大家都可以使用。推薦系統不像自然語言處理,各家對user ID,Item ID或者物品類別ID的定義是不一樣的,所以各家的pretrain的模型基本也沒法分享給其他家使用(哈哈哈商業估計也不讓分享),也或許也是為什么transformer的開源推薦系統較少的原因之一吧,但不代表各大廠/研究機構用的少哦。

反問句:用transformer干啥?

為什么非要使用transformer呢?

筆者從一個散修(哈哈修仙界對修煉者的一種稱呼)的角度聊一聊自己的看法。

不得不用。

首先谷歌/Facebook一眾大廠做出來了基于transformer的BERT/roberta/T5等,刷新了各種任務的SOTA,還開源了模型和代碼。

注意各種任務啊,啊這,咱們做論文一般都得在幾個數據集上驗證自己的方法是否有效,人家都SOTA了,咱得引,得復現呀,再說,站在巨人的肩上創下新SOTA也是香的。

的確好用。

Transformer是基于self-attetion的,self-attention的確有著cnn和lstm都沒有的優勢:

比如比cnn看得更寬更遠,比lstm訓練更快。

重復累加多層multi-head self-attetion還在被不短證明著其強大的表達能力!

改了繼續用。

如果不說transformer的各種優點,說一個大缺點自然就是:

參數量大、耗時耗機器。

但這些問題又被一眾efficient transformers再不斷被解決。

比如本來整型數運算的硬件開發板無法使用transformers,隨后就有INT-BERT說我們不僅可以用,還能更快更好。

上手就用。

以Huggingface/Transformers為例子,一個代碼庫包含多種深度學習任務,多個開源的transfromer模型,各種預訓練transformer模型,以至于各種深度學習任務上手就來,十分方便。

筆者似乎并沒有看到其他模型結構有如此大的應用范圍和規模了。

未來還要用。

從上一章節可以看出,transformer這股風已經從自然語言處理領域吹出去了,其他領域的SOTA也在不斷被transformer打破,那么以為這,自然語言處理領域的歷史逐漸在其他領域復現(當然只是筆者個人觀點哈)。

原文標題:我們用transformer干啥?

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • Transforme
    +關注

    關注

    0

    文章

    12

    瀏覽量

    8760
  • 深度學習
    +關注

    關注

    73

    文章

    5257

    瀏覽量

    120083

原文標題:我們用transformer干啥?

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    請問CUBE中SPI配置的CRC Polynomial多項式是干什么用的?

    初學STM32,用原子的板子在學,現在學到SPI,配置的時候看到這個東西,請問是干什么用的?和傳統庫中哪個匹配的? 而且這個配置沒有選項,貌似全是自己輸入的。
    發表于 05-07 06:41

    美國云服務器是干什么

    美國云服務器主要用于提供計算資源、托管網站、應用程序以及存儲數據等。很多用戶想要了解美國云服務器具體是干什么的,rak部落小編為您整理發布美國云服務器是干什么的。 美國云服務器是一種
    的頭像 發表于 04-10 10:16 ?180次閱讀

    請問CYUSB3014芯片的OTG_ID引腳是干什么用的?

    USB3014芯片的OTG_ID引腳是干什么用的??用電阻下拉接地可以嗎? 電阻的大小有要求嗎?
    發表于 02-29 08:21

    美國云服務器是干什么

    對于美國服務器是干什么的,相信很多小白用戶不是非常了解,接下來小編就為您整理發布美國云服務器是干什么的相關資訊,希望對您有幫助。
    的頭像 發表于 02-19 09:53 ?241次閱讀

    云服務器是干什么

     云服務器是干什么的?很多小白用戶會有疑惑,今天小編為您整理云服務器是干什么的相關資料,希望對您了解云服務器是干什么的有幫助。
    的頭像 發表于 02-18 09:58 ?974次閱讀

    法拉電容是干什么用的?

    法拉電容是干什么用的? 法拉電容是一種用于儲存和釋放電荷的電子元件。它是電容器的一種,與傳統的微型電容器相比,法拉電容能夠儲存更多的電能,并且能夠更快速地釋放電能。它的容量單位是法拉(F)。在本文
    的頭像 發表于 02-02 10:51 ?1126次閱讀

    晶振是干什么用的?晶振的作用和原理 晶振是怎么制成的?

    晶振是干什么用的?晶振的作用和原理 晶振是怎么制成的? 晶振的作用和原理: 晶振(Crystal Oscillator)是一種用于產生穩定和精確的電信號的電子元件。它通過利用某些物質的特殊結構
    的頭像 發表于 12-15 11:48 ?880次閱讀

    既然有電阻分壓,還需要這個5伏的電壓去干什么?

    許多同學會有這樣的學問,這主要是因為剛學習理論,實踐經驗不足造成的。關鍵是我們需要這個5伏的電壓去干什么?
    的頭像 發表于 11-02 15:51 ?622次閱讀
    既然有電阻分壓,還需要這個5伏的電壓去<b class='flag-5'>干什么</b>?

    什么是阻焊,阻焊的目的是干什么

    什么是阻焊,阻焊的目的是干什么
    的頭像 發表于 08-28 07:45 ?3909次閱讀

    新唐的BSP包是用來干什么用的?

    新唐的BSP包是用來干什么用的?小白一個。。。畢設要做NANO120的HID協議
    發表于 08-25 07:02

    微歐計干什么用的?微歐計如何使用?微歐計測量范圍是多少?

    微歐計干什么用的?微歐計如何使用?微歐計測量范圍是多少?? 微歐計是一種測量電阻的儀器,可以用于測量電子設備中的電路元件的電阻值。微歐計是一種精度非常高的儀器,可以準確地測量電路中微小的電阻值,比如
    的頭像 發表于 08-24 14:48 ?1986次閱讀

    光伏逆變器是干什么用的?

    光伏逆變器是干什么用的? 光伏逆變器是太陽能電池組件產生的直流電轉換為可用于家庭或商業用途的交流電的關鍵裝置。這種關鍵的電氣設備已經成為全球光伏市場上最重要的芯片。光伏逆變器在光伏電池組件之后是整個
    的頭像 發表于 08-22 17:22 ?2022次閱讀

    人工智能技術應用是干什么

    人工智能技術應用是干什么的 隨著科技的發展,人工智能技術應用已經逐漸滲透到我們的生活中,大大方便了人們的生活和工作。從互聯網搜索引擎到自動化機器人,從智能家居到自動駕駛汽車,人工智能技術已經成為
    的頭像 發表于 08-17 11:46 ?962次閱讀

    人工智能能干什么

    人工智能能干什么 隨著人工智能的發展,它能夠在很多領域發揮作用,從自動化生產到智能醫療,從量化投資到自然語言處理,從智能家居到自動駕駛等等,人工智能給我們的生活和工作帶來了很多便利和創新。接下來
    的頭像 發表于 08-12 16:45 ?4492次閱讀

    N76E003能干什么?

    價格低,功能強大,包括8-16位定時器、喚醒定時器、看門狗、串口、SPI、IIC、12位ADC,還有個6路PWM,內嵌18kflash和1kram。大家發表一下意見,都用來干什么
    發表于 06-14 08:12
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>