<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

百度平地起“雷”,突然爆出的QPS數據意味著什么?

腦極體 ? 來源:腦極體 ? 作者:腦極體 ? 2023-04-24 09:16 ? 次閱讀

魯迅先生1923年在北師大發表了著名的演講《娜拉走后怎樣》,其中的提問與思考方式振聾發聵,直到今天也依舊有效。面對很多產業現象、技術趨勢,我們也不妨多問幾個“之后怎樣”。

比如說,自ChatGPT爆火之后,中國各個互聯網、科技公司競相推出了自己的大語言模型及相關應用。其實,關于中國能否有ChatGPT我們從未擔心過,而問題的關鍵在于“之后怎樣”。

層出不窮的大語言模型,讓人眼花繚亂。但如此多的大模型,差異化和競爭力從何而來?能否順利、低成本實現產業落地?能否有效支持模型的快速迭代?

發布大模型并不是終點,而是一場新長跑的起點。如果不能有效回答這些問題,那么大模型也最終會像其他技術風口一樣,倏忽而來,倏忽而去。

wKgaomRFKEaAAgTRAAHnJ5bHvJE167.jpg

慢慢地,“大模型之后怎樣”這個問題,也開始有了答案。4月23日,我們看到一份百度文心一言內部流出的會議紀要。其中顯示,從3月開始,文心一言啟動邀測后的一個多月內,其模型已經迭代了4次,最近一次帶來的推理效果提升了達到123%。

到底是什么支持文心一言完成了這種超越常規的迭代速度?

這個“秘密”或許正是中國大模型走向未來所需要的動力,也是“大模型之后怎樣”的某種答案。

內部會議紀要,透露出文心一言的奔跑速度

根據內部紀要內容顯示,文心一言在開啟邀測后用戶數與同時在線人數都極速增長,面臨這種情況,文心一言需要及時獲得更快的響應速度。我們知道,機器學習類模型的應用邏輯包含數據準備—模型訓練—模型推理幾個步驟。文心一言面臨的響應挑戰,就是需要及時強化模型的推理能力。

wKgZomRFKEeAYVpUAAEMHTVFrJ4910.jpg

為了實現這個目標,百度對文心一言進行了模型層與框架層的聯合優化,從而在一個月內迭代了4次,實現了模型推理能力的極大提升。

是什么讓文心一言獲得了這樣的奔跑速度?這就要提到百度飛槳“提前”做好的準備。作為深度學習開發平臺,飛槳可以支持AI模型從訓練到推理的全流程落地。其中,飛槳模型推理服務就可以有效支持大模型升級,這一服務在4月19日剛剛再次迭代,已迭代至3.5版本,它的特點是在業內首創了支持動態插入的分布式推理引擎,從而可以更有效完成龐大數據規模的AI模型進行推理部署。

至此我們可以從這份內部紀要中知道,文心一言能夠快速持續迭代,并且低成本落地應用的關鍵,就藏在這里——飛槳與文心一言聯合優化。

wKgaomRFKEiAIQspAAFfWi1jZBY802.jpg

從結果上看,聯合優化帶來的價值非常顯著。飛槳幫助文心一言實現了模型推理效率提升10倍,模型推理性能提升50%,模型算力利用率提升1倍。其中,模型推理效率提升10倍,意味著推理成本降低為原來1/10,或者可以為10倍數量的用戶提供服務;模型推理性能提升50%,意味著飛槳可以幫助文心一言工藝更精密,模型的學習效果與魯棒性更強;模型算力利用率提升1倍,是由于飛槳向下兼容到芯片,實現全棧聯合優化,從而可以極大降低文心一言的算力開銷。

從這幾個方向可以看出,飛槳為文心一言帶來的價值,是持續性且多方面的,其中最重要的是,飛槳讓文心一言可以持續性、低成本向前奔跑,不斷進化。

這也恰好解釋了這個問題:大模型,路在何方?

飛槳,讓大模型節奏飛起的AI引擎

在ChatGPT全球化爆火,各家廠商、投資人,都在不遺余力地擠上大模型賽道。這種情況當然可以理解,但也必須看到,這條賽道不僅門檻高、入局難,在入局之后構建持續競爭力同樣很難。

大模型意味著龐大的算力開支、數據開支,以及更為恐怖的模型迭代成本。入局大模型之后,必須根據用戶反饋快速迭代,高效率升級,否則一不小心就會掉隊,在第一輪風口過去后陷入行業洗牌,緊跟行業趨勢,不斷推動模型升級,又會面臨巨大的工作量與模型推理成本。

這個兩難選擇并不遙遠,很快就會成為困擾大量新玩家的頭疼問題。

而多年部署AI基礎設施與基礎技術的百度,其優勢就在這時顯示了出來。飛槳與文心一言的聯合優化,讓文心一言在訓練和推理過程中效率大幅提升,實現了真正的人家起跑,我已經幾輪加速,節奏快到飛起。

大模型與AI開發平臺,是相輔相成、互為表里的關系。比如有分析人士解讀認為,“大模型就仿佛汽車的發動機,光賬面上的動力強,參數大是沒有用的,要壓榨出發動機瞬時最大爆發力(QPS)以及最優的性能表現。深度學習框架就像是生產發動機和變速箱的,可以讓發動機整體部件組合更精密、動力更強。自研產品彼此適配度更高,協同會更高效,這可能是效率提升的最根本原因?!币劳酗L口入局大模型,終歸會有一種空中樓閣的隱憂,至少難以將全面的技術棧掌握在自己手中,實現更高效、可控的模型升級。

由此可見,大模型走向成功,除了算力、數據的基礎之外,深度學習框架同樣扮演著關鍵角色。面對紛繁而出的大模型,百度文心系列大模型的差異化優勢,也就在百度十年搭建的飛槳平臺中展露了出來。

而當我們把大模型與飛槳的聯動關系,放到科技自立自強的戰略高度來審視。又會發現一些別樣的答案:飛槳既是百度的AI護城河,也是中國大模型的動力引擎。

中國AI,勝負系于工程化

最近,我們能看到很多大語言模型的發布會,差不多每一家都會說,我們目前確實不如ChatGPT,以后繼續努力。

那么問題來了,怎么努力?

事實上,努力不是說說就行了,而是要找到方式和方法。ChatGPT代表的算法優勢、人才優勢、算力優勢都是短期很難抹平的,至少看不到可以快速超車的戰略空間。中國AI想要走通大模型這條路,就只能揚長避短,而中國AI的優勢在哪呢?從百度流出的內部會議紀要中其實已經告訴了我們答案:工程化。

通過飛槳長期堅持的AI工程化路徑的掌握與打磨,我們可以看到百度發展大模型的獨特優勢,同時也可以看到中國AI整體性的戰略機遇。

首先,對于百度內部來說,通過飛槳牢牢把控工程化能力,可以提升文心一言的迭代速度,降低算力、人工、數據等開銷,從而讓文心一言能夠在同等成本下服務的用戶更多,適配產品的效率更高。這就像同樣從一處名叫“大模型”的深海油井取得原油,飛槳就像一艘輪船,船速更快,運量還大,而其他人在用帆船運輸。效率意味著成本,成本意味著商業化可能性,這就是飛槳的價值,也是AI工程化能力的魅力。

從百度向外看,飛槳帶來的工程化能力,意味著文心系列大模型的推理成本更低,繼而導致其在各行業、各場景中的落地成本更低。這對于文心大模型融入行業,通過產業智能化產生價值是個重大利好。大模型走向千行百業,是今天每家公司都在喊的口號,但這個過程中,一定不能把模型落地成本全部轉嫁給行業用戶。消解這一成本的關鍵,也在于飛槳代表的工程化路徑。

wKgaomRFKEmAQy1MAAEv39zd6SM408.jpg

最后,當大模型已經上升為國家戰略,我們必須看到AI框架在科技自立自強進程中扮演的角色。如果事關國計民生,每天與無數國人進行問答的大模型,建立在其他國家的框架上,那么其危險系數可想而知。當大模型愈發重要,關注并持續解決深度學習框架卡脖子的隱憂就更加重要。

而從另一個角度看,AI框架與AI開發平臺代表的AI工程化能力,是中國AI技術最亮眼、最特殊的部分。這一部分下接芯片,上達應用,通向千行百業的AI開發需求,恰好是AI技術中的戰略要沖所在。中國AI能否揚長避短,實現超車,極大概率就系于工程化能力的建設與發揮,系于AI框架與產業智能化的連接中。

中國大模型,就是行業大模型,就是強工程化、強落地性的大模型,只有走通這條路,中國AI才有未來。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 百度
    +關注

    關注

    9

    文章

    2177

    瀏覽量

    88935
  • QPS
    QPS
    +關注

    關注

    0

    文章

    23

    瀏覽量

    8748
  • 深度學習
    +關注

    關注

    73

    文章

    5240

    瀏覽量

    119951
  • ChatGPT
    +關注

    關注

    27

    文章

    1413

    瀏覽量

    4836
  • 文心一言
    +關注

    關注

    0

    文章

    112

    瀏覽量

    876
  • 大模型
    +關注

    關注

    2

    文章

    1555

    瀏覽量

    1153
收藏 人收藏

    評論

    相關推薦

    #新開端、新起點,2024一加油#

    \"新開端、新起點,2024一加油\" 這句話充滿了積極向上的精神和對未來的期待。新開端和新起點意味著我們有機會摒棄過去的不足,以一個全新的姿態開始新的旅程。而\"
    發表于 02-26 21:01

    新品上市,公有云輕安防就選目凌云! #人工智能 #目 #目凌云 #百度智能云

    人工智能百度智能云
    jf_98614062
    發布于 :2024年02月19日 11:39:42

    ADM1191本身芯片電源為3.15到26V,是否意味著SENSE端只能測試接近這個范圍的電壓?

    范圍的電壓? 2、數據手冊的第13頁右方寫著對其12BIT寄存器寄存的電壓值的讀取,公式給出的Vfullscale=6.65Vor26.52V 是否意味著要達到fullscale必須要用這兩個電壓才
    發表于 01-09 06:15

    AD5420沒有CS引腳是否意味著不能和其他SPI接口的芯片共用SPI總線呢?

    請問一下,AD5420沒有CS引腳是否意味著不能和其他SPI接口的芯片共用SPI總線呢?如果必須共用SPI總線有沒有什么解決方案呢? 我的電路中將AD7715和AD5420同時連接到MCU的SPI
    發表于 12-15 07:25

    傾角傳感器在平地機中的應用

    電子發燒友網站提供《傾角傳感器在平地機中的應用.doc》資料免費下載
    發表于 11-01 09:57 ?0次下載
    傾角傳感器在<b class='flag-5'>平地</b>機中的應用

    大模型意味著人工智能的質變時刻已經到來!

    IBM 大中華區董事長、總經理陳旭東這樣說道:“ChatGPT 的橫空出世,證明了大語言模型是一條走得通、通往未來 AI 的道路,也意味著 AI 的發展經過幾十年的算法、算力、數據方面的量變積累,‘質變時刻’已經到來?!?/div>
    的頭像 發表于 09-15 16:23 ?351次閱讀

    采集攝像頭錄制視頻,如何保把時間和視頻數據保存起來?

    我想實現采集攝像頭數據,在屏幕上顯示視頻同時存儲在sd卡上。此功能已經完成,但是播該視頻時想要在畫面上顯示每一幀的時間,應該如何保把時間和視頻數據保存起來,這樣播放視頻時就帶有時間了。百度
    發表于 09-04 07:42

    鴻蒙升級3.0.0,百度航,系統中途會關閉我的定位

    然后百度顯示沒有定位了,就自動開啟智能導航。系統決定我的定位開關設置在哪里,我記得以前開定位是手動開關的。升級后,下拉菜單打開定位,百度導航開著一會系統定位就被關閉了。害得我跑錯了好多路?,F在就是我的百度導航根本沒法用
    發表于 09-03 23:34

    如何將ELA-500與Arm DS 1.0版一使用

    有限制,如它不支持突發事務,則可能會發生死鎖。 在完美世界中,系統的設計使整個物理內存映射完全填充。 完全填充的內存映射意味著對所有地址的所有內存事務正確地響應有效的事務結果或總線故障。 但是,對于
    發表于 08-12 07:25

    這是不是意味著PC能直接EtherCAT控制伺服

    plc工控
    學習電子知識
    發布于 :2023年07月26日 21:55:11

    RTC慢內存存儲是否消耗額外能量?

    我不確定 100% 理解 RTC 慢速內存如何與深度睡眠一工作。 簡而言之,我需要在當前(電池供電)項目中非常節能。 我想知道將數據存儲在 RTC 慢內存中是否意味著 SoC 必須以某種方式保持
    發表于 05-31 08:52

    耦合到底意味著什么

    是發消息方式。 消息方式是松耦合方式,比緊耦合的RPC方式要優越,但RPC方式如果用在適合的場景也有它的一席之地。 我們總在談耦合,那么耦合到底意味著什么呢? 耦合的種類: 時間耦合: 客戶端和服務端必須同時上線才能工作。發消息時,接受消息
    的頭像 發表于 05-29 09:48 ?563次閱讀
    耦合到底<b class='flag-5'>意味著</b>什么

    為什么將DALI與藍牙網狀網絡一使用?

    出功率。      DALI 的一個基本功能是相同的 – 向控制齒輪發送命令,例如 LED驅動器,從而為光源供電。除了DALI是數字的,這意味著它使用數字命令告訴驅動器所需的輸出電平。因此,在DALI的情況下,我們有一個將
    發表于 05-04 17:44

    Datasheet v1.2更新到v1.4意味著什么?

    38 BOD 靜態特性中: 問題:此表從 Datasheet v1.2 更新到 v1.4 意味著什么?這是否意味著不再支持小于 1.75V 的閾值電壓 (TRIGLVL)?
    發表于 05-04 07:07

    i.mx8mp是否意味著每個通道都可以支持768KHz/32位?

    在 i.mx8mp RM 文檔中,P5944,我對 SAI 容量有些懷疑。 這是否意味著每個通道或通道都可以支持 768KHz/32 位,或者 SAI2/SAI5 模塊總共可以支持 768KHz/32 位?
    發表于 05-04 07:04
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>