<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

大模型真的會“好事多?!眴??

腦極體 ? 來源:腦極體 ? 作者:腦極體 ? 2023-08-01 19:19 ? 次閱讀

自從2018年谷歌發布BERT之后

到ChatGPT在火爆全球

大模型的超強能力以及背后的吸金屬性

吸引著無數廠商對其趨之若鶩

紛紛投入到煉大模型的熱潮中去

這大模型不僅是越來越大

模態還越“堆”越多

多模態大模型到底是個啥?

講到這里,我們先來說說

多模態大模型中的

這個“多模態”到底是個啥

多模態的概念源于德國生理學家

赫爾姆霍茨提出的“感覺道”

加被稱為“感覺通道”

主要探討了人類在感知和認知過程中

多種感官的相互作用和協同工作

如視覺、聽覺、觸覺、味覺和嗅覺等

人工智能領域

多模態意味著算法可以處理不止一個模態的數據

可以在文本、圖像、音頻

多種類型的數據中理解、轉譯、生成

有效提高大模型處理多種信息

準確性和魯棒性

比如多模態大模型

理解文字和圖片兩種模態的數據

就能以文生圖,讓畫手直面職業危機

理解音頻、視頻、圖片多種形態的數據

在生成工業質檢模型時

就能實現視頻分析、圖片分析

甚至音頻分析等多樣化的選擇

自從OpenAI發布多模態大模型GPT-4后

全球各大廠商便又開始朝著“好事多?!边M發

這模態越“堆”越多

前一段時間還出現了

六模態大模型和全模態大模型……

“堆模態”是喜還是憂?

看著大家爭相發布多模態大模型

突然就有一個問題:

大模型的模態越多就真的越好嗎?

答案卻是……不一定。

舉個例子,如果你要建造一棟房子

你會選擇使用多少種不同的材料呢?

顯然,選擇過多的材料會導致

建筑成本增加、建設時間、精力增加等問題

而多模態大模型的模態過多

也會導致一些問題的出現,比如:

1.多模態不等于湊模態

如今廠商們都在爭先恐后的發布

自家的多模態大模型

其中當然有許多精品

但也不乏粗制濫造的水貨

比如在自然語言處理中

增加一個文字轉換語音的功能

就生成自己家練出了多模態

2.多模態=高成本

算力資源是各大公司進入煉大模型的入場券

數據更熟訓練大模型的關鍵

模態越多大模型

訓練所需要的算力就越多

數據量也就越豐富

如果公司一味要求模態的豐富

最終很可能導致大模型模態多而不精

反而得不償失

3.多模態不等于好落地

上文也提到了

多模態大模型在處理復雜的應用場景時

可能更加有效

然而不同的應用場景對模態的需求是不同的

例如,在自然語言處理領域

對于一些特定任務

如情感分析或文本分類

使用單一的文本模態可能已經足夠

而不需要額外的圖像或音頻模態

“貪多嚼不爛”這句俗語

如今也可以用在煉大模型上

廠家們在決定“堆模態”前

不妨先考慮一下

落地場景、數據質量、算力資源等綜合因素

適當選擇模型結構

切記模型雖好,但不能貪多哦!

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 大模型
    +關注

    關注

    2

    文章

    1651

    瀏覽量

    1252
收藏 人收藏

    評論

    相關推薦

    大語言模型:原理與工程時間+小白初識大語言模型

    //型 sunword粒度: 中文->我/賊/喜/歡/看/大/語/言//型 English->let/\'/s/go/to/li/##b 這里有個專有名詞OOV:模型無法
    發表于 05-12 23:57

    【大語言模型:原理與工程實踐】大語言模型的應用

    和微調的積累,無需額外知識。然而,大模型所掌握的世界知識具有時效性,對于訓練后發生的事件或訓練集中未涵蓋的知識,大語言模型往往無法應對。當面臨未知問題時,大語言模型可能產生虛假的答案
    發表于 05-07 17:21

    **電和數電的區別和聯系,你真的懂嗎?**

    電和數電的區別和聯系,你真的懂嗎? 數電:我比你更能抗干擾。電:我比你的精度高。數電:我可以實現各種算法。電:我可以實現無線通訊。數電:沒有我,電子行業還得倒退幾十年呢。
    發表于 03-01 08:43

    #夸克全新升級 ,大模型到底能有實用?

    手機模型
    腦極體
    發布于 :2024年01月19日 23:58:30

    Saber中如何更好地提高仿真的收斂性(一)

    在仿真過程中,由于仿真模型的不連續性,或者模型沒有適當地表征/參數化,或者當求解器無法求解控制模型行為的方程時,可能就會出現仿真的收斂問題。
    的頭像 發表于 12-05 14:43 ?716次閱讀
    Saber中如何更好地提高仿<b class='flag-5'>真的</b>收斂性(一)

    請問AD9124內部的PGA架構是否自動偏移共電壓offset在AVDD-AVSS / 2?

    請問AD9124內部的PGA架構,是否自動偏移共電壓offset在AVDD-AVSS / 2? 還是設計上得放一顆OPA做Offset調整?
    發表于 12-05 08:22

    ADAU1772官網上沒有Spice模型的情況下,設計電路時大家都是如何進行電路仿真的呢?

    請教一下ADAU1772官網上沒有Spice模型的情況下,設計電路時大家都是如何進行電路仿真的呢?是直接按照datasheet上的電路進行外圍電路的連接就可以嗎?
    發表于 11-29 06:44

    從HumanEval到CoderEval: 你的代碼生成模型真的work嗎?

    本文主要介紹了一個名為CoderEval的代碼生成大模型評估基準,并對三個代碼生成模型(CodeGen、PanGu-Coder和ChatGPT)在該基準上的表現進行了評估和比較。研究人員從真實的開源
    的頭像 發表于 11-25 15:55 ?881次閱讀
    從HumanEval到CoderEval: 你的代碼生成<b class='flag-5'>模型</b><b class='flag-5'>真的</b>work嗎?

    儀表放大器AD620的共輸入范圍超過電源電壓影響共模抑制比嗎?

    儀表放大器AD620的共輸入范圍超過電源電壓,影響共模抑制比嗎?比如AD620采用正負5V電源供電,放大倍數為10倍,測試時共輸入范圍為7.07V / 100Hz,影響共模抑制
    發表于 11-15 06:49

    LTspice自帶的ADA4895模型和ADA4895.cir模型存在差異,具體以哪個為準?

    圖與最后一張(與TI pspice仿真的結果相近Vrms=1.74mV),同時也發現ADA4895.cir模型( 1nV/sqrt(Hz)和1.6pA/sqrt(Hz) )比 THS3001
    發表于 11-14 07:46

    使用rk3588npu推理模型,模型總推理時間還增加了,這怎么解釋

    使用rk3588npu推理模型,模型總推理時間還增加了,這怎么解釋
    發表于 11-05 18:22

    OpenHarmony應用模型的構成要素與Stage優勢

    遷移和多端協同 Stage模型實現了應用組件與UI解耦: 在跨端遷移場景下,系統在設備的應用組件之間遷移數據/狀態后,UI便可利用ArkUI的聲明式特點,通過應用組件中保存的數據/狀態恢復用戶界面
    發表于 09-26 16:48

    iTOP-RK3588開發板更新RKNN模型

    RKNN 是 Rockchip NPU 平臺(也就是開發板)使用的模型類型,是以.rknn 結尾的模型文件。 RKNN SDK 提 供 的 demo 程 序 中 默 認 自 帶 了 RKNN
    發表于 09-21 11:39

    求助,為什么將不同的權重應用于模型影響推理性能?

    生成兩個 IR文件(相同的 .xml 文件,但不同的 .bin 文件) 具有不同重量的類似模型,以不同的 fps (27fps 和 6fps) 運行 更多樣化的權重是否影響 Myriad X 上的推理性能?
    發表于 08-15 07:00

    基于GaN電源集成電路的300W圖騰柱PFC

    采用GaN電源集成電路的300W圖騰柱PFC
    發表于 06-19 08:56
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>