<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

單日獲客成本超20萬,國產大模型開卷200萬字以上的長文本處理

E4Life ? 來源:電子發燒友 ? 作者:周凱揚 ? 2024-03-27 00:53 ? 次閱讀

電子發燒友網報道(文/周凱揚)隨著AGI生態的蓬勃發展,各種支持多模態的大模型推陳出新,比如最近比較火的音樂大模型Suno和文生視頻大模型Sora等等。然而在傳統基于文本的大語言模型上,除了追求更快更精準的推理和高并發流量以外,似乎已經沒有太多值得廠商大肆宣傳的特性了,直到最近超長文本處理的爆火。

國產大模型的新卷法,長文本處理

當下將大模型長文本處理炒熱的,無疑是來自月之暗面的Kimi。作為去年發布的大模型,Kimi的主要賣點就是長文本,當時發布的初版Kimi,就已經支持到最多20萬漢字的輸入處理。

然而僅僅20萬字的文本處理,還不至于給用戶帶來質變的交互體驗,畢竟GPT-4 Turbo-128k已經支持到約合10萬漢字的長文本處理,谷歌的Gemini pro也支持到最多70萬個單詞的上下文,但不少長篇小說、專業書籍的字數要遠超這一數字。

wKgZomYCneCAMb8qAAM8v3nPbSs784.jpg
Kimi支持200萬字上下文 / 月之暗面

Kimi在最近爆火源于一項重大迭代升級,月之暗面將長文本處理的字數限制擴展到200萬字,遠超Claude3、GPT-4 Turbo和Gemini Pro模型。在新功能推出和有效推廣下,Kimi很快涌入了一大批用戶,其app甚至短暫地沖進了蘋果App Store前五的位置。然而這樣也對Kimi的運營造成了不小的壓力,Kimi在上周經歷了多次宕機,這還是在月之暗面對服務器連續擴容的前提下。

面對競爭對手Kimi的用戶量激增,阿里巴巴和360很快就坐不住了。3月22日,阿里巴巴宣布通義千問將向所有用戶免費開放1000萬字的長文檔處理功能;3月23日,360智腦宣布正式內測500萬字長文本處理功能,且該功能即將入駐360 AI瀏覽器。

除了阿里巴巴和360外,目前國內訪問量第一的百度文心一言據傳也會在下月開放長文本處理功能,并計劃把字數上限提高至200萬甚至500萬字。

超長文本實現的技術難點和商業桎梏

盡管在用戶看來,阿里巴巴、360等廠商宣布支持超長文本處理好像是一件無需多少時間的易事,但實際上超長文本處理的實現存在不少技術痛點和商業成本問題。要知道在2022年,絕大多數的LLM上下文長度最多也只有2K,比如GPT-3。

直到GPT-4和Claude 2等,這些大模型才從架構上對文本長度進行了優化,可即便如此,主流的文本輸入長度依然不會超過100K。這也是因為對部分大模型而言,長文本不一定代表著更好的使用體驗,尤其是在查全率和準確率上。

wKgaomYCne6ABP4QAADkljohAv4132.png
Claude的上下文長度和召回率關聯圖 / Anthropic


以Anthropic給出的數據為例,從上圖可以看出,隨著文本長度的增加,召回率是在逐步降低的,即便是最新的Claude3也是如此,而召回率代表了檢索出相關信息量占總量的比率。至于精確度,則與上下文中的事實位置存在很大的關系,如果用戶問題的事實存在于文本開頭或后半部分的位置,那么更容易得到精確的結果,而位于10%到50%之間位置的文本,則精確度急劇下降。

除此之外,長文本對于GPU和內存的資源消耗太大了,即便是小規模地擴展文本長度,動輒也要消耗100塊以上的GPU或TPU,這里指代的GPU還是A100這種單卡顯存容量高達40GB或80GB的設備。

這也是Kimi在經歷大量用戶訪問后,需要緊急擴容的原因。而阿里巴巴之所以能這么快開放長文本能力,也是憑借著手握龐大的服務器資源。至于Anthropic,我們從Claude3 Opus高昂的Tokens價格,也可以猜到其硬件成本絕對不低。

另外,在持續火爆一年之后,目前的大模型應用也難以單純靠技術立足市場吸引用戶了,商業推廣也已經成了必行之路。就以Kimi為例,在社交媒體上有關該應用的推廣可謂鋪天蓋地,很明顯對于新興的大模型應用而言,收獲第一批用戶才是至關重要的。

據傳Kimi在廣告投放上,吸引每位新用戶的花費在10元左右,而新用戶參與到使用中帶來的額外算力開銷在12元至13元左右。如果單單只是根據手機平臺app的下載量計算,那么Kimi的每日獲客成本至少為20萬人民幣,而這還未計算來自網頁端和小程序端的用戶。

wKgZomYCnf2AOjdbAADS5hsoY5M413.png
AI產品國內總榜 / AI產品榜


而且Kimi的推廣也不是從200萬長文本功能的推出才開始的,早在二月份Kimi就開始以長文本這一特性加強商業推廣了。從AI產品榜中可以看出,Kimi在2月的訪問量飆升,在國內總榜中僅次于百度文心一言和阿里通義千問,足見其在商業推廣和產品運營上都下了血本。但相對ChatGPT和New Bing之類的應用而言,其訪問量還是存在很大的差距。

這也充分說明了為何國外的大模型應用沒有去卷200K以上文本長度的原因,目前算力、準確度和長文本之間的沖突限制了他們去發展長文本。但這對于中國的大模型應用來說,反而是一個彎道超車的機會,因為大模型上的長文本能力確實帶來了用戶體驗上的改變。

長文本對于用戶體驗的改變

國產大模型為什么要去卷長文本,這是一個與大模型應用落地息息相關的問題。在過去,正是由于長文本能力不足,絕大多數大模型應用才會給人不堪大用的感覺,比如虛擬助手由于長文本能力不足,會遺忘重要信息;基于大模型來設計劇本殺等游戲規則時,上下文長度不夠只能在規則和設定上縮水,從而簡化游戲難度;在論文分析和法律法規解讀這樣的關鍵領域,更是因為缺乏長文本的支持,無法給到用戶精準的答案。

這與大模型卷參數規模不同,因為用戶已經發現了即便是70B這個量級的大模型,在面對用戶的問題時,也會出現胡編亂造的問題。反倒是長文本提供了更多的上下文信息,大模型在對語義進行分析判斷后,會提供更加精確的答案,所以不少用戶才會借助Kimi來分解長篇小說、總結論文等。

不過在享受長文本處理帶來便利的同時,我們也應該注意下長文本處理背后潛在的信息安全和版權問題。對于過去短文本的處理,就已經存在一些可能暴露用戶真實身份和隱私信息的問題,隨著長文本支持對于更大文件和更長文本的處理,有的人可能會選擇將合同、條例或標準等包含敏感信息的專業文件上傳到大模型上,又或是引入一些盜版文檔資源。

所以國家層面也開始出臺各種管理辦法,對于大模型語言模型在內的生成式人工智能進行規范,不能侵犯知識產權并保護個人隱私。如此一來,對于大模型應用本身的信息脫敏也提出了更高的要求。

寫在最后

相信經過一年的大模型應用轟炸后,不少用戶對于基本的AGI玩法已經玩膩了,所以長文本、文生視頻這種新的交互方式才會讓人趨之若鶩。但我們也很少看到成功的長文本大模型商業化落地項目,畢竟在高額的獲客成本下,RAG這種外掛知識庫的方式可能更適合手中資金有限的初創AGI應用開發商。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • Agi
    Agi
    +關注

    關注

    0

    文章

    64

    瀏覽量

    10141
  • 大模型
    +關注

    關注

    2

    文章

    1804

    瀏覽量

    1389
  • LLM
    LLM
    +關注

    關注

    0

    文章

    217

    瀏覽量

    246
收藏 人收藏

    評論

    相關推薦

    MiniMax推出“海螺AI”,支持超長文本處理

    近日,大模型公司MiniMax宣布,其全新產品“海螺AI”已正式上架。這款強大的AI工具支持高達200ktokens的上下文長度,能夠在1秒內處理近3萬字
    的頭像 發表于 05-17 09:30 ?312次閱讀

    訊飛星火長文本功能全新升級

    科大訊飛近日宣布,其首個長文本、長圖文、長語音大模型已完成全新升級。這一大模型不僅具備強大的學習能力,可以快速吸收海量文本、圖文資料以及會議錄音等多元化信息,更能在各行業場景中提供精準
    的頭像 發表于 05-06 11:22 ?292次閱讀

    科大訊飛創新推出長文本、長圖文、長語音大模型,解決落地難題

    近期,科大訊飛推出了首個支持長文本、長圖及語音大數據處理的大模型,該系統融合了多元化數據源,包括海量文字、圖片以及會議音頻等,能為各行業場景提供專業化、精準化的答案。
    的頭像 發表于 04-28 09:32 ?160次閱讀

    訊飛星火大模型V3.5春季升級,多領域知識問答超越GPT-4 Turbo?

    劉慶峰指出,現如今,星火大模型在通用長文本處理能力方面已相當成熟,覆蓋長文檔信息抽取、知識問答、歸納總結、文本生成等諸多領域,整體表現已達GPT-4 Turbo今年4月最新版的97%水
    的頭像 發表于 04-26 14:26 ?363次閱讀

    Kimi爆火背后的技術奧秘 大模型長文本能力的技術難點

    當用戶認為在國內的大模型中,長文本=kimi的時候,除非競爭對手能以絕對的實力碾壓幾個量級,但凡與kimi打平或者是微弱超越,都很難威脅到kimi在用戶心目中的地位。
    發表于 04-17 10:11 ?479次閱讀
    Kimi爆火背后的技術奧秘 大<b class='flag-5'>模型</b><b class='flag-5'>長文本</b>能力的技術難點

    360開源70億參數模型,助力360k長文本輸入

    周鴻祎指出,近期大模型產業正在以數據量為競爭重點,百萬字文本處理能力“有望成為未來標配”。他表示,360決定發布這項功能,以避免相關行業研發者重復投入精力,同時360K作為長度單位也是象征性的選擇。
    的頭像 發表于 03-29 15:54 ?182次閱讀

    阿里通義千問重磅升級,免費開放1000萬字長文處理功能

    近日,阿里巴巴旗下的人工智能應用通義千問迎來重磅升級,宣布向所有人免費開放1000萬字長文處理功能,這一創新舉措使得通義千問成為全球文檔處理容量第一的AI應用。
    的頭像 發表于 03-26 11:09 ?416次閱讀

    光伏戶用如何做到低成本?

    光伏戶用如何做到低成本? 隨著可再生能源的日益普及和技術的不斷進步,光伏系統正逐漸走進千家戶。然而,對于光伏企業來說,如何在激烈的市場競爭中低
    發表于 02-27 10:33

    快速全面了解大模型長文本能力

    那關于LLM的長文本能力,目前業界通常都是怎么做的?有哪些技術點或者方向?今天我們就來總結一波,供大家快速全面了解。
    發表于 02-22 14:04 ?462次閱讀
    快速全面了解大<b class='flag-5'>模型</b><b class='flag-5'>長文本</b>能力

    如何用AI聊天機器人寫出萬字長文

    如何用AI聊天機器人寫出萬字長文
    的頭像 發表于 12-26 16:25 ?653次閱讀

    港中文賈佳亞團隊聯手MIT發布超長文本擴展技術,打破LLM遺忘魔咒

    它代表著業界對長文本大語言模型的重新思考和關注,有效擴展了大語言模型的上下文窗口,允許模型考慮和處理較長的
    的頭像 發表于 10-18 15:54 ?355次閱讀
    港中文賈佳亞團隊聯手MIT發布超<b class='flag-5'>長文本</b>擴展技術,打破LLM遺忘魔咒

    什么是VIM?VIM文本編輯器的三種工作模式

    Vim (Vi improved)是從 Vi 發展出來的一個文本編輯器,簡單的來說,Vi 是老式的文本處理器,功能已經很齊全了,但還是有可以進步的地方。
    發表于 09-06 16:04 ?2489次閱讀
    什么是VIM?VIM<b class='flag-5'>文本</b>編輯器的三種工作模式

    BigCode背后的大規模數據去重方法有哪些?

    本文面向對大規模文檔去重感興趣,且對散列 (hashing) 、圖 (graph) 及文本處理有一定了解的讀者。
    的頭像 發表于 08-02 10:27 ?594次閱讀
    BigCode背后的大規模數據去重方法有哪些?

    張俊林:大語言模型帶來的交互方式變革

    在大模型出來之前,人和數據怎么發生關系?人不能直接與數據發生關系,需要通過一個中介,這個中介就是應用軟件。舉個例子,即使你做最簡單的文本編輯,你也需要一個文本編輯器,高級一點的文本處理
    的頭像 發表于 07-18 14:47 ?545次閱讀
    張俊林:大語言<b class='flag-5'>模型</b>帶來的交互方式變革

    達觀曹植大模型正式對外公測!專注于長文本、多語言、垂直化發展

    模型時代到來,國內出現“百模大戰”的局面。達觀數據自23年3月宣布研發大語言模型以來,一直積極探索大語言模型的專業化、特長化和產品化。通過多年的高質量數據積累,不斷精進算法創新,結合多年的
    的頭像 發表于 07-12 15:04 ?662次閱讀
    達觀曹植大<b class='flag-5'>模型</b>正式對外公測!專注于<b class='flag-5'>長文本</b>、多語言、垂直化發展
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>