<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

新火種AI|大廠圍剿,“長文本”成不了Kimi的護城河

新火種 ? 來源:新火種 ? 作者:新火種 ? 2024-03-28 22:37 ? 次閱讀

作者:一號

編輯:美美

長文本之后,Kimi能找到新的“護城河”嗎?

過去的一周,由AI技術天才楊植麟的大模型初創企業月之暗面及其產品Kimi所帶來的連鎖反應,從社交媒體一路沖向了A股,帶動了一批“Kimi概念股”的大漲。這也是國內AI創業公司第一次真正意義上的“破圈”。

資本市場的關注,也讓Kimi迎來了用戶量的飆升,根據“AI產品榜(aicpb.com)”的數據,Kimi智能助手在2024年2月份的訪問量達到了305萬,比上個月增長了107.6%,3月8日至3月14日的周訪問量更是達到了183萬,環比增加了45%。流量的激增,也讓Kimi在3月20日出現了宕機等異?,F象。

wKgaomYFgLuACvBaAAIio0T9ObA722.jpg

而這一次的爆火始于3月18日,月之暗面宣布其自研的Kimi智能助手在大模型上下文窗口技術上取得了新的突破,已支持200萬字超長無損上下文,并即日起開始產品內測。我們不禁要問,大模型能力這么多,為何長文本會成為引爆點?

為什么長文本是用戶的痛點?

對于大模型的長文本的能力,月之暗面的創始人楊植麟把它解讀為“新計算范式”,并認為通用的世界模型,是需要“長文本”的。

想象一下,如果你把一個大模型當做一個和你對話的人,它跟我們一樣,有短期記憶和長期記憶。而長期記憶就是它通過模型訓練得到的向量和參數,你可以把這當成它的知識庫。而上下文就是它的短期記憶,當你在和它對話的時候,你們之間的對話內容就是以上下文窗口的形式提供給了大模型,要是你們的對話長度超過了這個它的上下文承載能力,那么超出的部分,大模型就會忘記。這從根本上就限制了大模型處理一些復雜多變的任務的可能。

wKgZomYFgLyAfnCgAADjOOD9gdw820.jpg

為了讓大模型能夠完成更多的任務,或者說讓它不會在跟你對話過程中突然就沒辦法跟你繼續對話下去了的問題,拓展上下文就成了一件必須解決的事情。也只有這樣,AI才能在面對一些描述非常復雜,需要舉例幫助模型進行學習等的任務上表現得更好。如果以AGI為目標,那上下文長度的突破更是必須的。

而從市場上看,當前使用大語言模型的大多數人群,無論是泛科技行業,還是從業者、愛好者或者學生,解讀論文、深度研報還有會議摘要等這些明確的應用場景,長文本能力都是剛需。因此,OpenAI的開發者關系經歷Logan Kilpatrick就曾經說過,“上下文就是大語言模型的下一個關鍵突破”。

因長文本而備受關注的Kimi

很明顯,月之暗面“登月”的第一步,從用戶需求的角度上來講,肯定是邁對了。早在2023年10月,Kimi剛剛上線的時候,它就以一個很有辨識度的方式進行了亮相。他們在官宣文章的標題上,別出心裁地用了“歡迎與Moonshot AI共同開啟Looooooooooong LLM時代”,通過加了很多個“o”的long,從視覺上就讓人印象深刻,明白這個大模型與“長”相關,然后文章的第一句就是“今天,Moonshot AI 帶著首個支持輸入 20 萬漢字的智能助手產品Kimi Chat 與大家見面了”。

wKgaomYFgLyAQItnAAHyhlqEAII350.jpg

這些宣發內容,都讓人能夠很快地將“長文本”和Kimi之間構建起聯系,通過這樣的營銷方式,月之暗面輕松地占領了用戶心智,從此要是聊起“長文本”,“月之暗面”就成了一個很容易被提到的公司。

在當時不?!熬怼钡拇竽P褪袌錾?,新模型不斷冒出,而絕大部分的模型介紹都有這么一套標準動作:公布模型參數、模型是開源還是封閉的、公布測試集成績,體現自己成績有多好,然后就是一些業內人士的介紹或評測文章。

雖然數據清晰,但如果是面向大眾市場,顯然這些晦澀難懂的參數和技術詞語,只能是自嗨,遠不及一個直白的特點更讓人印象深刻。因此月之暗面用這樣的具有辨識度的方式,很輕松地就從一眾大模型中脫穎而出,輕松地贏得了普通用戶的心。

wKgZomYFgLyABccbAAB_bKe60o4689.jpg

而且在后續的宣發中,月之暗面也在不斷重復和強調kimi的長文本能力,直到最近,它所做的突破也是在長文本這個能力上。因此,當用戶將長文本=Kimi的時候,除非競爭對手擁有碾壓級的實力,否則都很難威脅到Kimi在用戶心中的地位。

但“長文本”真的能保Kimi永久平安嗎?

長文本成不了Kimi的“護城河”

同樣在長文本上做文章的,在海外,還有一家名為Antropic的公司。作為被公認的OpenAI最強大的對手,他們的大模型Claude的殺手锏就是長文本。在其初代模型推出時,就支持100k token的上下文,可以直接處理5萬字,這也讓它一直在整體性能劣于OpenAI的情況下,也能保有一群核心粉絲。

wKgaomYFgL2AUvV7AABzS2Dw_w8440.jpg

然而這種優勢也并未能保持太久。去年11月,OpenAI在Dev Day上發布了GPT-4 Turbo,支持128k的上下文,這讓Antropic陷入了危機,不得不緊急推出Claude 2.1,將上下文從100k提升到了200k。但后來被人進行了探針測試,顯示它只是支持了這樣的長度,但并未記住其中的內容,使得它緊急打了補丁。而這個補丁,僅僅只是一句Prompt。

今年2月,谷歌的Gemini 1.5則直接將上下文推到了100萬。種種跡象都表明,長文本能力的“護城河”已經在變淺。就在前段時間,Antropic號稱超越GPT-4的“世界最強大模型”Claude 3也放棄了在長文本上開卷,依然只支持200k的上下文,轉而在其他能力上進行了升級。

wKgZomYFgL2ASXPvAAA7ZDQeVGU040.jpg

同樣,在國內,Kimi爆火之后,“長文本”的需求也被大廠看到了。很快,阿里巴巴宣布通義千問重磅升級,向所有人免費開放1000萬字的長文檔處理功能,成為了全球文檔處理容量第一的AI應用;緊接著,百度的文心一言將在下個月開放200萬-500萬字的長文本能力;360智腦也正式內測500字長文本處理能力。

wKgaomYFgL6AYs58AAAw6yfdpCM489.jpg

據新浪科技獲得的數據,Kimi當前每日獲客成本高達20萬元。面對大廠在長文本能力上的集體圍剿,作為AI創業公司的月之暗面,在資金還有算力資源上,都難以招架。因此,盡管當前月之暗面仍有足夠的“忠粉”,但當熱情褪去,若月之暗面還未挖出一條新的“護城河”,恐怕難逃困境。

作為“堅定的AGI信徒”,楊植麟也有過這樣的判斷,“獨特價值是你增量的智能。要抓住這個點,智能永遠是最核心的增量價值。如果你這個產品最核心價值只有10%-20%來自于AI,就不成立”。

因此,究竟“智能”能否成為Kimi新的“護城河”,我們只能拭目以待。

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    26443

    瀏覽量

    264051
  • Agi
    Agi
    +關注

    關注

    0

    文章

    58

    瀏覽量

    10130
  • Kimi
    +關注

    關注

    0

    文章

    7

    瀏覽量

    9
收藏 人收藏

    評論

    相關推薦

    單日獲客成本超20萬,國產大模型開卷200萬字以上的長文本處理

    更精準的推理和高并發流量以外,似乎已經沒有太多值得廠商大肆宣傳的特性了,直到最近超長文本處理的爆火。 ? 國產大模型的新卷法,長文本處理 ? 當下將大模型長文本處理炒熱的,無疑是來自月之暗面的
    的頭像 發表于 03-27 00:53 ?2756次閱讀
    單日獲客成本超20萬,國產大模型開卷200萬字以上的<b class='flag-5'>長文本</b>處理

    Kimi爆火背后的技術奧秘 大模型長文本能力的技術難點

    當用戶認為在國內的大模型中,長文本=kimi的時候,除非競爭對手能以絕對的實力碾壓幾個量級,但凡與kimi打平或者是微弱超越,都很難威脅到kimi在用戶心目中的地位。
    發表于 04-17 10:11 ?137次閱讀
    <b class='flag-5'>Kimi</b>爆火背后的技術奧秘 大模型<b class='flag-5'>長文本</b>能力的技術難點

    火種AI|顛覆不了iPhone的Ai Pin,被吐槽又貴又難用

    Ai Pin可能不是“AI時代的iPhone”
    的頭像 發表于 04-16 22:01 ?80次閱讀
    新<b class='flag-5'>火種</b><b class='flag-5'>AI</b>|顛覆<b class='flag-5'>不了</b>iPhone的<b class='flag-5'>Ai</b> Pin,被吐槽又貴又難用

    Kimi AI模型崛起 各大廠商競相效仿

    Kimi的出色表現自然吸引了各大廠商的密切關注,并紛紛效仿其做法。作為月之暗面推出的對話式AI產品,Kimi在技術上不斷創新和突破。
    的頭像 發表于 04-08 15:08 ?886次閱讀

    圍剿Kimi,只是大模型“新賽季”play的一環

    Kimi能“亂拳打死老師傅”,一舉終結基礎大模型的比賽嗎?
    的頭像 發表于 04-05 01:16 ?2917次閱讀
    <b class='flag-5'>圍剿</b><b class='flag-5'>Kimi</b>,只是大模型“新賽季”play的一環

    stm32cubemx生成不了keil工程的原因?

    stm32cubemx生成不了keil工程
    發表于 03-21 06:00

    快速全面了解大模型長文本能力

    那關于LLM的長文本能力,目前業界通常都是怎么做的?有哪些技術點或者方向?今天我們就來總結一波,供大家快速全面了解。
    發表于 02-22 14:04 ?293次閱讀
    快速全面了解大模型<b class='flag-5'>長文本</b>能力

    火種AI|AI社交,大廠競逐的新戰場

    作者:一號 編輯:美美 AI時代的社交王者,這塊“蛋糕”誰都想吃下。 如果說QQ是中國互聯網時代的代表性社交產品,那么在移動互聯網時代,微信就是當之無愧的移動互聯網社交王者。這一國內社交產品巨頭
    的頭像 發表于 02-18 14:35 ?190次閱讀
    新<b class='flag-5'>火種</b><b class='flag-5'>AI</b>|<b class='flag-5'>AI</b>社交,<b class='flag-5'>大廠</b>競逐的新戰場

    什么是CUDA?誰能打破CUDA的護城河?

    在最近的一場“AI Everywhere”發布會上,Intel的CEO Pat Gelsinger炮轟Nvidia的CUDA生態護城河并不深,而且已經成為行業的眾矢之的。
    的頭像 發表于 12-28 10:26 ?1810次閱讀
    什么是CUDA?誰能打破CUDA的<b class='flag-5'>護城河</b>?

    如何用AI聊天機器人寫出萬字長文

    如何用AI聊天機器人寫出萬字長文
    的頭像 發表于 12-26 16:25 ?486次閱讀

    聯想算力基礎設施的“火種臺”,讓千行萬企智能化不再凜冽

    算力供給的凜冽中,聯想點燃AI基礎設施的“火種
    的頭像 發表于 12-25 09:53 ?653次閱讀
    聯想算力基礎設施的“<b class='flag-5'>火種</b>臺”,讓千行萬企智能化不再凜冽

    淺談IC工程師的護城河是什么?

    對IC工程師來說同理,日復一日地寫代碼、debug、畫圖走線,用這些來挖掘護城河是非常有限的。能緊跟先進工藝流片、不斷積累學習協議和IP、接觸不同應用場景的產品才行。
    的頭像 發表于 12-13 10:11 ?207次閱讀

    cubeMX怎么生成不了keil工程?

    cubeMX怎么生成不了keil工程
    發表于 10-31 06:42

    港中文賈佳亞團隊聯手MIT發布超長文本擴展技術,打破LLM遺忘魔咒

    它代表著業界對長文本大語言模型的重新思考和關注,有效擴展了大語言模型的上下文窗口,允許模型考慮和處理較長的文本序列,是大語言模型的革新性發明。
    的頭像 發表于 10-18 15:54 ?314次閱讀
    港中文賈佳亞團隊聯手MIT發布超<b class='flag-5'>長文本</b>擴展技術,打破LLM遺忘魔咒

    Momenta中場入局AI芯片的背后

    嚴苛的成本控制與激烈價格戰下,智駕軟件算法公司的護城河并不高深。
    發表于 07-30 16:07 ?527次閱讀
    Momenta中場入局<b class='flag-5'>AI</b>芯片的背后
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>