<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

百度文心一言正式發布!李彥宏:大模型帶來三大產業機會

Carol Li ? 來源:電子發燒友網 ? 作者:李彎彎 ? 2023-03-17 01:09 ? 次閱讀
電子發燒友網報道(文/李彎彎)3月16日下午,百度在北京總部舉行新聞發布會,正式發布新一代大語言模型、生成式 AI 產品文心一言。百度創始人、董事長兼首席執行官李彥宏,百度首席技術官王海峰出席,并展示了文心一言在文學創作、商業文案創作、數理推算、中文理解、多模態生成五個使用場景中的綜合能力。

poYBAGQS6ymARFs6AAfgMq7IqWc809.png

文心一言在五大使用場景中的能力展示

在文學創作方面,李彥宏以《三體》為例,針對“《三體》的作者是哪里人?電視劇《三體》演員都有誰?于和偉和張魯一有哪些共同點?于和偉和張魯一誰更高?”等事實性問題,文心一言都給出了準確的回答。

針對“可以總結一下《三體》的核心內容嗎?如果要續寫的話,可以從哪些角度出發?如何從哲學的角度續寫?”等問題,文心一言也從多個角度給出了建議,體現出強大的總結分析能力和推理能力。

poYBAGQS6zeAVyZvAAkS_6QtSQY922.png

在商業文案創作方面,文心一言順利完成了給公司起名字、寫Slogan、寫新聞稿的任務??梢钥吹轿男囊谎钥梢詼蚀_理解人類意圖,能夠清晰地表達。這是基于龐大數據規模的訓練,文心一言大模型的訓練數據包括萬億級網頁數據、數十億的搜索數據和圖片數據、百億級的語音日均調用數據,以及5500億事實的知識圖譜等。

pYYBAGQS6z2AIUb_AAkatKE-UzU405.png

在數理邏輯推算方面,文心一言體現出了很強的推理能力。比如,面對“雞兔同籠”的問題,文心一眼就能夠很快識別出問題不對。當修改問題之后,文心一言能夠很快理解題意,給出解題思路,設立方程式,一步步得出正確答案。

poYBAGQS60KAG1IRAAUnCHdy96E304.png

在中文理解方面,文心一言表現出了對中國文化的強大理解力。比如,正確解釋“洛陽紙貴”的含義,以及“洛陽紙貴”在現代經濟學原理里對應的理論。文心一言還用“洛陽紙貴”創作了一首藏頭詩,“洛陽城里春光好,陽艷無雙不負賞。紙貴漫天詩詞賦,貴比黃金樂未央?!?br />
pYYBAGQS60qAFG9vAAnTyQlvH_s155.png

在多模態生成方面,文心一言展示出了文本、圖片、音頻視頻的生成能力。在音頻生成方面,文心一言可以生成多個地方的方言,比如廣東話、閩南語,在發布會現場演示的是四川話。視頻生成能力方面,因為成本較高,現階段還未對所有用戶開放,未來會逐步接入。

李彥宏表示,多模態是生成式AI一個明確的發展趨勢。未來,隨著百度多模態統一大模型的能力增強,文心一言的多模態生成能力會不斷提升。

pYYBAGQS61KAFtJPAAXvwRN40MQ491.png

從上述演示來看,文心一言某種程度已經具備了對人類意圖的理解能力,能夠較為準確的、有邏輯的、流暢的表達。不過李彥宏表示,這類大語言模型還在不斷完善的過程中,它有時會帶來驚喜,有時也會出錯,不過它的發展非常迅速。

大型語言模型帶來的產業機會

無論是哪家公司都不可能靠幾個月突擊,就做出這樣一個大型語言模型,深度學習、自然語言處理等都需要多年的堅持和積累??梢哉f,文心一言是百度過去多年努力的延續。

人工智能時代,IT技術棧發生了根本性改變,從原來的三層變成了現在的四層,包括芯片層、框架層、模型層、應用層。百度是全球范圍內為數不多在四層都有領先產品的公司。

pYYBAGQS61mAC6YXAAlZ63HP_-I351.png

百度AI全棧布局的優勢在于,可以在技術棧的四層架構中實現端到端優化,大幅提升效率。相比于之前判別式AI,生成式AI非常消耗算力,費用相當昂貴,四層之間的協同作用很關鍵,尤其是框架層和模型層的協同,能夠大大提升效率。

百度自2月宣布文心一言以來,已有超過650家企業宣布加入文心一言生態。生成式AI代表了一個新的計算范式,它會帶來市場需求的爆發式增長,將釋放出前所未有的、指數級的商業價值。文心一言不僅影響搜索、互聯網公司,它可以讓每一家公司都離自己的客戶更近。

大型語言模型會帶來哪些產業機會?李彥宏談到了三點:一是新型云計算,文心一言將根本性地改變云計算行業的游戲規則,之前企業選擇云廠商更多看算力、存儲等基礎云服務。未來,更多會看框架、模型,以及芯片、框架、模型和應用四層之間的協同。

poYBAGQS62CAG_FuAAjTP848-Wc530.png

二是行業模型精調,這是這是通用大模型和行業企業之間的中間層,他們可以基于對行業的洞察,調用通用大模型能力,為行業客戶提供解決方案。這方面,百度文心大模型已經在工業、金融、交通、媒體等領域,發布了10多個行業大模型。

三是應用開發,即基于大模型底座進行應用開發的公司,對于大部分創業企業來說,真正的機會并不是從頭開始做ChatGPT和文心一言這樣的基礎大模型,而是基于通用大語言模型搶先開發重要的應用服務。目前基于文本、圖片、音視頻生成、數字人、3D生成等場景,已經涌現出很多創業明星公司。

從技術層面來看,文心一言是新一代知識增強大語言模型,具備對話交互、內容創作、知識推理、多模態生成等能力。

據王海峰介紹,它的關鍵技術包括有監督精調、人類反饋的強化學習、提示、知識增強、檢索增強和對話增強。前三項是這類大語言模型都會采用的技術,ERNIE和PLATO中已經有應用和積累,在文心一言中又有了進一步強化和打磨;后三項則是百度已有技術優勢的再創新,也是文心一言未來越來越強大的基礎。

pYYBAGQS62aAIV0ZAAWCPqxJQ9U977.png

在知識增強方面,文心一言主要是通過知識內化和知識外用兩種方式。知識內化,是從大規模知識和無標注數據中,基于語義單元學習,利用知識構造訓練數據,將知識學習到模型參數中;知識外用,是引入外部多源異構知識,做知識推理、提示構建等。

在檢索增強方面,文心一言是來自以語義理解與語義匹配為核心技術的新一代搜索架構。通過引入搜索結果,可以為大模型提供時效性強、準確率高的參考信息,更好地滿足用戶需求。

在對話增強方面,基于對話技術和應用積累,文心一言具備記憶機制、上下文理解和對話規劃能力,實現更好的對話連貫性、合理性和邏輯性。

飛槳深度學習平臺支撐文心一言效果更好、效率更高、性能更強。王海峰強調,對于開發訓練,飛槳動靜統一的開發范式,以及自適應分布式架構,可以實現大模型的靈活開發和高效訓練。在推理部署方面,飛槳提供高并發彈性服務化部署,深度計算融合優化,軟硬協同稀疏量化加速、模型自適應蒸餾剪裁等,支持大模型高效推理。

pYYBAGQS626AeF4NAAb0YvzFUQ4479.png

小結

文心一言在文學創作、商業文案創作、數理推算、中文理解、多模態生成五大使用場景中展示出了比較強的理解能力和推理能力。

不過整體而言,文心一言目前來說還并不完善,未來隨著用戶的接入使用,及百度在技術上的不斷調優,文心一言將會不斷迭代,并展現出更強大的能力。在李彥宏看來,人工智能會徹底改變今天的每一個行業,文心一言是創新驅動發展的最佳證明。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 文心一言
    +關注

    關注

    0

    文章

    120

    瀏覽量

    1001
  • 大模型
    +關注

    關注

    2

    文章

    1824

    瀏覽量

    1419
收藏 人收藏

    評論

    相關推薦

    李彥宏高度評價百度文心一言模型及AI技術,強調商業化將持續推進

    據了解,目前已有近10萬家企業使用了文心一言的能力,其中10%的大搜流量由該模型產生,每日有250萬用戶受益于文庫的AI功能。未來,百度計劃進一步降低大模型的成本與門檻,以吸引更多開發
    的頭像 發表于 05-11 10:44 ?278次閱讀

    百度文心一言用戶破2億,AI原生應用開發數量達19萬

    此外,李彥宏還提到,百度在去年 8 月宣布開放文心一言后,不僅在C端借助大模型改造用戶產品,將AI功能融入旗下多款產品;同時在B端,通過云業務推出企業級一站式大模型平臺——千帆大
    的頭像 發表于 04-16 15:05 ?368次閱讀

    百度智能云大模型應用產品發布會定檔

    百度智能云官方宣布,備受矚目的“AI Cloud Day:百度智能云大模型應用產品發布會”已正式定檔于3月27日。
    的頭像 發表于 03-21 11:37 ?522次閱讀

    百度文心一言用戶規模突破1億

    在近日,百度公布了一個令人振奮的消息:文心一言模型的用戶規模已經突破了1億。
    的頭像 發表于 01-02 16:10 ?381次閱讀

    文心一言用戶規模破1億 應用已突破4000款

    ,文心一言用戶規模破1億?;谖男?b class='flag-5'>一言的應用已突破4000款。百度文心大模型調用量已達國內首位。 王海峰表示將繼續與所有開發者攜手并肩,在飛槳和文心的支持下,共赴通用人工智能的星辰大海
    的頭像 發表于 12-28 18:18 ?865次閱讀

    百度文心一言開通會員后可解鎖文心大模型4.0

    百度文心一言開通會員后可解鎖文心大模型4.0 今天百度上線文心一言會員模式,把文心一言
    的頭像 發表于 11-01 15:58 ?976次閱讀

    今日看點丨百度發布首個量子領域大模型,依托量子平臺、文心大模型;福特暫停采用寧德時代技術建設電池

    1.百度發布首個量子領域大模型,依托量子平臺、文心大模型 近日,2023量子產業大會上百度量子計算研究所所長段潤堯
    發表于 09-26 11:06 ?533次閱讀
    今日看點丨<b class='flag-5'>百度</b><b class='flag-5'>發布</b>首個量子領域大<b class='flag-5'>模型</b>,依托量子平臺、文心大<b class='flag-5'>模型</b>;福特暫停采用寧德時代技術建設電池

    百度發布首個量子領域大模型百度量子助手

    所長段潤堯帶來百度量子軟硬件和解決方案等方面的最新成果,重磅發布首個量子領域大模型,及百度量子助手和量子寫作助手兩大AI原生應用,加速量子技
    的頭像 發表于 09-26 09:53 ?565次閱讀

    百度文心一言,率先向全社會開放

    官網”體驗。 據悉,百度還將開放一批經過全新重構的AI原生應用,讓廣大用戶充分體驗生成式AI的理解、生成、邏輯、記憶四大核心能力。 今年3月16日,文心一言開啟邀測。作為全球大廠中首個發布的生成式AI產品,文心
    的頭像 發表于 09-04 10:50 ?696次閱讀

    鴻蒙升級3.0.0,百度導著航,系統中途會關閉我的定位

    然后百度顯示沒有定位了,就自動開啟智能導航。系統決定我的定位開關設置在哪里,我記得以前開定位是手動開關的。升級后,下拉菜單打開定位,百度導航開著會系統定位就被關閉了。害得我跑錯了好多路?,F在就是我的
    發表于 09-03 23:34

    百度文心一言開放首日回答超3342萬個問題

    百度文心一言開放首日回答超3342萬個問題 8月31日,百度模型文心一言APP宣布向全社會全面開放,開放首日回答網友超3342萬個問題。
    的頭像 發表于 09-02 15:58 ?878次閱讀

    文心一言率先全面開放 百度放大招

    官網”去體驗。 百度李彥宏稱,當文心一言向數以億計互聯網用戶大規模開放服務后,能夠獲得大量真實世界中的人工反饋,這將進一步改進基礎模型,并以更快速度迭代文心一言,創造更好的用戶體驗。
    的頭像 發表于 08-31 12:57 ?610次閱讀

    文心一言是什么?文心一言有哪些功能?

    文心一言 *(英文名:ERNIE Bot)* 是百度全新一代知識增強大語言模型,文心大模型家族的新成員,能夠與人對話互動,回答問題,協助創作,高效便捷地幫助人們獲取信息、知識和靈感。
    的頭像 發表于 08-31 10:02 ?26.6w次閱讀

    盤古大模型和文心一言哪個更好?

    盤古大模型和文心一言哪個更好? 盤古大模型和文心一言都是非常優秀的文本生成模型,它們都具有很高的準確性和流暢性,但就其在某些方面的表現和應用
    的頭像 發表于 08-31 09:01 ?4267次閱讀

    李彥宏百度預計年底推出文心一言模型4.0版本

    在財報經營摘要上將文心一言的表現列在了首位。百度李彥宏認為生成式人工智能和大語言模型在各個行業都展現出了巨大的變革力量,而且帶來了極為廣闊的市場機遇。 截止2023年6月30日
    發表于 08-30 16:34 ?344次閱讀
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>