<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

大模型,教培機構要過窄門

腦極體 ? 來源:腦極體 ? 作者:腦極體 ? 2023-09-14 21:09 ? 次閱讀

一度“元氣大傷”的教培機構,也開始加入大模型的熱潮了。

教育+大模型,并不稀奇,自從AI大模型火爆之后,教育就被認為是大語言模型最容易落地的領域。稀奇的是,和其他場內玩家相比,教培機構的優勢確實稱不上明顯。

目前,市面上在做教育大模型的廠商,大概可以分為三類:一類是大模型廠商,如百度“文心一言”大模型被接入旗下品牌的學習手機,科大訊飛推出了星火大模型及學習機產品;第二類是教育科技公司,如網易有道打造了“子曰”大模型,作業幫自研了銀河大模型,可汗學院、多鄰國、Coursera、猿輔導等也都紛紛將產品與大模型結合,推出了AI助手型口語教練。

另一類,就是受“雙減”影響的教培機構了,如新東方、好未來、學而思,也都披露了自家的大模型成果。

大模型在教培市場大有可為,與教培機構在大模型競爭中拔得頭籌,這兩個結論顯然是不能劃等號的。

畢竟三類玩家中,教培機構可能是離教育最近的一個,但也是離大模型最遠的一個。技術、算力、資金、人才、互聯網產品營銷……教培機構都不可能比科技巨頭、互聯網企業玩的更溜。

那么,教培機構做大模型,是不是一場必輸的游戲呢?我們認為不是。

正像《馬太福音》中所說,“你們要進窄門。因為引到滅亡,那門是寬的,路是大的,進去的人也多;引到永生,那門是窄的,路是小的,找著的人也少”。

教培機構做大模型,應該換一個思考方向——鉆入“場景”的窄門,走巨頭大廠不愿意投入的“小路”,建立核心競爭力。

理解這件事,我們從教培機構究竟為什么要出發,開始說起。

原點,為什么出發

你可能會問,有錢、有技術、有實力的公司有壁壘,搞大模型順理成章。開源大模型泛濫,普通公司搞大模型,簡直就是往紅海里跳,教培機構剛剛從“雙減”陣痛中恢復了一點元氣,怎么這么想不開?

說句公道話,教培機構做大模型,邏輯是能夠自洽的。

第一個合理之處:大模型時代的教育,也需要教培。

有人說,大模型可以取代人類助教,智能導師比人類教師成本更低,這是確實存在的。但是,大模型僅僅是一個工具,并不能替代教師和教培機構的服務內容。

短期內,大模型還有很多技術難題沒有解決,比如幻覺,大模型“一本正經地胡說八道”,輸出的都是錯誤的信息,很可能培養出“學渣”;比如黑箱,大模型生成的內容可解釋性不高,思考過程不清晰的話,答案的可信度不高,讓AI“無人駕駛”來輔導孩子,學習效果不一定好。

長期來看,即使大模型進化到極高理解力、極高自動化程度、極低錯誤率,但教育產品和服務的本質還是學生,還是需要教培服務來更好地滿足“千人千面”的具體需求。

正如同濟大學校長、教授鄭慶華所說,過去是老師和學生的二元結構。今天,機器在很多領域比老師干得還好。因此,未來的教學模式,可能會拓展為老師、機器、學生三元結構。所以,教培機構與AI結合,還是有很多的可能性的。

第二個合理之處:教育領域的大模型,精調少不了。

大模型自身的學習能力很強,GPT-4在SAT 等考試中都超過了88%以上的人類應試者。但就像高考狀元不一定都是好老師,大模型學得好不代表一定能教得好。教育大模型,需要在通用大模型的基礎上,加上自身數據進行精調,針對具體場景進行迭代優化,才可能(注意是可能)解決很多教育環節的具體問題。

舉個例子,實際應用中,教育大模型非常重要的一點就是合規,用于教學、備課等場景的大模型,對語言組織能力、邏輯推理能力要求更高,且容錯率低,一旦爆出不適當的內容就是教學事故,要提升大模型在此類任務中的安全可控,除了依靠高質量的標注數據,還需要專業教師的反饋、知識經驗,而擁有大量教師人才和教學經驗、數據的教培機構,顯然是更具備行業優勢。

第三個合理之處:短板不是真的短,長板卻是真的長。

大家都學過田忌賽馬的故事,在競賽中獲勝要用自己的長處去對付對手的短處。一眼看去,似乎教培機構在技術、人才、算力、資金等各方面,都比不上科技巨頭或互聯網公司,但有沒有可能,這些短板在實際中,都不算是什么短板呢?

比如技術,教培機構確實在基礎模型上的積累不多,但作為垂直行業,教培機構其實也沒有必要全力投入自建底層模型,通過API云端調用、與頭部廠商合作等方式,用相對較少的數據、算力資源和開發人員,就能建設出垂類的教育大模型。

多鄰國的生成式AI應用,都是基于OpenAI的大模型來研發的,其報告中也強調,要做好功能而非做大模型,專注于應用場景。由此可見,教培機構如果不在基礎模型賽道上跟科技巨頭正面硬扛,那么所謂“短板”,其實對于做垂類大模型,影響并沒有想象的大。

反而教培機構所擁有的數據、場景、行業know-how等“長板”,在大模型具體落地應用時,能發揮非常關鍵,甚至關乎生死的作用。

舉個例子,教育和AI大模型,本質都是先苦后甜、漫長回報的慢生意,中間要經歷很長的摸索、研發、客戶積累的過程,習慣了“大水漫灌”、燒錢式增長的科技創業公司,反而可能因為太過激進、導致虧損,反倒是習慣了做慢生意的教培機構,有更多的耐心和教育大模型一同長跑,更有可能等到盈利的那一天。

所以,往深了看,教培機構做大模型的底層邏輯,其實是有其合理性的,也是有希望在激烈競爭中獲得一席之地的。

終點,彼岸的風景

第二個問題,更貼近教學場景的教培機構,能給教育大模型帶來哪些不一樣的選擇呢?區別于其它教育大模型的差異化競爭力,究竟在哪里?

這就要來說說,目前教育領域都在用大模型干什么。

軟件層面,大模型+教育的新應用可以說是“亂花漸欲迷人眼”,不過可以統稱為“AI助教”。就是讓大語言模型來完成大量人類教師的重復性工作,比如撰寫講課大綱、口語陪練、作業助手、互動式講題、課堂對話助手、知識點查詢、智能評卷等,減輕家長和教師的輔導壓力。

硬件層面,將上述軟件能力集成到學習機、學生手表、學生手機、平板電腦等產品上,結合拍攝、OCR、姿態傳感器等硬件能力,對終端算力、配置、交互等進行優化,比如要將大模型的規模壓縮,以便在端側部署。

目前來看,隨著入局玩家的增多,無論是“AI老師”還是AI智能教育硬件,產品功能開始趨于同質化,逐漸呈現出白熱化的競爭態勢。這時候,教培機構做大模型,或許可以從既有優勢中提取出一些差異化能力:

更專精。目前,“AI老師”的同質化功能,主要集中在一些容錯率較高的場景,比如口語對話,開放式聊天對大模型的理解能力、邏輯能力等要求,是沒有那么高的,而一些容錯率較低的場景,比如數學解題、結構分析等,就比較難了。這恰好是教培機構的強項,通過精調、人工標注等方法,可以與同類產品拉開差距。我們注意到,學而思就重點研發MathGPT數學大模型,聚焦在數學領域的解題和講題算法。單學科的精準輔導,可以成為教培機構做大模型的突破方向。

更個性。大模型好不好用,關鍵還是要看學生學的好不好。有一項1984年的研究發現,接受一對一輔導的學生表現,比接受傳統課堂教學的學生高出兩個標準差。我們毫不懷疑,未來接受人類優秀老師輔導的學生表現,也會比接受AI老師教學的學生高。因為,學生在人類老師的注意和評價下,更有學習動力。所以,對于教培機構來說,未來可以用大模型來賦能線上課堂,給老師找個AI助教,讓人類教師有更多的時間和精力,去深入了解和指導每一個學生,洞悉學生的興趣,制定個性化的學習規劃,這或許是讓人類教師更有職業成就感,讓學生學習效果更好的方式。通過人機協作,也能減少教育者在適應新工具時的抗拒心理。

其實說白了,教培機構以前在整個教育體系中所提供的差異化價值,有了大模型之后,依然沒變,只不過用更高生產力的工具去實現。

兩點之間,過窄門

說了這么多,感覺教培機構做大模型,好像是有理有據,既有前途又有錢途,是不是開足馬力、全力投入,就能成功呢?

別忘了,在原點和終點之間,還有許多岔路口,而每一道都可能將教培機構引向歧途。

比如說,教培機構選基座模型,開源還是閉源?

很多人可能會說,當然是開源了,大廠開源的大模型性能高、成本近乎免費,fine-tune微調一下就能上線,簡直不要太爽??墒菃栴}來了,開源的free代表自由,也代表著開源人可以“不負責任”,畢竟又沒找你收錢,后續出現了代碼問題或者漏洞,沒人維護就成了大麻煩。遇到新的勒索軟件/病毒,開源人撒手不管,企業也沒招。而且,開源的open并不是沒有約束,是要有許可證的,如果開發者不愿意授權,或者濫用開源項目,很可能導致系統后續不可用。所以,用開源大模型來開發自己的垂類大模型,風險是客觀存在的,一定要注意合規,防范失控的風險。

那有人可能會說,那我直接選閉源大模型作為基座,總沒問題了吧?

值得注意的是,大廠的閉源的基座模型,能力上各有差異,很多排行榜所測試的能力,未必適配教育場景的需求。比如參數規模大的模型,性能表現比較好,但沒辦法部署到算力有限的端側教育平板上,教培機構又不可能雇一個科學家團隊來進行蒸餾、剪枝之類的壓縮處理,是不可用的。所以,要找到最為理想的解決方案,需要教培機構有懂大模型的人才,開展專業的評測和選型。

此外,選擇閉源大模型,給基礎模型廠商付費,這也是一筆真金白銀的開支,對于“元氣大傷”的教培機構來說,也會帶來一定的壓力。

而且基礎模型背靠大廠,在消費者和用戶之間有較高的知名度,選擇這類閉源模型確實可以很快說服消費者,快速做出購買決策,但也將自己與基礎模型廠商捆綁在一起,一旦基礎模型出現誤差,就會影響消費者對品牌的觀感。教育無小事,所以教培機構在選擇閉源模型合作方時,也需要慎重考慮,最好是選擇有“國家隊”背書的大模型廠商,才是長久經營之道。

除了模型選型,在落地、迭代、營銷等多個環節,教培機構要真正轉型成為一個大模型能力的科技公司,需要補的課還比較多。

比如應用開發,教培機構要成為“產品經理”。教培機構直接調用基礎模型API,可以短平快地打造出AI應用,但很容易陷入同質化競爭,無法發揮其優勢,利潤空間也會非常有限,而打造一款爆款AI原生應用,將大模型、AI跟業務結合起來,甄別用戶的真偽需求,解決剛需問題,做到工程化的可用程度,需要深入到產品級思考。

幾年前,俞敏洪在《在線教育到底有沒有未來?》的一次發言中,說了一句話:是否有持續的接近剛需的需求,是判斷一個教育公司的商業模式是否可以持續的關鍵。

大模型+教育剛剛開始,老師、家長、學生、學校、機構……都還在一點點探尋需求。其中哪些是恐懼錯過的FOMO情緒驅動下的無效產物,哪些是真正的持續的剛需,或許只能交給時間。而在這個窗口期內,傳統教培機構能否生長出AI產品能力,還是未知數。

總結一下,做大模型的路上會有無數岔路,是否有過窄門、走小路的勇氣,能否做對選擇,或許比技術本身更加重要。

無論是為了教育,還是為了生意,教培機構都需要新的故事,大模型是必然之選。

教育,將是大模型所孕育的無數新產業里,更早出發、更晚抵達的一個。對于教培機構來說,未嘗不是一件好事,教育大模型的風口吹得更久、更長,留給教培機構的轉型窗口和成功概率,也就更大一點。

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    27061

    瀏覽量

    264832
  • 大模型
    +關注

    關注

    2

    文章

    1804

    瀏覽量

    1393
收藏 人收藏

    評論

    相關推薦

    【大語言模型:原理與工程實踐】大語言模型的應用

    ,它通過抽象思考和邏輯推理,協助我們應對復雜的決策。 相應地,我們設計了兩類任務來檢驗大語言模型的能力。一類是感性的、無需理性能力的任務,類似于人類的系統1,如情感分析和抽取式問答等。大語言模型在這
    發表于 05-07 17:21

    【大語言模型:原理與工程實踐】大語言模型的評測

    ,例如將中文詩句“獨在異鄉為異客,每逢佳節倍思親”翻譯成英文。其次,多語言能力則評估模型對不同國家和地區語言的掌握程度,如將“我出去吃晚飯”翻譯成日語。針對翻譯類評測任務,我們主要關注以下三個評價指標
    發表于 05-07 17:12

    【大語言模型:原理與工程實踐】大語言模型的預訓練

    增長。DeepMind在相關論文中指出,模型大小和訓練Token數應以相似速率增長,以確保最佳性能。因此,構建與模型規模相匹配的預訓練數據至關重要。 在構建預訓練數據時,不僅考慮數據的規模,還需注重質量
    發表于 05-07 17:10

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    全面剖析大語言模型的核心技術與基礎知識。首先,概述自然語言的基本表示,這是理解大語言模型技術的前提。接著,詳細介紹自然語言處理預訓練的經典結構Transformer,以及其工作原理,為構建大語言
    發表于 05-05 12:17

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    大語言模型(LLM)是人工智能領域的尖端技術,憑借龐大的參數量和卓越的語言理解能力贏得了廣泛關注。它基于深度學習,利用神經網絡框架來理解和生成自然語言文本。這些模型通過訓練海量的文本數據集,如
    發表于 05-04 23:55

    使用CUBEAI部署tflite模型到STM32F0中,模型創建失敗怎么解決?

    看到CUBE_AI已經支持到STM32F0系列芯片,就想拿來入門嵌入式AI。 生成的模型很小,是可以部署到F0上的,但是一直無法創建成功。 查閱CUBE AI文檔說在調用create函數前,啟用
    發表于 03-15 08:10

    FPGA靠譜培訓機構

    各位大佬好,想問下是否靠譜的FPGA的培訓機構推薦的?
    發表于 02-28 15:02

    大華股份:大模型大幅縮短開發周期

    近日,大華股份有限公司在接受機構調研時表示,星漢大模型具有5種優勢,全面構建好用可用的行業大型模型,支持大模型全場景落地。
    的頭像 發表于 11-14 14:47 ?451次閱讀

    請問LTspice怎么導入模型?

    LTspice怎么導入模型? 我下載了如圖的模型,怎么導入到LTspice中,去使用它完成電路圖的繪制? LTspice里的模型太少太少了,我剛剛安裝的最新版軟件,搜索的第一個芯片A
    發表于 11-14 08:24

    金融業需要的大模型,是一個系統化工程

    面向未來,金融機構應用大模型的能力,將成為關鍵競爭力
    的頭像 發表于 09-21 09:14 ?848次閱讀
    金融業需要的大<b class='flag-5'>模型</b>,是一個系統化工程

    金融和大模型的“兩層皮”問題

    金融機構也會成為更早挖掘到金礦的第一批大模型淘金者
    的頭像 發表于 09-20 09:05 ?914次閱讀

    AscendCL快速入門——模型推理篇(上)

    騰CANN平臺專用的離線模型,既然調用模型進行推理,首先當然是要把模型加載進來,最簡單的場景就是從磁盤加載一個離線模型文件進內存,接口如下
    發表于 08-24 11:04

    keras順序模型與函數式模型

    keras提供兩種搭建模型的方式: 1. 順序模型(也可看做是函數式模型的一種特殊情況) 2. 函數式模型 兩種方式優點缺點順序模型
    發表于 08-18 06:01

    AI大模型和小模型是什么?AI大模型和小模型的區別

      隨著人工智能的不斷發展和應用,機器學習模型的大小越來越成為一個重要的問題。在機器學習中,我們通常將模型分為兩類:大模型和小模型。本文將介紹AI大
    發表于 08-08 16:55 ?6681次閱讀

    模型Transformer工作原理

    模型
    恬靜簡樸1
    發布于 :2023年07月18日 17:14:58
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>