<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

摩根大通分析:蘋果AI發展戰略:主攻小模型,引入LLM技術

微云疏影 ? 來源:綜合整理 ? 作者:綜合整理 ? 2024-03-20 13:46 ? 次閱讀

據了解,摩根大通近期發布了針對蘋果人工智能AI)發展策略的投資備忘錄。該公司傾向于認為,蘋果除了積極開發iPhone本地應用的小型模型外,還與其他機構共同推進大型語言模型(LLM)技術的研發和應用。

摩根大通認為,雖然蘋果在大語言模型領域略遜于OpenAI的ChatGPT和谷歌的Gemini,但蘋果已經意識到并確定了自身的優勢定位,即主攻更易于本地運行且專注于保護用戶隱私權的小型模型。

此外,盡管目前尚不清楚蘋果是否計劃在iOS/iPadOS系統中引入Gemini模型實現AI賦能,但摩根大通預測,蘋果可能會通過與谷歌達成類似于“默認網絡索引擎由谷歌提供,蘋果則以Spotlight作為本土搜索工具”這種模式的協議,以進一步推動其AI發展戰略。

同時,多方信息顯示,蘋果似乎在研發一款名為Ask的本地知識庫訓練工具,其適應性優于大型語言模型,能夠快速響應數據庫變動,而MM1模型將很可能符合此類性能需求。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 摩根大通
    +關注

    關注

    0

    文章

    41

    瀏覽量

    7824
  • OpenAI
    +關注

    關注

    9

    文章

    871

    瀏覽量

    6003
  • ChatGPT
    +關注

    關注

    28

    文章

    1475

    瀏覽量

    5382
收藏 人收藏

    評論

    相關推薦

    摩根大通警告:AI數據中心2030年水消耗將破4.5億加侖 影響全球環境

    隨著AI技術熱度不斷攀升,供應鏈需求觸發了投資狂潮。在摩根大通發布的名為《深度解析電力、冷卻、電網及環境可持續性影響》的研究報告中,William Yang團隊全面剖析了基建對
    的頭像 發表于 05-27 10:15 ?122次閱讀

    STM CUBE AI錯誤導入onnx模型報錯的原因?

    使用cube-AI分析模型時報錯,該模型是pytorch的cnn轉化成onnx ``` Neural Network Tools for STM32
    發表于 05-27 07:15

    蘋果研發設備端大語言模型,提升AI性能與隱私保護

    古爾曼在“Power On”通訊中稱,這款蘋果LLM有望作為未來生成式AI功能的基石,并與現有云端AI服務明顯區別開來,該模型將會完全依賴于
    的頭像 發表于 04-22 11:04 ?104次閱讀

    自然語言處理應用LLM推理優化綜述

    當前,業界在將傳統優化技術引入 LLM 推理的同時,同時也在探索從大模型自回歸解碼特點出發,通過調整推理過程和引入新的
    發表于 04-10 11:48 ?177次閱讀
    自然語言處理應用<b class='flag-5'>LLM</b>推理優化綜述

    蘋果與谷歌洽談合作,Gemini AI模型有望嵌入iPhone

    在人工智能領域日益升溫的競爭格局中,蘋果公司再次展現出其敏銳的戰略眼光。據可靠消息人士透露,蘋果正積極與谷歌展開談判,旨在將谷歌最新的生成式人工智能模型Gemini植入其iPhone系
    的頭像 發表于 03-20 10:05 ?209次閱讀

    使用cube-AI分析模型時報錯的原因有哪些?

    使用cube-AI分析模型時報錯,該模型是pytorch的cnn轉化成onnx ``` Neural Network Tools for STM32
    發表于 03-14 07:09

    低比特量化技術如何幫助LLM提升性能

    針對大語言模型 (LLM) 在部署過程中的性能需求,低比特量化技術一直是優化效果最佳的方案之一,本文將探討低比特量化技術如何幫助 LLM
    的頭像 發表于 12-08 15:26 ?723次閱讀
    低比特量化<b class='flag-5'>技術</b>如何幫助<b class='flag-5'>LLM</b>提升性能

    Long-Context下LLM模型架構全面介紹

    隨著ChatGPT的快速發展,基于Transformer的大型語言模型(LLM)為人工通用智能(AGI)鋪平了一條革命性的道路,并已應用于知識庫、人機界面和動態代理等不同領域。然而,存在一個普遍
    的頭像 發表于 11-27 17:37 ?606次閱讀
    Long-Context下<b class='flag-5'>LLM</b><b class='flag-5'>模型</b>架構全面介紹

    周四研討會預告 | 注冊報名 NVIDIA AI Inference Day - 大模型推理線上研討會

    由 CSDN 舉辦的 NVIDIA AI Inference Day - 大模型推理線上研討會,將幫助您了解 NVIDIA 開源大型語言模型LLM)推理加速庫 TensorRT-
    的頭像 發表于 10-26 09:05 ?210次閱讀

    mlc-llm對大模型推理的流程及優化方案

    在 MLC-LLM 部署RWKV World系列模型實戰(3B模型Mac M2解碼可達26tokens/s) 中提到要使用mlc-llm部署模型
    發表于 09-26 12:25 ?509次閱讀
    mlc-<b class='flag-5'>llm</b>對大<b class='flag-5'>模型</b>推理的流程及優化方案

    大語言模型LLM)預訓練數據集調研分析

    model 訓練完成后,使用 instruction 以及其他高質量的私域數據集來提升 LLM 在特定領域的性能;而 rlhf 是 openAI 用來讓model 對齊人類價值觀的一種強大技術;pre-training dataset 是大
    的頭像 發表于 09-19 10:00 ?637次閱讀
    大語言<b class='flag-5'>模型</b>(<b class='flag-5'>LLM</b>)預訓練數據集調研<b class='flag-5'>分析</b>

    AI模型和小模型是什么?AI模型和小模型的區別

      隨著人工智能的不斷發展和應用,機器學習模型的大小越來越成為一個重要的問題。在機器學習中,我們通常將模型分為兩類:大模型和小模型。本文將介
    發表于 08-08 16:55 ?6512次閱讀

    最新綜述!當大型語言模型LLM)遇上知識圖譜:兩大技術優勢互補

    LLM 是黑箱模型,缺乏可解釋性,因此備受批評。LLM 通過參數隱含地表示知識。因此,我們難以解釋和驗證 LLM 獲得的知識。此外,LLM
    的頭像 發表于 07-10 11:35 ?1535次閱讀
    最新綜述!當大型語言<b class='flag-5'>模型</b>(<b class='flag-5'>LLM</b>)遇上知識圖譜:兩大<b class='flag-5'>技術</b>優勢互補

    基于Transformer的大型語言模型LLM)的內部機制

    本文旨在更好地理解基于 Transformer 的大型語言模型LLM)的內部機制,以提高它們的可靠性和可解釋性。 隨著大型語言模型LLM)在使用和部署方面的不斷增加,打開黑箱并了解
    的頭像 發表于 06-25 15:08 ?1092次閱讀
    基于Transformer的大型語言<b class='flag-5'>模型</b>(<b class='flag-5'>LLM</b>)的內部機制

    突破邊界:高性能計算引領LLM駛向通用人工智能AGI的創新紀元

    ChatGPT的成功帶動整個AIGC產業的發展,尤其是LLM(大型語言模型,大語言模型)、NLP、高性能計算和深度學習等領域。LLM
    的頭像 發表于 06-25 14:31 ?669次閱讀
    突破邊界:高性能計算引領<b class='flag-5'>LLM</b>駛向通用人工智能AGI的創新紀元
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>