據了解,摩根大通近期發布了針對蘋果人工智能(AI)發展策略的投資備忘錄。該公司傾向于認為,蘋果除了積極開發iPhone本地應用的小型模型外,還與其他機構共同推進大型語言模型(LLM)技術的研發和應用。
摩根大通認為,雖然蘋果在大語言模型領域略遜于OpenAI的ChatGPT和谷歌的Gemini,但蘋果已經意識到并確定了自身的優勢定位,即主攻更易于本地運行且專注于保護用戶隱私權的小型模型。
此外,盡管目前尚不清楚蘋果是否計劃在iOS/iPadOS系統中引入Gemini模型實現AI賦能,但摩根大通預測,蘋果可能會通過與谷歌達成類似于“默認網絡搜索引擎由谷歌提供,蘋果則以Spotlight作為本土搜索工具”這種模式的協議,以進一步推動其AI發展戰略。
同時,多方信息顯示,蘋果似乎在研發一款名為Ask的本地知識庫訓練工具,其適應性優于大型語言模型,能夠快速響應數據庫變動,而MM1模型將很可能符合此類性能需求。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
摩根大通
+關注
關注
0文章
41瀏覽量
7824 -
OpenAI
+關注
關注
9文章
871瀏覽量
6003 -
ChatGPT
+關注
關注
28文章
1475瀏覽量
5382
發布評論請先 登錄
相關推薦
摩根大通警告:AI數據中心2030年水消耗將破4.5億加侖 影響全球環境
隨著AI技術熱度不斷攀升,供應鏈需求觸發了投資狂潮。在摩根大通發布的名為《深度解析電力、冷卻、電網及環境可持續性影響》的研究報告中,William Yang團隊全面剖析了基建對
STM CUBE AI錯誤導入onnx模型報錯的原因?
使用cube-AI分析模型時報錯,該模型是pytorch的cnn轉化成onnx
```
Neural Network Tools for STM32
發表于 05-27 07:15
蘋果研發設備端大語言模型,提升AI性能與隱私保護
古爾曼在“Power On”通訊中稱,這款蘋果LLM有望作為未來生成式AI功能的基石,并與現有云端AI服務明顯區別開來,該模型將會完全依賴于
自然語言處理應用LLM推理優化綜述
當前,業界在將傳統優化技術引入 LLM 推理的同時,同時也在探索從大模型自回歸解碼特點出發,通過調整推理過程和引入新的
發表于 04-10 11:48
?177次閱讀
蘋果與谷歌洽談合作,Gemini AI模型有望嵌入iPhone
在人工智能領域日益升溫的競爭格局中,蘋果公司再次展現出其敏銳的戰略眼光。據可靠消息人士透露,蘋果正積極與谷歌展開談判,旨在將谷歌最新的生成式人工智能模型Gemini植入其iPhone系
使用cube-AI分析模型時報錯的原因有哪些?
使用cube-AI分析模型時報錯,該模型是pytorch的cnn轉化成onnx
```
Neural Network Tools for STM32
發表于 03-14 07:09
Long-Context下LLM模型架構全面介紹
隨著ChatGPT的快速發展,基于Transformer的大型語言模型(LLM)為人工通用智能(AGI)鋪平了一條革命性的道路,并已應用于知識庫、人機界面和動態代理等不同領域。然而,存在一個普遍
周四研討會預告 | 注冊報名 NVIDIA AI Inference Day - 大模型推理線上研討會
由 CSDN 舉辦的 NVIDIA AI Inference Day - 大模型推理線上研討會,將幫助您了解 NVIDIA 開源大型語言模型(LLM)推理加速庫 TensorRT-
mlc-llm對大模型推理的流程及優化方案
在 MLC-LLM 部署RWKV World系列模型實戰(3B模型Mac M2解碼可達26tokens/s) 中提到要使用mlc-llm部署模型
發表于 09-26 12:25
?509次閱讀
大語言模型(LLM)預訓練數據集調研分析
model 訓練完成后,使用 instruction 以及其他高質量的私域數據集來提升 LLM 在特定領域的性能;而 rlhf 是 openAI 用來讓model 對齊人類價值觀的一種強大技術;pre-training dataset 是大
AI大模型和小模型是什么?AI大模型和小模型的區別
隨著人工智能的不斷發展和應用,機器學習模型的大小越來越成為一個重要的問題。在機器學習中,我們通常將模型分為兩類:大模型和小模型。本文將介
發表于 08-08 16:55
?6512次閱讀
最新綜述!當大型語言模型(LLM)遇上知識圖譜:兩大技術優勢互補
LLM 是黑箱模型,缺乏可解釋性,因此備受批評。LLM 通過參數隱含地表示知識。因此,我們難以解釋和驗證 LLM 獲得的知識。此外,LLM
基于Transformer的大型語言模型(LLM)的內部機制
本文旨在更好地理解基于 Transformer 的大型語言模型(LLM)的內部機制,以提高它們的可靠性和可解釋性。 隨著大型語言模型(LLM)在使用和部署方面的不斷增加,打開黑箱并了解
評論