<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

英特爾集成顯卡+ChatGLM3大語言模型的企業本地AI知識庫部署

英特爾物聯網 ? 來源:英特爾物聯網 ? 2024-03-29 11:07 ? 次閱讀

前言

在當今的企業環境中,信息的快速獲取和處理對于企業的成功至關重要。為了滿足這一需求,我們可以將RAG技術與企業本地知識庫相結合,以提供實時的、自動生成的信息處理和決策支持。這將有助于企業更好地應對快速變化的市場環境,提高企業的競爭力和創新能力。

企業本地知識庫是一個集中存儲和管理企業內部知識的系統。它包含了企業的歷史數據、經驗教訓、最佳實踐、流程文檔、產品信息等。企業本地知識庫是企業智慧的結晶,對于企業的運營和發展具有重要意義。

將RAG技術與企業本地知識庫相結合,可以為企業帶來以下幾個方面的優勢:

1

實時性

RAG技術可以實時地從企業本地知識庫中提取相關信息,并生成用戶所需的內容。這意味著用戶可以快速地獲取到最新的知識和信息,而不需要花費大量時間去查找和整理。

2

自動化

RAG技術可以自動地處理和生成內容,減少了人工干預的需求。這不僅可以提高企業的效率,還可以減少人為錯誤的發生。

3

個性化和定制化

RAG技術可以根據用戶的需求和偏好,生成個性化的內容。通過與企業本地知識庫的結合,可以提供更加精準和有針對性的信息,滿足不同用戶的需求。

4

知識共享和傳承

企業本地知識庫是一個集中存儲和共享知識的平臺。通過與RAG技術的結合,可以將這些知識快速地傳遞給需要的用戶,促進知識的共享和傳承。

1

RAG簡介

RAG - Retrieval-Augmented Generation(檢索增強生成)是一種先進的自然語言處理(NLP)技術,它結合了信息檢索(Retrieval)和神經網絡生成(Generation)兩種方法,以提升模型在生成文本時的準確性和相關性。在傳統的生成模型中,模型依據自身學習到的知識庫生成文本。然而,這種方法受限于模型訓練時所接觸到的數據范圍,特別是在處理未見的、需要實時查找新信息的場景時,可能無法生成最新或最準確的內容。

RAG模型通過引入一個檢索組件,在接收到輸入問題或任務后,首先從大規模預定義的知識庫(如網頁、文檔集合或其他結構化/非結構化數據源)中檢索與任務相關的信息片段。然后,檢索到的信息作為額外的上下文輸入,與原始輸入一起傳遞給生成模型。生成模型在此基礎上,利用檢索到的信息以及自身的語言模型能力,生成更為精確、詳盡且與現實世界信息保持同步的回答或文本內容。

簡單來說,RAG模型就是在傳統生成模型的基礎上增加了一個動態獲取外部知識的能力,這樣既保留了大模型生成連貫文本的優點,又解決了由于模型記憶限制導致的知識更新和準確性不足的問題,尤其適用于問答系統、對話系統及需要實時更新信息的自然語言處理任務。

504d318a-ece7-11ee-a297-92fbcf53809c.png

2

OpenVINO Notebook簡介

OpenVINO Notebooks是一套以Jupyter Notebook為載體的開源交互式編程教程和示例代碼合集,由英特爾公司開發和維護。這套資源專為使用 OpenVINO 工具套件的開發者設計,旨在幫助他們更快地理解和掌握如何利用 OpenVINO 進行深度學習模型的優化與推理及實際部署AI在各式業務應用場景里面。

50752faa-ece7-11ee-a297-92fbcf53809c.png

3

部署平臺簡介

算力魔方是一款可以DIY的迷你主機,采用了抽屜式設計,后續組裝、升級、維護只需要拔插模塊。通過選擇計算模塊的版本,再搭配不同額 IO 模塊可以組成豐富的配置,適應不同場景。性能不夠時,可以升級計算模塊提升算力, 如需要顯卡可加上顯卡, IO 接口不匹配時,可以更換 IO 模塊調整功能,而無需重構整個系統。本文在帶有英特爾12代酷睿i7-1265U芯片組里的銳炬 Xe集成顯卡+RAM 32GB的算力魔方上完成驗證。

4

在集成顯卡上部署RAG

4.1

搭建OpenVINO Notebooks開發環境

第一步:請使用下面的命令克隆存儲庫創建并激活名為“openvino_env”的虛擬環境

git clone https://github.com/openvinotoolkit/openvino_notebooks.git
cd openvino_notebooks
conda create -n openvino_env python=3.9

50b015a2-ece7-11ee-a297-92fbcf53809c.png

第二步:請使用下面的命令激活虛擬環境并安裝依賴包,并啟動Jupyter Notebooks

conda activate openvino_env
pip install -r requirements.txt

511c6d4c-ece7-11ee-a297-92fbcf53809c.png

jupyter lab notebooks

5143f5f6-ece7-11ee-a297-92fbcf53809c.png

4.2

下載模型到本地

請使用命令將ChatGLM3 6B和text2vec模型下載到本地

git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git

51638e98-ece7-11ee-a297-92fbcf53809c.png

git clone https://www.modelscope.cn/Jerry0/text2vec-large-chinese.git

5179773a-ece7-11ee-a297-92fbcf53809c.png

4.3

運行254-rag-chatbot程序

請運行Notebooks里面的代碼模塊, 注意!! 國內用戶請勿運行模塊1,從模塊2開始一步步運行代碼到NNCF模塊,模型壓縮選擇int4并按照下圖一及二圖修改notebooks 254里的代碼引導程序指定對應的模型路徑完成ChatGLM3-6b模型int 4量化及部署

519b22c2-ece7-11ee-a297-92fbcf53809c.png

圖一

51b0f96c-ece7-11ee-a297-92fbcf53809c.png

圖二

text2vec-large-chinese 模型部署

51d88414-ece7-11ee-a297-92fbcf53809c.png

運行結果,如下所示:本地知識庫已成功加入ChatGLM 6B模型里并精確回答問題

51f27da6-ece7-11ee-a297-92fbcf53809c.png

運行視頻.avi

5

總結

將RAG技術與企業本地知識庫相結合,可以為企業提供實時、自動化、個性化和定制化的信息處理和決策支持。這將有助于企業更好地應對快速變化的市場環境,提高企業的競爭力和創新能力。

利用OpenVINO 工具套件簡單易用,僅需三步即可在算力魔方完成開發環境搭建及模型的INT4量化且在英特爾集成顯卡上的部署實現RAG企業本地知識庫部署。




審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英特爾
    +關注

    關注

    60

    文章

    9496

    瀏覽量

    169186
  • 深度學習
    +關注

    關注

    73

    文章

    5249

    瀏覽量

    120006
  • 大模型
    +關注

    關注

    2

    文章

    1656

    瀏覽量

    1281
  • OpenVINO
    +關注

    關注

    0

    文章

    61

    瀏覽量

    96

原文標題:英特爾集成顯卡+ChatGLM3大語言模型的企業本地AI知識庫部署 | 開發者實戰

文章出處:【微信號:英特爾物聯網,微信公眾號:英特爾物聯網】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    【AIBOX】裝在小盒子的AI足夠強嗎?

    Firefly推出大語言模型本地部署的產品:AIBOX-1684X,目前已適配主流的大語言模型,
    的頭像 發表于 05-15 08:02 ?83次閱讀
    【AIBOX】裝在小盒子的<b class='flag-5'>AI</b>足夠強嗎?

    華擎推出AI QuickSet軟件,支持英特爾銳炫Arc A系列顯卡

    今日,華擎宣布將AI QuickSet軟件工具擴展至英特爾銳炫Arc A系列顯卡,使其能夠便捷地安裝Stable Diffusion web UI OpenVINO,結合英特爾Open
    的頭像 發表于 05-11 10:58 ?270次閱讀

    簡單三步使用OpenVINO?搞定ChatGLM3本地部署

    英特爾 OpenVINO? 工具套件是一款開源 AI 推理優化部署的工具套件,可幫助開發人員和企業加速生成式人工智能 (AIGC)、大語言
    的頭像 發表于 04-03 18:18 ?1202次閱讀
    簡單三步使用OpenVINO?搞定<b class='flag-5'>ChatGLM3</b>的<b class='flag-5'>本地</b><b class='flag-5'>部署</b>

    三步完成在英特爾獨立顯卡上量化和部署ChatGLM3-6B模型

    ChatGLM3 是智譜 AI 和清華大學 KEG 實驗室聯合發布的新一代對話預訓練模型。ChatGLM3-6B 是 ChatGLM3 系列
    的頭像 發表于 01-11 18:04 ?1051次閱讀
    三步完成在<b class='flag-5'>英特爾</b>獨立<b class='flag-5'>顯卡</b>上量化和<b class='flag-5'>部署</b><b class='flag-5'>ChatGLM</b>3-6B<b class='flag-5'>模型</b>

    ChatGLM3-6B在CPU上的INT4量化和部署

    ChatGLM3 是智譜 AI 和清華大學 KEG 實驗室聯合發布的新一代對話預訓練模型。ChatGLM3-6B 是 ChatGLM3 系列
    的頭像 發表于 01-05 09:36 ?581次閱讀
    <b class='flag-5'>ChatGLM</b>3-6B在CPU上的INT4量化和<b class='flag-5'>部署</b>

    【愛芯派 Pro 開發板試用體驗】在愛芯派部署ChatGLM3(一)

    ChatGLM3是由智譜AI和清華大學KEG實驗室聯合發布的第三代大型語言模型,是基于GLM-130B的對話微調版本,國內首個全線對標OpenAI產品線,官網:https://
    發表于 12-17 22:54

    集成顯卡和獨立顯卡有什么區別?

    集成顯卡和獨立顯卡有什么區別? 集成顯卡和獨立顯卡是兩種不同的圖形處理單元,它們在計算機圖形處理方面具有一些顯著的區別。本文將詳盡、詳實、細致地介紹這兩種
    的頭像 發表于 12-11 15:31 ?820次閱讀

    #高通 #英特爾 #Elite 高通X Elite芯片或終結蘋果、英特爾的芯片王朝

    高通英特爾蘋果
    深圳市浮思特科技有限公司
    發布于 :2023年10月27日 16:46:07

    如何本地部署模型

    近期,openEuler A-Tune SIG在openEuler 23.09版本引入llama.cpp&chatglm-cpp兩款應用,以支持用戶在本地部署和使用免費的開源大語言
    的頭像 發表于 10-18 11:48 ?1807次閱讀
    如何<b class='flag-5'>本地</b><b class='flag-5'>部署</b>大<b class='flag-5'>模型</b>

    酷睿輕薄本也能運行大語言模型,英特爾推動 PC 生成式 AI 落地

    展示了他們在 AIGC 上的技術方向,并進行了多個應用的演示。 首先,英特爾介紹了他們在大語言模型方面的優化和支持。在我們傳統的認知里,運行類似 ChatGPT 這種大語言
    的頭像 發表于 08-25 09:26 ?793次閱讀
    酷睿輕薄本也能運行大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>,<b class='flag-5'>英特爾</b>推動 PC 生成式 <b class='flag-5'>AI</b> 落地

    一個簡單模型就讓ChatGLM性能大幅提升 | 最“in”大模型

    引言 自大語言模型 (LLM) 成為熱點話題以來,涌現了一大批中文大語言模型并在優化平臺中得到了積極部署。
    的頭像 發表于 08-19 11:15 ?519次閱讀
    一個簡單<b class='flag-5'>模型</b>就讓<b class='flag-5'>ChatGLM</b>性能大幅提升 | 最“in”大<b class='flag-5'>模型</b>

    Ai 部署的臨界考慮電子指南

    雖然GPU解決方案對訓練,AI部署需要更多。 預計到2020年代中期,人工智能行業將增長到200億美元,其中大部分增長是人工智能推理。英特爾Xeon可擴展處理器約占運行AI推理的處理器
    發表于 08-04 07:25

    英特爾媒體加速器參考軟件Linux版用戶指南

    英特爾媒體加速器參考軟件是用于數字標志、交互式白板(IWBs)和亭位使用模型的參考媒體播放器應用軟件,它利用固定功能硬件加速來提高媒體流速、改進工作量平衡和資源利用,以及定制的圖形處理股(GPU)管道解決方案。該用戶指南將介紹和解釋如何為Linux* 使用
    發表于 08-04 06:34

    ChatGLM-6B的局限和不足

    基于ChatGLM-6B 部署本地私有化ChatGPT 一、開源模型 1、ChatGLM-6B介紹 清華大學
    的頭像 發表于 06-25 11:50 ?4897次閱讀
    <b class='flag-5'>ChatGLM</b>-6B的局限和不足

    顯卡獨立顯卡集成顯卡的區別

    顯卡獨立顯卡集成顯卡的區別 獨立顯卡集成顯卡之間最大的區別在于其顯存是獨立的還是共享的。獨立顯卡
    的頭像 發表于 06-01 10:38 ?1702次閱讀
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>