色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何本地部署大模型

openEuler ? 來源:openEuler ? 2023-10-18 11:48 ? 次閱讀

近期,openEuler A-Tune SIG在openEuler 23.09版本引入llama.cpp&chatglm-cpp兩款應(yīng)用,以支持用戶在本地部署和使用免費的開源大語言模型,無需聯(lián)網(wǎng)也能使用!

大語言模型(Large Language Model, LLM)是一種人工智能模型,旨在理解和生成人類語言。它們在大量的文本數(shù)據(jù)上進行訓練,可以執(zhí)行廣泛的任務(wù),包括文本總結(jié)、翻譯、情感分析等等。openEuler通過集成llama.cpp&chatglm-cpp兩款應(yīng)用,降低了用戶使用大模型的門檻,為Build openEuler with AI, for AI, by AI打下堅實基礎(chǔ)。

openEuler技術(shù)委員會主席胡欣慰在OSSUMMIT 2023中的演講

應(yīng)用簡介

1. llama.cpp是基于C/C++實現(xiàn)的英文大模型接口,支持LLaMa/LLaMa2/Vicuna等開源模型的部署;

2. chatglm-cpp是基于C/C++實現(xiàn)的中文大模型接口,支持ChatGlm-6B/ChatGlm2-6B/Baichuan-13B等開源模型的部署。

應(yīng)用特性

這兩款應(yīng)用具有以下特性:

1. 基于ggml的C/C++實現(xiàn);

2. 通過int4/int8等多種量化方式,以及優(yōu)化KV緩存和并行計算等手段實現(xiàn)高效的CPU推理;

3. 無需 GPU,可只用 CPU 運行。

使用指南

用戶可參照下方的使用指南,在openEuler 23.09版本上進行大模型嘗鮮體驗。

llama.cpp使用指南如下圖所示:

e18a53e4-5def-11ee-939d-92fbcf53809c.png

llama.cpp使用指南

正常啟動界面如下圖所示:

e19e0fe2-5def-11ee-939d-92fbcf53809c.png

LLaMa啟動界面

2. chatlm-cpp使用指南如下圖所示:

e1b596e4-5def-11ee-939d-92fbcf53809c.png

chatlm-cpp使用指南

正常啟動界面如下圖所示:

e1dda59e-5def-11ee-939d-92fbcf53809c.png

ChatGLM啟動界面

規(guī)格說明

這兩款應(yīng)用都可以支持在CPU級別的機器上進行大模型的部署和推理,但是模型推理速度對硬件仍有一定的要求,硬件配置過低可能會導致推理速度過慢,降低使用效率。

以下是模型推理速度的測試數(shù)據(jù)表格,可作為不同機器配置下推理速度的參考。

表格中Q4_0,Q4_1,Q5_0,Q5_1代表模型的量化精度;ms/token代表模型的推理速度,含義為每個token推理耗費的毫秒數(shù),該值越小推理速度越快;

e1f9e1aa-5def-11ee-939d-92fbcf53809c.png

表1 LLaMa-7B測試表格

e2079b10-5def-11ee-939d-92fbcf53809c.png

表2 ChatGLM-6B測試表格

歡迎用戶下載體驗,玩轉(zhuǎn)開源大模型,近距離感受AI帶來的技術(shù)革新!

感謝LLaMa、ChatGLM等提供開源大模型等相關(guān)技術(shù),感謝開源項目llama.cpp&chatglm-cpp提供模型輕量化部署等相關(guān)技術(shù)。

審核編輯:湯梓紅
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    47183

    瀏覽量

    238245
  • C++
    C++
    +關(guān)注

    關(guān)注

    22

    文章

    2108

    瀏覽量

    73618
  • openEuler
    +關(guān)注

    關(guān)注

    2

    文章

    312

    瀏覽量

    5860
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2423

    瀏覽量

    2640
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    286

    瀏覽量

    327

原文標題:手把手帶你玩轉(zhuǎn)openEuler | 如何本地部署大模型

文章出處:【微信號:openEulercommunity,微信公眾號:openEuler】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    使用CUBEAI部署tflite模型到STM32F0中,模型創(chuàng)建失敗怎么解決?

    看到CUBE_AI已經(jīng)支持到STM32F0系列芯片,就想拿來入門嵌入式AI。 生成的模型很小,是可以部署到F0上的,但是一直無法創(chuàng)建成功。 查閱CUBE AI文檔說在調(diào)用create函數(shù)前,要啟用
    發(fā)表于 03-15 08:10

    用Ollama輕松搞定Llama 3.2 Vision模型本地部署

    模型
    jf_23871869
    發(fā)布于 :2024年11月18日 19:40:10

    賽思互動:淺析CRM Online與CRM本地部署的區(qū)別

    本地部署解決方案中進行選擇(如果不知道什么是云部署什么是本地部署請自行補腦)。對于兩種解決方案在過渡時間,功能完善性和延展性等問題的思考往
    發(fā)表于 08-04 09:20

    介紹在STM32cubeIDE上部署AI模型的系列教程

    介紹在STM32cubeIDE上部署AI模型的系列教程,開發(fā)板型號STM32H747I-disco,值得一看。MCUAI原文鏈接:【嵌入式AI開發(fā)】篇四|部署篇:STM32cubeIDE上部署
    發(fā)表于 12-14 09:05

    Pytorch模型如何通過paddlelite部署到嵌入式設(shè)備?

    Pytorch模型如何通過paddlelite部署到嵌入式設(shè)備?
    發(fā)表于 12-23 09:38

    通過Cortex來非常方便的部署PyTorch模型

    到軟件中。如何從“跨語言語言模型”轉(zhuǎn)換為谷歌翻譯?在這篇博客文章中,我們將了解在生產(chǎn)環(huán)境中使用 PyTorch 模型意味著什么,然后介紹一種允許部署任何 PyTorch 模型以便在軟件
    發(fā)表于 11-01 15:25

    部署基于嵌入的機器學習模型

    1、如何在生產(chǎn)中部署基于嵌入的機器學習模型  由于最近大量的研究,機器學習模型的性能在過去幾年里有了顯著的提高。雖然這些改進的模型開辟了新的可能性,但是它們只有在可以
    發(fā)表于 11-02 15:09

    如何使用TensorFlow將神經(jīng)網(wǎng)絡(luò)模型部署到移動或嵌入式設(shè)備上

    有很多方法可以將經(jīng)過訓練的神經(jīng)網(wǎng)絡(luò)模型部署到移動或嵌入式設(shè)備上。不同的框架在各種平臺上支持Arm,包括TensorFlow、PyTorch、Caffe2、MxNet和CNTK,如Android
    發(fā)表于 08-02 06:43

    ERP到底該選云部署還是本地部署?兩種模式有什么優(yōu)勢?

    在過去的十余年中,ERP在中國市場經(jīng)歷了蓬勃的發(fā)展,但同時也在與云時代的各類新概念不斷碰撞——“云化”,是每一個ERP廠商和ERP使用者無法回避的話題。那么ERP云部署本地部署兩種模式各有哪些優(yōu)勢
    的頭像 發(fā)表于 09-29 20:29 ?1264次閱讀

    深度學習模型部署方法

    當我們辛苦收集數(shù)據(jù)、數(shù)據(jù)清洗、搭建環(huán)境、訓練模型模型評估測試后,終于可以應(yīng)用到具體場景,但是,突然發(fā)現(xiàn)不知道怎么調(diào)用自己的模型,更不清楚怎么去部署
    的頭像 發(fā)表于 12-01 11:30 ?2176次閱讀

    本地化ChatGPT?Firefly推出基于BM1684X的大語言模型本地部署方案

    API的方式來應(yīng)用,很難本地部署。隨著大模型適用領(lǐng)域的擴展,大模型登陸邊緣設(shè)備的需求凸顯,越來越多的行業(yè)需要把大語言模型應(yīng)用在專業(yè)的領(lǐng)域上
    的頭像 發(fā)表于 09-09 08:02 ?1696次閱讀
    <b class='flag-5'>本地</b>化ChatGPT?Firefly推出基于BM1684X的大語言<b class='flag-5'>模型</b><b class='flag-5'>本地</b><b class='flag-5'>部署</b>方案

    AI PC風潮來臨,2027年達到81%,成為PC市場主流

    結(jié)合聯(lián)想聯(lián)合IDC發(fā)布的首個AI PC產(chǎn)業(yè)白皮書,我們了解到AI PC不僅僅是傳統(tǒng)硬件,更是涵蓋了AI模型及應(yīng)用的綜合性設(shè)備。AI PC具備本地部署的大模型和個人
    的頭像 發(fā)表于 12-13 09:38 ?504次閱讀

    源2.0適配FastChat框架,企業(yè)快速本地部署模型對話平臺

    北京2024年2月28日?/美通社/ -- 近日,浪潮信息Yuan2.0大模型與FastChat框架完成全面適配,推出"企業(yè)快速本地部署模型對話平臺"方案。該方案主要面向金融、法律
    的頭像 發(fā)表于 02-29 09:57 ?804次閱讀
    源2.0適配FastChat框架,企業(yè)快速<b class='flag-5'>本地</b>化<b class='flag-5'>部署</b>大<b class='flag-5'>模型</b>對話平臺

    llm模型本地部署有用嗎

    ,將這些模型部署本地環(huán)境可能會帶來一些挑戰(zhàn)和優(yōu)勢。 1. LLM模型概述 大型語言模型(LLM)通常是基于深度學習的神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-09 10:14 ?477次閱讀

    用Ollama輕松搞定Llama 3.2 Vision模型本地部署

    Ollama 是一個開源的大語言模型服務(wù)工具,它的核心目的是簡化大語言模型(LLMs)的本地部署和運行過程,請參考《Gemma 2+Ollama在算力魔方上幫你在LeetCode解題》
    的頭像 發(fā)表于 11-23 17:22 ?929次閱讀
    用Ollama輕松搞定Llama 3.2 Vision<b class='flag-5'>模型</b><b class='flag-5'>本地</b><b class='flag-5'>部署</b>
    主站蜘蛛池模板: 四虎影视国产精品亚洲精品hd | 小泽玛丽av无码观看| 孕妇bbwbbwbbwbbw超清| 国产成人精品电影| 嫩草成人影院| 伊人色啪啪天天综合婷婷| 国产黄A片在线观看永久免费麻豆| 蜜桃麻豆WWW久久囤产精品免费| 亚洲国产在线精品国偷产拍| 成人动漫bt种子| 免费无码国产欧美久久18| 亚洲一级电影| 国产学生在线播放精品视频| 日本一区精品久久久久影院 | 韩国羞羞秘密教学子开车漫书| 人禽l交视频在线播放 视频| 中文字幕绝色少妇性| 护士12p| 午夜福利在线观看6080| 成人免费视频一区| 欧美xxxx印度| 97午夜理论片影院在线播放| 久久九九有精品国产23百花影院| 亚洲 视频 在线 国产 精品 | 午夜福利体验试看120秒| 嘟嘟嘟WWW在线观看视频高清| 欧美国产在线一区| 91嫩草国产在线观看免费| 可以看的黄页的网站| 一受多攻高h| 精品九九视频| 亚洲色欲国产免费视频| 国模孕妇模特季玥之粉红| 午夜伦伦电影理论片大片| 国产精品v欧美精品v日韩| 色橹| 国产成人一区免费观看| 色拍拍噜噜噜啦啦新网站| 俄罗斯美女性生活| 入禽太深在线观看免费高清| 大中国免费视频大全在线观看|