色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

OrangePi KunPeng Pro部署AI模型介紹

嵌入式小生 ? 來源:嵌入式小生 ? 2024-11-16 11:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、OrangePi Kunpeng Pro簡介

OrangePi Kunpeng Pro是一款香橙派聯合華為精心打造的高性能板卡,搭載了鯤鵬處理器,可提供8TOPS INT8計算能力,板卡設計很精致,板載資源也非常多:

?擁有以太網Wi-Fi+藍牙功能,提供多種可選擇的網絡接入方式。

? 2個USB3.0 Host、1個支持USB3.0的Type-C接口:可接入鼠標、鍵盤、USB攝像頭等設備,方便板卡操作。

? 2個HDMI接口、1 個 MIPI DSI 2 Lane接口,提供兩種顯示方案。

?引出了40 pin 擴展口,可擴展UARTI2C、SPI、PWM 和 GPIO 等接口功能。板卡完整接口如下圖所示:

6df431fa-9072-11ef-a511-92fbcf53809c.png

板卡擴展出的功能很多,能夠滿足很多應用場景和行業的開發需求,本文將描述使用OrangePi Kunpeng Pro來部署AI大模型,記錄分析模型運行期間板卡的狀態和模型運行效果。

二、環境搭建

(1)首先取出板卡,為板卡接入一個HDMI顯示屏、一個無線藍牙鼠標、一個有線鍵盤,接著接通電源,完成后如下圖所示:

6e24a308-9072-11ef-a511-92fbcf53809c.png

(2)隨后板卡將自動啟動運行openEuler操作系統,接著我們進入終端:

6e526c20-9072-11ef-a511-92fbcf53809c.png

(3)查看下存儲容量:

6e8af194-9072-11ef-a511-92fbcf53809c.png

從上圖可知目前可用容量很大,可滿足小量級離線模型的存儲。

板卡運行openEuler非常流暢,使用體驗感非常好。

(4)選擇網絡接入方式,本文使用Wifi接入。

(5)更改CPU為AI CPU

6eb4ec10-9072-11ef-a511-92fbcf53809c.png

從上圖中可知目前板卡有3個AI CPU和1個control CPU。

接著就進行模型運行環境搭建和模型部署了。

三、模型運行環境搭建

(1)下載Ollama用于啟動并運行大型語言模型

由于在線下載Ollama速度較慢,故而使用手動方式安裝Ollama,首先從下列地址下載Ollama:

https://ollama.com/download/ollama-linux-arm64

6ed951ea-9072-11ef-a511-92fbcf53809c.png

完成后將其通過ssh方式傳輸到板卡。接著將其重名為ollama,便于命令操作,然后將ollama復制到/usr/bin目錄中并賦予可執行權限:

sudochmod+x/usr/bin/ollama

(2)配置ollama系統服務

使用以下命令創建ollama服務描述文件:

sudotouch/etc/systemd/system/ollama.service

并在文件中編輯如下內容:

[Unit]
Description=OllamaService
After=network-online.target

[Service]
ExecStart=/usr/bin/ollamaserve
User=root
Group=root
Restart=always
RestartSec=3

[Install]
WantedBy=default.target

(3)啟動ollama服務

使用下述命令啟動ollama服務:

sudosystemctldaemon-reload
sudosystemctlenableollama

(4)啟動ollama

使用下述命令啟動ollama:

sudosystemctlstartollama

(5)查看ollama運行狀態

使用如下命令查看ollama運行狀態:

systemctlstatusollama.service

6ef59292-9072-11ef-a511-92fbcf53809c.png

從上圖可知目前ollama啟動成功。

四、模型部署

通過上述第三小節的步驟后,Ollama模型運行環境就搭建完成,本小節將部署五個模型:1.8b的qwen、2b的gemma、3.8b的phi3、4b的qwen和7b的llama2,測試OrangePi Kunpeng Pro運行模型的實際效果。模型細節如下表所示:

序號 模型 參數 描述
1 qwen 1.8b Qwen是阿里云開發的大型語言模型,1.8b,1.1GB
2 gemma 2b Gemma是由Google DeepMind構建的一系列輕量級的開放模型,大小1.7GB
3 phi3 3.8b phi3是微軟開發的開放AI模型系列,3.8b為Mini系列,大小2.4GB
4 qwen 4b Qwen是阿里云開發的大型語言模型,4b,大小2.3GB
5 llama2 7b Llama 2是由Meta平臺公司發行的基礎語言模型,大小3.8GB

(1)部署1.8b的qwen

使用ollama run qwen:1.8b部署1.8b的qwen模型:

6f199cdc-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進行問答測試,如下圖所示:

6f313e78-9072-11ef-a511-92fbcf53809c.png

效果:運行1.8b的qwen模型,CPU負載沒有占滿,進行問答測試,回答速度較快,效果很好!

(2)部署2b的gemma

使用ollama run gemma:2b部署2b的gemma模型:

6f67321c-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進行問答測試,如下圖所示:

6f85ad0a-9072-11ef-a511-92fbcf53809c.png

效果:運行2b的gemma模型和運行1.8b的qwen模型效果相似,CPU負載同樣沒有占滿,進行問答測試,回答速度快,效果好!

(3)部署3.8的phi3

使用ollama run phi3:3.8b部署3.8b的phi3模型:

6fb6d8bc-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進行問答測試,如下圖所示:

6fdb60c4-9072-11ef-a511-92fbcf53809c.png

效果:運行3.8b的phi3模型,進行問答測試,回答速度變慢了。

(4)部署4b的qwen

使用ollama run qwen:4b部署4b的qwen模型:

701cdf18-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進行問答測試,如下圖所示:

70679116-9072-11ef-a511-92fbcf53809c.png

效果:運行4b的qwen模型,進行問答測試,回答問題速度明顯變慢:計算生成答案的速度變慢,打印文字的速度也變慢了。

(5)部署7b的llama2

使用ollama run llama2:7b部署7b的llama2模型:

709d60a2-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進行問答測試,如下圖所示:

70b46414-9072-11ef-a511-92fbcf53809c.png

效果:運行7b的llama2模型,CPU滿負載了,進行問答測試,回答問題速度也明顯變得很慢:計算生成答案的速度變慢,打印文字的速度也變慢了。

五、實際效果

上述第四小節描述了運行五個模型的實際使用效果,本小節附上運行2b的gemma模型的效果,如下圖所示:

(注:因gif圖對視頻有所處理,以實際運行效果為準!)

六、總結

OrangePi Kunpeng Pro板卡是一塊擁有較高計算性能的板卡,本文使用該板卡部署了五個模型(以本文所描述模型為參考),對于1.8b和2b量級的模型來說運行效果還可以,體驗較好;對于3.8b和4b量級的模型來說,體驗感有所下降,一是計算生成答案的過程變長,二是文字輸出存在斷續;對于7b量級的模型,體驗感更是降了一個層次,文字輸出存在明顯的斷續了。

體驗感是一個非理性的名詞,因人而異,不同的場景和模型,不同的使用者都可能存在不同的體驗,本文所有內容僅供參考和評測!

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    88

    文章

    34780

    瀏覽量

    277086
  • 板卡
    +關注

    關注

    3

    文章

    133

    瀏覽量

    17162
  • 模型
    +關注

    關注

    1

    文章

    3504

    瀏覽量

    50198

原文標題:玩玩OrangePi KunPeng Pro部署AI模型

文章出處:【微信號:嵌入式小生,微信公眾號:嵌入式小生】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    企業部署AI模型怎么做

    當下,AI模型已成為驅動決策自動化、服務智能化與產品創新的核心引擎。然而,企業面對動輒數百億參數的大模型部署時,常陷入算力不足、響應延遲高、成本失控等困境。如何突破瓶頸,實現高效、穩
    的頭像 發表于 06-04 09:26 ?163次閱讀

    AI端側部署開發(SC171開發套件V3)

    AI端側部署開發(SC171開發套件V3) 序列 課程名稱 視頻課程時長 視頻課程鏈接 課件鏈接 工程源碼 1 Fibo AI Stack模型轉化指南------Docker Desk
    發表于 04-16 18:30

    首創開源架構,天璣AI開發套件讓端側AI模型接入得心應手

    模型庫的限制,聯發科還首發了開源彈性架構。區別于過往的開放接口,只能部署特定架構模型,開放彈性架構允許開發者直接調整平臺源代碼,無需等待芯片廠商的支持,即可完成目標或其他自研大模型輕松
    發表于 04-13 19:52

    如何在RAKsmart服務器上實現企業AI模型部署

    AI模型的訓練與部署需要強大的算力支持、穩定的網絡環境和專業的技術管理。RAKsmart作為全球領先的服務器托管與云計算服務提供商,已成為企業部署A
    的頭像 發表于 03-27 09:46 ?465次閱讀

    AI Agent 應用與項目實戰》閱讀心得3——RAG架構與部署本地知識庫

    則將檢索到的內容與原始查詢結合,生成最終響應。這種設計使得AI系統能夠突破訓練數據的限制,實現知識的動態更新。書中詳細介紹了RAG的完整工作流程:從數據提取開始,通過文本分割將長文檔切分成適當大小
    發表于 03-07 19:49

    香橙派發布OrangePi 5Plus本地部署Deepseek-R1蒸餾模型指南

    在DeepSeek迅速成為行業焦點之際,香橙派昇騰系列產品已經率先完成了與DeepSeek模型的深度適配,通過在邊緣進行離線部署,幫助用戶實現高效端側智能,確保數據處理的安全性和可控性。緊接著,香橙
    的頭像 發表于 02-19 16:14 ?1083次閱讀
    香橙派發布<b class='flag-5'>OrangePi</b> 5Plus本地<b class='flag-5'>部署</b>Deepseek-R1蒸餾<b class='flag-5'>模型</b>指南

    云軸科技ZStack智塔攜手昇騰AI實現DeepSeek模型部署

    DeepSeek V3/R1/ Janus Pro三種模型的高效部署,并充分發揮DeepSeek開源模型和低成本高性能特點,為企業提供安全高效的AI
    的頭像 發表于 02-18 09:59 ?706次閱讀
    云軸科技ZStack智塔攜手昇騰<b class='flag-5'>AI</b>實現DeepSeek<b class='flag-5'>模型</b><b class='flag-5'>部署</b>

    C#集成OpenVINO?:簡化AI模型部署

    什么是OpenVINO 工具套件? OpenVINO 工具套件是一個用于優化和部署人工智能(AI模型,提升AI推理性能的開源工具集合,不僅支持以卷積神經網
    的頭像 發表于 02-17 10:03 ?1906次閱讀
    C#集成OpenVINO?:簡化<b class='flag-5'>AI</b><b class='flag-5'>模型</b><b class='flag-5'>部署</b>

    添越智創基于 RK3588 開發板部署測試 DeepSeek 模型全攻略

    DeepSeek 模型部署與測試,開啟這場充滿挑戰與驚喜的技術探索之旅。 RK3588 開發板:AI 性能擔當 RK3588 開發板基于先進的 8nm LP 制程工藝精心打造,其硬件配置堪稱豪華,在
    發表于 02-14 17:42

    企業AI模型部署攻略

    當下,越來越多的企業開始探索和實施AI模型,以提升業務效率和競爭力。然而,AI模型部署并非易事,需要企業在多個層面進行細致的規劃和準備。下
    的頭像 發表于 12-23 10:31 ?752次閱讀

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    并非易事,它涉及到從選擇合適的算法架構到針對特定硬件平臺進行優化等一系列復雜的工作。 接下來,我們將詳細介紹如何在資源受限的邊緣設備上成功部署目標檢測模型,探索其背后的原理和技術,并討論解決該領域內常見
    發表于 12-19 14:33

    AI模型部署和管理的關系

    AI模型部署與管理是AI項目成功的兩大支柱,它們之間既相互獨立又緊密相連,共同推動著AI技術從實驗室走向實際應用。
    的頭像 發表于 11-21 10:02 ?624次閱讀

    如何在STM32f4系列開發板上部署STM32Cube.AI

    已下載STM32Cube.AI擴展包,但是無法使用,感覺像是沒有部署AI模型,我是想要通過攝像頭拍照,上傳圖像后,經過開發板處理器進行AI
    發表于 11-18 09:39

    企業AI模型部署怎么做

    AI模型部署作為這一轉型過程中的關鍵環節,其成功實施對于企業的長遠發展至關重要。在此,AI部落小編為您介紹企業
    的頭像 發表于 11-04 10:15 ?743次閱讀

    香橙派OrangePi?5 Pro性能全面測試!

    OrangePi5Pro顯然是RaspberryPi5的替代產品。讓我們看看它的價格、性能和可用性如何。OrangePi5Pro的硬件參數我就不具體介紹了,大家可以在香橙
    的頭像 發表于 10-08 15:58 ?1407次閱讀
    香橙派<b class='flag-5'>OrangePi</b>?5 <b class='flag-5'>Pro</b>性能全面測試!
    主站蜘蛛池模板: WWW夜片内射视频在观看视频 | 国产亚洲精品a在线观看app | 男插女高潮一区二区 | 超碰在线vip | 午夜免费福利 | 无羞耻肉动漫在线观看 | 一道精品视频一区二区 | 热久久2018亚洲欧美 | 一二三区乱码不卡手机版 | 色综合久久网女同蕾丝边 | 国产人妻麻豆蜜桃色在线 | 国产精品97久久AV色婷婷 | 一本道亚洲区免费观看 | 噼里啪啦免费观看视频大全 | 老熟女重囗味GRANNYBBW | 2019天天射干 | 国产欧美日韩综合精品一区二区 | 亚洲午夜久久久无码精品网红A片 | 久久永久影院免费 | ass亚洲熟妇毛耸耸pics | 亚洲精品综合在线影院 | 第一次破女视频出血视频 | 天美传媒 免费观看 | 男生插曲女生身全过程 | 4480yy午夜私人影院 | 欧美xxxx性喷潮 | 亚洲欧美综合中文 | 把极品白丝老师啪到腿软 | WWW久久只有这里有精品 | 三级网站视频 | 在线观看视频国产 | 国产 亚洲 中文字幕 在线 | 少妇连续高潮抽搐痉挛昏厥 | 跪趴式啪啪GIF动态图27报 | 浪潮色诱AV久久久久久久 | 国产成A人片在线观看 | 偷拍久久国产视频免费 | 最近免费中文字幕MV在线视频3 | 成人动漫bt种子 | 又长又大又粗又硬3p免费视频 | 秘密教学26我们在做一次吧免费 |