大家過年期間刷手機的時候,是不是感覺被DeepSeek“霸屏” 了,?這款語言模型,,一經(jīng)發(fā)布直接在全球范圍內爆火,成為頂流,,在熱搜上更是牢牢占據(jù)一席之地,。無論是技術大神,,還是緊跟潮流的技術小白,都被它強大的自然語言處理能力狠狠吸引,,誰不想趕緊上手體驗一把呢,?
作為openKylin系統(tǒng)的用戶,千萬不要錯過這波專屬福利———一份超詳細的在openKylin系統(tǒng)上本地部署并運行DeepSeek-R1開源模型的安裝指南,。手把手教學,,包教包會,讓你輕松開啟這場超燃的技術探索之旅,,趕緊跟著教程操作起來!
第一步:下載并安裝ollama
·方式一:
按照ollama官網(wǎng)的下載指南,,執(zhí)行如下命令:
curl -fsSL https://ollama.com/install.sh | sh
·方式二:
前往github平臺ollama項目自行下載后解壓:
https://github.com/ollama/ollama/releases/tag/v0.5.7
執(zhí)行如下命令進行解壓縮:
sudo tar -C /usr -xzf ollama-linux-amd64.tgz
·方式三:
如以上兩種方式因網(wǎng)絡原因均無法成功下載,,可通過關注openKylin公眾號,回復ollama,,獲取百度網(wǎng)盤鏈接進行下載,。
第二步:啟動ollama服務
執(zhí)行如下命令啟動ollama服務:
ollama serve
然后打開一個新的終端窗口,查看是否已啟動成功,,如下圖所示:
第三步:下載并安裝運行DeepSeek-R1模型
執(zhí)行如下命令下載并安裝運行DeepSeek-R1 1.5b模型:
ollama run deepseek-r1:1.5b
注意:本次演示以1.5b模型為例,,若您的電腦性能更高,可下載安裝DeepSeek-R1更高規(guī)格的模型,,效果更好哦,!具體官方命令如下:
DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B
ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B
ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B
ollama run deepseek-r1:70b
至此,已完成DeepSeek-R1模型的部署,,接下來我們來問它一個問題測試一下:
可以看到,,基于openKylin開源操作系統(tǒng)本地部署的DeepSeek-R1 1.5b模型,在較短時間內即可給出它的分析過程及最終答案,。
通過以上的步驟,,我們成功在openKylin上完成了DeepSeek-R1開源模型的本地部署與運行。希望大家在嘗試的過程中,,不斷挖掘這兩者結合的潛力,,在各自的領域中實現(xiàn)更多創(chuàng)新。如果你在操作過程中有任何疑問或心得,,歡迎在評論區(qū)留言分享,,讓我們共同推動開源技術與人工智能的發(fā)展!OpenAtom openKylin是由開放原子開源基金會孵化及運營的開源項目,,由基礎軟硬件企業(yè),、非營利性組織、社團組織,、高等院校,、科研機構和個人開發(fā)者共同創(chuàng)立,。
社區(qū)以“為世界提供與人工智能技術深度融合的開源操作系統(tǒng)”為愿景,旨在于開源,、自愿,、平等、協(xié)作的基礎上,,共同打造全球領先的智能桌面開源操作系統(tǒng)根社區(qū),,推動Linux開源技術及其軟硬件生態(tài)繁榮發(fā)展。