DeepSeek-r1 因其出色的性能在全球社會引起了熱烈的討論。然而,隨著使用者數量激增,加上一些未知領域的網路攻擊,官方服務往往不堪負荷。今天,我就教大家如何零成本打造一個專屬、永不掉線的 AI 助理。
為何選擇私人部署?私人部署有什麼好處? 除了服務的穩定性,私有化部署也讓我們可以完全掌控資料的安全性,並可依需求自由調整參數與擴充功能。目前騰雲所提供的免費 GPU 資源(相當於 RTX 4080 等級、每月 10,000 分鐘、16G 繪圖記憶體的雲端服務)已經綽綽有餘,讓我們不需要投資硬體就能享受流暢的 AI 體驗。 詳細部署步驟如下:
步驟 1:準備工作
參觀 騰雲工作室
以完成註冊和實名驗證。此步驟非常重要,因為只有實名使用者才能獲得免費的 GPU 資源。
您也可以選擇其他雲端服務供應商提供的資源。本文以騰訊雲為例。免費 GPU 資源現已推出
步驟 2:建立工作區
搜尋"Ollama" 在工作區模板選擇介面中,選擇基本類型(免費版)來建立工作區。等待 2-5 分鐘讓初始化完成。
步驟 3:模型部署
在工作區中建立新的終端,並依序執行下列指令:
注意:下載模型約需 10-15 分鐘,視網路狀況而定。下載完成後,您可以直接在終端與 AI 對話。
步驟 4:配置內聯網滲透
為了允許其他裝置存取您的 AI 助手,您需要設定內部網路滲透:
- 檢查 Ollama 執行埠
- 開始內部網路滲透
注意:6399 是一個範例的連接埠號,請根據上一步的結果進行更換。
執行之後,您會得到一個公共網路存取位址,格式如下:

步驟 5:設定自動重新啟動 (選用但建議使用)
為了維持服務的穩定運作,建議加入自動重新啟動腳本:
步驟 6:組態
以 CherryStudio 為例。如需詳細介紹、
- 下載並安裝 CherryStudio
- 在設定中加入新的模型組態:
- 型號名稱:deepseek-r1:14b
- 伺服器位址:填入您的 gradio 公共網路位址
- API 金鑰:留空
效能最佳化提示
想要您的 AI 助理反應更快?試試這些最佳化參數:
常見問題
如果遇到連接埠被佔用的情況:
模型下載中斷:
記憶體不足
提示
- 免費 GPU 會在每天凌晨 2 點自動進入睡眠狀態。建議避開此時段
- 內部網路滲透位址會在 72 小時後過期。請記得定期檢查
- 您可以透過調整 -max-tokens 參數來控制回應的長度,以平衡速度和完整性。
- 如果您發現回應速度變慢,您可以嘗試重新啟動服務
至此,您自己的 AI 助手已準備就緒。它不僅穩定可靠,而且完全由您掌控。無論是日常寫作、程式編寫或資料分析,您都會有一位能幹的助理為您提供支援。
請記得保管好您的存取位址,如果您對部署過程有任何疑問,歡迎在評論區討論。祝大家在新的一年裡,借助 AI 邁向新的高峰!