DeepSeek-r1 因其出色的性能在全球社會引起了熱烈的討論。然而,隨著使用者數量激增,加上一些未知領域的網路攻擊,官方服務往往不堪負荷。今天,我就教大家如何零成本打造一個專屬、永不掉線的 AI 助理。

為何選擇私人部署?私人部署有什麼好處? 除了服務的穩定性,私有化部署也讓我們可以完全掌控資料的安全性,並可依需求自由調整參數與擴充功能。目前騰雲所提供的免費 GPU 資源(相當於 RTX 4080 等級、每月 10,000 分鐘、16G 繪圖記憶體的雲端服務)已經綽綽有餘,讓我們不需要投資硬體就能享受流暢的 AI 體驗。 詳細部署步驟如下:

步驟 1:準備工作

參觀 騰雲工作室

以完成註冊和實名驗證。此步驟非常重要,因為只有實名使用者才能獲得免費的 GPU 資源。

您也可以選擇其他雲端服務供應商提供的資源。本文以騰訊雲為例。免費 GPU 資源現已推出

步驟 2:建立工作區

搜尋"Ollama" 在工作區模板選擇介面中,選擇基本類型(免費版)來建立工作區。等待 2-5 分鐘讓初始化完成。

步驟 3:模型部署

在工作區中建立新的終端,並依序執行下列指令:

注意:下載模型約需 10-15 分鐘,視網路狀況而定。下載完成後,您可以直接在終端與 AI 對話。

步驟 4:配置內聯網滲透

為了允許其他裝置存取您的 AI 助手,您需要設定內部網路滲透:

  1. 檢查 Ollama 執行埠
  1. 開始內部網路滲透

注意:6399 是一個範例的連接埠號,請根據上一步的結果進行更換。

執行之後,您會得到一個公共網路存取位址,格式如下:

步驟 5:設定自動重新啟動 (選用但建議使用)

為了維持服務的穩定運作,建議加入自動重新啟動腳本:

步驟 6:組態

以 CherryStudio 為例。如需詳細介紹、

  • 下載並安裝 CherryStudio
  • 在設定中加入新的模型組態:
    • 型號名稱:deepseek-r1:14b
    • 伺服器位址:填入您的 gradio 公共網路位址
    • API 金鑰:留空

效能最佳化提示

想要您的 AI 助理反應更快?試試這些最佳化參數:

常見問題

如果遇到連接埠被佔用的情況:

模型下載中斷:

記憶體不足

提示

  • 免費 GPU 會在每天凌晨 2 點自動進入睡眠狀態。建議避開此時段
  • 內部網路滲透位址會在 72 小時後過期。請記得定期檢查
  • 您可以透過調整 -max-tokens 參數來控制回應的長度,以平衡速度和完整性。
  • 如果您發現回應速度變慢,您可以嘗試重新啟動服務

至此,您自己的 AI 助手已準備就緒。它不僅穩定可靠,而且完全由您掌控。無論是日常寫作、程式編寫或資料分析,您都會有一位能幹的助理為您提供支援。

請記得保管好您的存取位址,如果您對部署過程有任何疑問,歡迎在評論區討論。祝大家在新的一年裡,借助 AI 邁向新的高峰!

類似職位

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *