DeepSeek-r1 因其出色的性能在全球社会引起了热烈讨论。然而,随着用户数量的激增,再加上一些未知领域的网络攻击,官方服务常常不堪重负。今天,笔者就教你如何零成本打造一个专用的、永不掉线的人工智能助手。
为什么选择私人部署?私人部署有哪些好处? 除了服务稳定性,私有化部署还能让我们完全掌控数据安全,并根据需要自由调整参数和扩展功能。目前腾讯云提供的免费GPU资源(相当于RTX 4080级别、每月10000分钟、16G显存的云服务)已经绰绰有余,让我们无需投入硬件即可享受流畅的AI体验。 具体部署步骤如下:
步骤 1:准备工作
参观 腾讯云工作室
以完成注册和实名验证。这一步至关重要,因为只有实名用户才能获得免费 GPU 资源。
您也可以选择其他云服务提供商提供的资源。本文以腾讯云为例。免费 GPU 资源现已推出
步骤 2:创建工作区
搜索"奥拉玛在工作区模板选择界面中选择"",然后选择基本类型(免费版)来创建工作区。等待 2-5 分钟完成初始化。
步骤 3:模型部署
在工作区创建一个新终端,然后依次执行以下命令:
注意:根据网络情况,下载模型大约需要 10-15 分钟。下载完成后,您可以直接在终端上与 AI 对话。
步骤 4:配置内联网渗透
为了允许其他设备访问人工智能助手,您需要配置内网穿透:
- 检查 Ollama 运行端口
- 开始内联网渗透
注:6399 是一个端口号示例,请根据上一步的结果进行替换。
执行后,您将获得一个公共网络访问地址,格式为

第 5 步:设置自动重启(可选但建议使用)
为了保持服务的稳定运行,建议添加自动重启脚本:
步骤 6:配置
以 CherryStudio 为例。如需详细介绍,请点击此处、
- 下载并安装 CherryStudio
- 在设置中添加新的模型配置:
- 型号名称:deepseek-r1:14b
- 服务器地址:填写 gradio 公共网络地址
- 应用程序接口密钥:留空
性能优化提示
想让您的人工智能助手反应更快?试试这些优化参数吧:
常见问题
如果遇到端口被占用的情况:
模型下载中断:
内存不足
小贴士
- 免费 GPU 实例会在每天凌晨 2 点自动进入睡眠状态。建议避开这个时间段
- 内网渗透地址将在 72 小时后失效。请记住定期检查
- 您可以通过调整 -max-tokens 参数来控制响应的长度,从而在速度和完整性之间取得平衡
- 如果发现响应速度变慢,可以尝试重启服务
至此,您自己的人工智能助理就可以开始工作了。它不仅稳定可靠,而且完全由你掌控。无论是日常写作、编程还是数据分析,你都将有一个得力的助手为你提供支持。
如果您对部署过程有任何疑问,欢迎在评论区讨论。祝大家在新的一年里借助人工智能再创辉煌!