DeepSeek-r1 因其出色的性能在全球社会引起了热烈讨论。然而,随着用户数量的激增,再加上一些未知领域的网络攻击,官方服务常常不堪重负。今天,笔者就教你如何零成本打造一个专用的、永不掉线的人工智能助手。

为什么选择私人部署?私人部署有哪些好处? 除了服务稳定性,私有化部署还能让我们完全掌控数据安全,并根据需要自由调整参数和扩展功能。目前腾讯云提供的免费GPU资源(相当于RTX 4080级别、每月10000分钟、16G显存的云服务)已经绰绰有余,让我们无需投入硬件即可享受流畅的AI体验。 具体部署步骤如下:

步骤 1:准备工作

参观 腾讯云工作室

以完成注册和实名验证。这一步至关重要,因为只有实名用户才能获得免费 GPU 资源。

您也可以选择其他云服务提供商提供的资源。本文以腾讯云为例。免费 GPU 资源现已推出

步骤 2:创建工作区

搜索"奥拉玛在工作区模板选择界面中选择"",然后选择基本类型(免费版)来创建工作区。等待 2-5 分钟完成初始化。

步骤 3:模型部署

在工作区创建一个新终端,然后依次执行以下命令:

注意:根据网络情况,下载模型大约需要 10-15 分钟。下载完成后,您可以直接在终端上与 AI 对话。

步骤 4:配置内联网渗透

为了允许其他设备访问人工智能助手,您需要配置内网穿透:

  1. 检查 Ollama 运行端口
  1. 开始内联网渗透

注:6399 是一个端口号示例,请根据上一步的结果进行替换。

执行后,您将获得一个公共网络访问地址,格式为

第 5 步:设置自动重启(可选但建议使用)

为了保持服务的稳定运行,建议添加自动重启脚本:

步骤 6:配置

以 CherryStudio 为例。如需详细介绍,请点击此处、

  • 下载并安装 CherryStudio
  • 在设置中添加新的模型配置:
    • 型号名称:deepseek-r1:14b
    • 服务器地址:填写 gradio 公共网络地址
    • 应用程序接口密钥:留空

性能优化提示

想让您的人工智能助手反应更快?试试这些优化参数吧:

常见问题

如果遇到端口被占用的情况:

模型下载中断:

内存不足

小贴士

  • 免费 GPU 实例会在每天凌晨 2 点自动进入睡眠状态。建议避开这个时间段
  • 内网渗透地址将在 72 小时后失效。请记住定期检查
  • 您可以通过调整 -max-tokens 参数来控制响应的长度,从而在速度和完整性之间取得平衡
  • 如果发现响应速度变慢,可以尝试重启服务

至此,您自己的人工智能助理就可以开始工作了。它不仅稳定可靠,而且完全由你掌控。无论是日常写作、编程还是数据分析,你都将有一个得力的助手为你提供支持。

如果您对部署过程有任何疑问,欢迎在评论区讨论。祝大家在新的一年里借助人工智能再创辉煌!

类似职位

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注