注:内容转载于《绿联NAS私有云》公众号
时下最火的AI当属DeepSeek!
这么好用的工具,当然要强强联合!小优今天就为大家带来绿联NAS UGOS Pro系统部署DeepSeek- R1大语言模型教程,让你的工作学习效率UP UP!
【教程准备】
在部署DeepSeek之前,需要安装Ollama。
Ollama是大型语言模型框架,可以理解为AI模型的宿主。
如果需要美观的 UI 界面,需要安装其他应用配合~
本教程我们就通过部署OpenWebUI应用来运行 DeepSeek-R1模型!
Open WebUI是一款可扩展的、功能丰富的用户友好型自托管 Web 界面,旨在完全离线运行。
它支持包括 Ollama 和与 OpenAl 兼容的 API 在内的多种 LLM 运行器。
使用 Docker Compose 部署OpenWebUI容器(集成 Ollama)
在 UGOS Pro 系统中,推荐使用项目 Docker Compose 快速部署容器,适合需同时管理多个容器的场景,这种方法简化了容器的部署与管理工作。
以下是使用 Docker Compose 部署 OpenWebUI 的详细步骤。
打开 Docker 应用,点击【项目】 > 【创建】,启动项目创建向导。

在项目创建向导中,上传 OpenWebUI的Docker Compose 配置文件。(在绿联NAS私有云公众号后台发送【DeepSeek】关键词即可获取。)
上传配置文件后,点击【立即部署】,系统会自动拉取镜像并启动容器。

访问Open WebUI
要访问 Open WebUI 的 Web 界面,请按以下步骤操作:
1.局域网内打开浏览器,访问部署地址,进入登录页面后点击开始使用。

2.初次访问需创建管理员账号,设置用户名、邮箱及密码。

3.使用新建的账号登录。
注意:初次访问页面时,可能会遇到内部错误或连接被拒的情况,请稍候分钟再尝试加载。
界面空白问题
登录时,界面可能暂时显示为空白状态,这是由于正在后台加载数据。您可以通过查看日志文件来确认加载进度和状态。

4.成功登录后,将进入主界面。

下载和部署Deepseek-R1模型
1.前往 Ollama 官网:https://ollama.com下载模型,点击左上角 “Models” 。

2.选择“deepseek-r1”模型,点击进入查看详情。

界面空白排查:
1.进入 UGOS Pro 的 Docker 应用。
2.点击【容器】 > 选中 Open WebUI 容器 > 点击【日志】。
请检查日志中是否包含模型加载的进度信息,如 "get_all_models" 或 "Loading models" 等提示。
若日志显示正常加载,请等待1-2分钟,页面将自动刷新并恢复正常;若出现错误提示,则根据日志信息进行问题排查。
DeepSeek-R1各版本硬件要求和使用说明:
●1.5b 大小的模型通常至少需要 8GB RAM,针对边缘设备上的快速推理进行优化的轻量级版本。
●7b 大小的模型通常至少需要 16GB RAM,适用于通用推理任务的平衡模型。
●8b 大小的模型通常至少需要 32GB RAM,有更高的准确性和更好的上下文理解。
●14b 大小的模型通常至少需要 64GB RAM,推理和解决问题的能力得到提高。
●32b 大小的模型通常至少需要 128GB RAM,更强的逻辑分析和更精细的逐步输出。
●70b 大小的模型通常需要至少 256GB RAM,适用于高级人工智能驱动应用程序的高端版本。
●671b 大小的模型通常需要至少 512GB RAM ,专家混合 (MoE) 模型,每个令牌激活 370 亿个参数,以实现最先进的推理性能。
3.这里建议根据 NAS 硬件配置选择模型大小,不指定的话默认是 7B,本教程使用的设备是DXP480T Plus,采用Intel i5 1235u处理器,我们选择 1.5B 大小的模型。

4.复制旁边的拉取命令

5.登录 Open WebUI 的 Web 界面,点击左上角搜索输入模型名称(例如:ollama run deepseek-r1:1.5b) 直接下载使用。

6.(可选)或返回 UGOS Pro 的 Docker 应用,进入【容器】 > 选中 Open WebUI 容器 > 点击【终端】 > 新增 Bash 连接。

7.(可选)在 Bash 终端中粘贴拉取以下命令,等待模型下载完成。
ollama run deepseek-r1:1.5b

8.(可选)显示success说明模型下载完成,重启容器。
9.(可选)登录Open WebUI,确认模型是否已加载。

使用DeepSeek-R1模型
在新对话中使用模型,输入“ hello world ”或其他问题,可以看到已经能使用了。

请注意:部署大模型会显著增加 NAS 的 CPU 和内存负载,建议避免在高负载任务中使用。

注意事项请注意,
本教程中的镜像由第三方开发和维护,教程仅供参考。绿联不承担因用户操作不当、第三方软件漏洞或镜像更新引发的风险,包括但不限于:
· 第三方镜像可能导致您在 UGOS Pro 系统中的文件意外修改或删除。
· 使用不安全的镜像可能导致数据上传至第三方服务器,存在隐私和数据泄露风险。
· 为确保系统稳定和数据安全,请谨慎选择可信来源的第三方镜像。
其他注意事项:
1. 容器的文件/文件夹路径仅供参考,您可以根据个人习惯创建。
2. 网页访问的容器端口和本地端口应保持一致。如有冲突,请改为未使用的端口。容器之间的本地端口不能相同,端口冲突会导致无法启动容器。
3. 容器的网页链接仅在 bridge 桥接模式下可访问。
4. 镜像仅提供搭建教程,具体使用方法和深度玩法请网上搜索参考。
5. 镜像由第三方开发,具体配置变动和 bug 修复请关注相关官方信息。
6. 建议将 Docker 配置目录存储在 SSD 硬盘中,以避免机械硬盘影响系统性能。
时下最火的AI当属DeepSeek!
这么好用的工具,当然要强强联合!小优今天就为大家带来绿联NAS UGOS Pro系统部署DeepSeek- R1大语言模型教程,让你的工作学习效率UP UP!
【教程准备】
在部署DeepSeek之前,需要安装Ollama。
Ollama是大型语言模型框架,可以理解为AI模型的宿主。
如果需要美观的 UI 界面,需要安装其他应用配合~
本教程我们就通过部署OpenWebUI应用来运行 DeepSeek-R1模型!
Open WebUI是一款可扩展的、功能丰富的用户友好型自托管 Web 界面,旨在完全离线运行。
它支持包括 Ollama 和与 OpenAl 兼容的 API 在内的多种 LLM 运行器。
使用 Docker Compose 部署OpenWebUI容器(集成 Ollama)
在 UGOS Pro 系统中,推荐使用项目 Docker Compose 快速部署容器,适合需同时管理多个容器的场景,这种方法简化了容器的部署与管理工作。
以下是使用 Docker Compose 部署 OpenWebUI 的详细步骤。
打开 Docker 应用,点击【项目】 > 【创建】,启动项目创建向导。

在项目创建向导中,上传 OpenWebUI的Docker Compose 配置文件。(在绿联NAS私有云公众号后台发送【DeepSeek】关键词即可获取。)
上传配置文件后,点击【立即部署】,系统会自动拉取镜像并启动容器。

访问Open WebUI
要访问 Open WebUI 的 Web 界面,请按以下步骤操作:
1.局域网内打开浏览器,访问部署地址,进入登录页面后点击开始使用。

2.初次访问需创建管理员账号,设置用户名、邮箱及密码。

3.使用新建的账号登录。

注意:初次访问页面时,可能会遇到内部错误或连接被拒的情况,请稍候分钟再尝试加载。
界面空白问题
登录时,界面可能暂时显示为空白状态,这是由于正在后台加载数据。您可以通过查看日志文件来确认加载进度和状态。

4.成功登录后,将进入主界面。

下载和部署Deepseek-R1模型
1.前往 Ollama 官网:https://ollama.com下载模型,点击左上角 “Models” 。

2.选择“deepseek-r1”模型,点击进入查看详情。

界面空白排查:
1.进入 UGOS Pro 的 Docker 应用。
2.点击【容器】 > 选中 Open WebUI 容器 > 点击【日志】。
请检查日志中是否包含模型加载的进度信息,如 "get_all_models" 或 "Loading models" 等提示。
若日志显示正常加载,请等待1-2分钟,页面将自动刷新并恢复正常;若出现错误提示,则根据日志信息进行问题排查。
DeepSeek-R1各版本硬件要求和使用说明:
●1.5b 大小的模型通常至少需要 8GB RAM,针对边缘设备上的快速推理进行优化的轻量级版本。
●7b 大小的模型通常至少需要 16GB RAM,适用于通用推理任务的平衡模型。
●8b 大小的模型通常至少需要 32GB RAM,有更高的准确性和更好的上下文理解。
●14b 大小的模型通常至少需要 64GB RAM,推理和解决问题的能力得到提高。
●32b 大小的模型通常至少需要 128GB RAM,更强的逻辑分析和更精细的逐步输出。
●70b 大小的模型通常需要至少 256GB RAM,适用于高级人工智能驱动应用程序的高端版本。
●671b 大小的模型通常需要至少 512GB RAM ,专家混合 (MoE) 模型,每个令牌激活 370 亿个参数,以实现最先进的推理性能。
3.这里建议根据 NAS 硬件配置选择模型大小,不指定的话默认是 7B,本教程使用的设备是DXP480T Plus,采用Intel i5 1235u处理器,我们选择 1.5B 大小的模型。

4.复制旁边的拉取命令

5.登录 Open WebUI 的 Web 界面,点击左上角搜索输入模型名称(例如:ollama run deepseek-r1:1.5b) 直接下载使用。

6.(可选)或返回 UGOS Pro 的 Docker 应用,进入【容器】 > 选中 Open WebUI 容器 > 点击【终端】 > 新增 Bash 连接。

7.(可选)在 Bash 终端中粘贴拉取以下命令,等待模型下载完成。
ollama run deepseek-r1:1.5b

8.(可选)显示success说明模型下载完成,重启容器。
9.(可选)登录Open WebUI,确认模型是否已加载。

使用DeepSeek-R1模型
在新对话中使用模型,输入“ hello world ”或其他问题,可以看到已经能使用了。

请注意:部署大模型会显著增加 NAS 的 CPU 和内存负载,建议避免在高负载任务中使用。

注意事项请注意,
本教程中的镜像由第三方开发和维护,教程仅供参考。绿联不承担因用户操作不当、第三方软件漏洞或镜像更新引发的风险,包括但不限于:
· 第三方镜像可能导致您在 UGOS Pro 系统中的文件意外修改或删除。
· 使用不安全的镜像可能导致数据上传至第三方服务器,存在隐私和数据泄露风险。
· 为确保系统稳定和数据安全,请谨慎选择可信来源的第三方镜像。
其他注意事项:
1. 容器的文件/文件夹路径仅供参考,您可以根据个人习惯创建。
2. 网页访问的容器端口和本地端口应保持一致。如有冲突,请改为未使用的端口。容器之间的本地端口不能相同,端口冲突会导致无法启动容器。
3. 容器的网页链接仅在 bridge 桥接模式下可访问。
4. 镜像仅提供搭建教程,具体使用方法和深度玩法请网上搜索参考。
5. 镜像由第三方开发,具体配置变动和 bug 修复请关注相关官方信息。
6. 建议将 Docker 配置目录存储在 SSD 硬盘中,以避免机械硬盘影响系统性能。