如何在本地运行 DeepSeek R1:全面指南
大约 4 分钟
如何在本地运行 DeepSeek R1:全面指南
DeepSeek R1 是一个强大的开源 AI 模型,在语言处理领域中脱颖而出。它能够执行类似于高级人类能力的推理任务,使其成为开发者、研究人员和 AI 爱好者的理想选择。在本地运行 DeepSeek R1 使用户能够控制自己的数据,同时享受更低的延迟。本指南将带您了解在本地计算机上设置和运行 DeepSeek R1 的基本步骤,无论您使用的是 Mac、Windows 还是 Linux。
为什么要在本地运行 DeepSeek?
本地运行 DeepSeek 提供了几个优势:
- 数据隐私:您可以完全控制自己的数据,而无需依赖第三方服务器。
- 成本节省:避免与云服务相关的潜在费用。
- 可定制性:根据您的具体需求调整模型。
运行 DeepSeek R1 的先决条件
在开始之前,请确保您的计算机满足以下最低硬件要求:
- 存储:足够的磁盘空间以容纳模型大小。
- RAM:根据模型大小,您可能需要高达 161 GB 的 RAM。
- GPU:建议使用一款强大的 NVIDIA GPU,因为某些模型大小需要多 GPU 设置。
模型大小比较
以下是不同 DeepSeek R1 模型及其要求的快速概述:
模型 | 参数 (B) | 磁盘空间 | RAM | 推荐 GPU |
---|---|---|---|---|
DeepSeek-R1-Distill-Qwen-1.5B | 1.5B | 1.1 GB | ~3.5 GB | NVIDIA RTX 3060 12GB 或更高 |
DeepSeek-R1-Distill-Qwen-7B | 7B | 4.7 GB | ~16 GB | NVIDIA RTX 4080 16GB 或更高 |
DeepSeek-R1-Distill-Qwen-14B | 14B | 9 GB | ~32 GB | 多 GPU 设置 |
DeepSeek-R1 | 671B | 404 GB | ~1,342 GB | 多 GPU 设置 |
建议从较小的模型开始,特别是如果您是第一次在本地运行 AI 模型。
方法 1:使用 Ollama 安装 DeepSeek R1
步骤 1:安装 Ollama
- 访问 Ollama 网站 并下载适合您操作系统的安装程序。
- 按照安装说明进行操作。
- 通过运行以下命令测试是否正确安装:
ollama --version
步骤 2:下载并运行 DeepSeek R1 模型
- 在终端中运行命令以安装模型(适当替换
[model size]
):ollama run deepseek-r1:[model size]
- 等待模型下载并开始运行。
步骤 3:安装 Chatbox 以获得用户友好的界面
- 从其官方网站下载 Chatbox,并按照安装说明进行操作。
- 在设置中将模型提供者设置为 Ollama,将 API 主机设置为
http://127.0.0.1:11434
,以开始与模型交互。
方法 2:使用 Docker
Docker 提供了一个可靠的环境,并简化了安装过程。
步骤 1:安装 Docker
- 从 官方 Docker 网站 下载并安装 Docker Desktop。
- 打开 Docker 应用程序,并在必要时登录。
步骤 2:拉取 DeepSeek Docker 镜像
在终端中运行以下命令:
docker pull ghcr.io/open-webui/open-webui:main
步骤 3:运行 Docker 容器
执行以下命令以启动容器:
docker run -d -p 9783:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
步骤 4:打开 Web 界面
打开您的浏览器并导航到 http://localhost:9783/
以访问界面。
方法 3:使用 LM Studio
LM Studio 适合那些不想使用终端的用户。
- 从其官方网站下载 LM Studio 并安装。
- 在应用程序中搜索 DeepSeek R1 模型并下载。
- 下载完成后,您可以通过应用程序直接与模型交互。
最后想法
DeepSeek R1 为自然语言处理任务提供了强大的能力,并在推理方面表现出色。无论您是初学者还是高级用户,都有多种安装方法可供选择,以满足您的技术舒适度。如果您刚刚开始,考虑尝试 Ollama,因为它简单易用,而 Docker 对于更有经验的用户来说是一个很好的选择。无论您选择哪种方式,DeepSeek R1 都可以通过本地运行显著提升您的 AI 项目。