如何在本地運行 DeepSeek R1:全面指南
大约 4 分鐘
如何在本地運行 DeepSeek R1:全面指南
DeepSeek R1 是一個強大的開源 AI 模型,在語言處理領域中脫穎而出。它能夠執行類似於高級人類能力的推理任務,使其成為開發者、研究人員和 AI 愛好者的理想選擇。在本地運行 DeepSeek R1 使得用戶能夠控制自己的數據,同時享受更低的延遲。本指南將帶您了解在本地機器上設置和運行 DeepSeek R1 的基本步驟,無論您使用的是 Mac、Windows 還是 Linux。
為什麼要在本地運行 DeepSeek?
在本地運行 DeepSeek 提供了幾個優勢:
- 數據隱私:您可以完全控制自己的數據,而無需依賴第三方伺服器。
- 成本節省:避免與雲服務相關的潛在費用。
- 可定制性:根據您的具體需求調整模型。
運行 DeepSeek R1 的先決條件
在開始之前,請確保您的機器符合以下最低硬體要求:
- 儲存空間:足夠的磁碟空間以容納模型大小。
- RAM:根據模型大小,您可能需要高達 161 GB 的 RAM。
- GPU:建議使用一個能夠的 NVIDIA GPU,因為某些模型大小需要多 GPU 設置。
模型大小比較
以下是不同 DeepSeek R1 模型及其要求的快速概覽:
模型 | 參數 (B) | 磁碟空間 | RAM | 推薦 GPU |
---|---|---|---|---|
DeepSeek-R1-Distill-Qwen-1.5B | 1.5B | 1.1 GB | ~3.5 GB | NVIDIA RTX 3060 12GB 或更高 |
DeepSeek-R1-Distill-Qwen-7B | 7B | 4.7 GB | ~16 GB | NVIDIA RTX 4080 16GB 或更高 |
DeepSeek-R1-Distill-Qwen-14B | 14B | 9 GB | ~32 GB | 多 GPU 設置 |
DeepSeek-R1 | 671B | 404 GB | ~1,342 GB | 多 GPU 設置 |
建議從較小的模型開始,特別是如果您是第一次在本地運行 AI 模型。
方法 1:使用 Ollama 安裝 DeepSeek R1
步驟 1:安裝 Ollama
- 訪問 Ollama 網站 並下載適合您操作系統的安裝程式。
- 按照安裝說明進行操作。
- 通過運行以下命令測試是否正確安裝:
ollama --version
步驟 2:下載並運行 DeepSeek R1 模型
- 在終端中運行命令以安裝模型(適當替換
[model size]
):ollama run deepseek-r1:[model size]
- 等待模型下載並開始運行。
步驟 3:安裝 Chatbox 以獲得用戶友好的界面
- 從官方網站下載 Chatbox 並按照安裝說明進行操作。
- 在設置中將模型提供者設置為 Ollama,API 主機設置為
http://127.0.0.1:11434
,以開始與模型互動。
方法 2:使用 Docker
Docker 提供了一個可靠的環境並簡化了安裝過程。
步驟 1:安裝 Docker
- 從 官方 Docker 網站 下載並安裝 Docker Desktop。
- 打開 Docker 應用程式,必要時登錄。
步驟 2:拉取 DeepSeek Docker 映像
在終端中運行以下命令:
docker pull ghcr.io/open-webui/open-webui:main
步驟 3:運行 Docker 容器
執行此命令以啟動容器:
docker run -d -p 9783:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
步驟 4:打開 Web UI
打開您的瀏覽器並導航至 http://localhost:9783/
以訪問界面。
方法 3:使用 LM Studio
LM Studio 適合不喜歡使用終端的用戶。
- 從官方網站下載 LM Studio 並安裝。
- 在應用程式中搜索 DeepSeek R1 模型並下載。
- 下載完成後,您可以直接通過應用與模型互動。
最後的想法
DeepSeek R1 提供了強大的自然語言處理能力,並在推理方面表現出色。無論您是初學者還是進階用戶,都有多種安裝方法可供選擇,以滿足您的技術舒適度。如果您剛開始,考慮嘗試 Ollama,因為它簡單易用,而 Docker 對於更有經驗的用戶來說是一個很好的選擇。無論您選擇哪種方式,DeepSeek R1 都能通過在本地運行來顯著提升您的 AI 項目。