Wie man DeepSeek R1 Lokal Ausführt: Ein Umfassender Leitfaden
Wie man DeepSeek R1 Lokal Ausführt: Ein Umfassender Leitfaden
DeepSeek R1 ist ein leistungsstarkes Open-Source-KI-Modell, das sich im Bereich der Sprachverarbeitung hervorhebt. Seine Fähigkeit, Denkaufgaben ähnlich fortgeschrittenen menschlichen Fähigkeiten auszuführen, macht es zu einer attraktiven Wahl für Entwickler, Forscher und KI-Enthusiasten. Das lokale Ausführen von DeepSeek R1 ermöglicht es den Nutzern, die Kontrolle über ihre Daten zu behalten und gleichzeitig von einer geringeren Latenz zu profitieren. Dieser Leitfaden führt Sie durch die wesentlichen Schritte, um DeepSeek R1 auf Ihrem lokalen Rechner einzurichten und auszuführen, unabhängig davon, ob Sie Mac, Windows oder Linux verwenden.
Warum DeepSeek Lokal Ausführen?
Das lokale Ausführen von DeepSeek bietet mehrere Vorteile:
- Datenschutz: Sie behalten die volle Kontrolle über Ihre Daten, ohne auf Server von Drittanbietern angewiesen zu sein.
- Kosteneinsparungen: Vermeiden Sie potenzielle Gebühren, die mit Cloud-Diensten verbunden sind.
- Anpassungsfähigkeit: Passen Sie das Modell an Ihre spezifischen Bedürfnisse an.
Voraussetzungen für das Ausführen von DeepSeek R1
Bevor Sie beginnen, stellen Sie sicher, dass Ihr Rechner die folgenden Mindestanforderungen an die Hardware erfüllt:
- Speicher: Ausreichend Speicherplatz für die Modellgröße.
- RAM: Je nach Modellgröße benötigen Sie möglicherweise bis zu 161 GB RAM.
- GPU: Eine leistungsfähige NVIDIA-GPU wird empfohlen, da bestimmte Modellgrößen eine Multi-GPU-Konfiguration erfordern.
Vergleich der Modellgrößen
Hier ist eine schnelle Übersicht über die verschiedenen DeepSeek R1-Modelle und deren Anforderungen:
Modell | Parameter (B) | Speicherplatz | RAM | Empfohlene GPU |
---|---|---|---|---|
DeepSeek-R1-Distill-Qwen-1.5B | 1.5B | 1.1 GB | ~3.5 GB | NVIDIA RTX 3060 12GB oder höher |
DeepSeek-R1-Distill-Qwen-7B | 7B | 4.7 GB | ~16 GB | NVIDIA RTX 4080 16GB oder höher |
DeepSeek-R1-Distill-Qwen-14B | 14B | 9 GB | ~32 GB | Multi-GPU-Konfiguration |
DeepSeek-R1 | 671B | 404 GB | ~1.342 GB | Multi-GPU-Konfiguration |
Es wird empfohlen, mit den kleineren Modellen zu beginnen, insbesondere wenn Sie neu im lokalen Ausführen von KI-Modellen sind.
Methode 1: DeepSeek R1 Mit Ollama Installieren
Schritt 1: Ollama Installieren
- Besuchen Sie die Ollama-Website und laden Sie den Installer für Ihr Betriebssystem herunter.
- Befolgen Sie die Installationsanweisungen.
- Überprüfen Sie, ob die Installation erfolgreich war, indem Sie den Befehl ausführen:
ollama --version
Schritt 2: DeepSeek R1 Modell Herunterladen und Ausführen
- Führen Sie in Ihrem Terminal den Befehl aus, um das Modell zu installieren (ersetzen Sie
[model size]
entsprechend):ollama run deepseek-r1:[model size]
- Warten Sie, bis das Modell heruntergeladen und gestartet wird.
Schritt 3: Chatbox Für Eine Benutzerfreundliche Oberfläche Installieren
- Laden Sie Chatbox von der offiziellen Website herunter und befolgen Sie die Installationsanweisungen.
- Stellen Sie den Modellanbieter in den Einstellungen auf Ollama und den API-Host auf
http://127.0.0.1:11434
, um mit dem Modell zu interagieren.
Methode 2: Mit Docker
Docker bietet eine zuverlässige Umgebung und vereinfacht den Installationsprozess.
Schritt 1: Docker Installieren
- Laden Sie Docker Desktop von der offiziellen Docker-Website herunter und installieren Sie es.
- Öffnen Sie die Docker-App und melden Sie sich gegebenenfalls an.
Schritt 2: Das DeepSeek Docker-Image Herunterladen
Führen Sie den folgenden Befehl in Ihrem Terminal aus:
docker pull ghcr.io/open-webui/open-webui:main
Schritt 3: Den Docker-Container Ausführen
Führen Sie diesen Befehl aus, um den Container zu starten:
docker run -d -p 9783:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
Schritt 4: Web-UI Öffnen
Öffnen Sie Ihren Browser und navigieren Sie zu http://localhost:9783/
, um auf die Benutzeroberfläche zuzugreifen.
Methode 3: Mit LM Studio
LM Studio ist für Benutzer geeignet, die das Terminal nicht verwenden möchten.
- Laden Sie LM Studio von der offiziellen Website herunter und installieren Sie es.
- Suchen Sie innerhalb der Anwendung nach dem DeepSeek R1-Modell und laden Sie es herunter.
- Nach dem Herunterladen können Sie direkt über die App mit dem Modell interagieren.
Abschließende Gedanken
DeepSeek R1 bietet robuste Fähigkeiten für Aufgaben der natürlichen Sprachverarbeitung und glänzt im Denken. Egal, ob Sie ein Anfänger oder ein fortgeschrittener Benutzer sind, es gibt verschiedene Methoden zur Installation, die Ihrem technischen Komfortlevel entsprechen können. Wenn Sie gerade erst anfangen, sollten Sie Ollama wegen seiner Einfachheit ausprobieren, während Docker eine ausgezeichnete Option für erfahrenere Benutzer sein kann. Unabhängig von Ihrer Wahl kann DeepSeek R1 Ihre KI-Projekte erheblich verbessern, indem Sie sie lokal ausführen.