DeepSeek R1'i Yerel Olarak Çalıştırma: Kapsamlı Bir Rehber
DeepSeek R1'i Yerel Olarak Çalıştırma: Kapsamlı Bir Rehber
DeepSeek R1, dil işleme alanında öne çıkan güçlü bir açık kaynak AI modelidir. Gelişmiş insan yeteneklerine benzer akıl yürütme görevlerini yerine getirme yeteneği, onu geliştiriciler, araştırmacılar ve AI meraklıları için cazip bir seçenek haline getirir. DeepSeek R1'i yerel olarak çalıştırmak, kullanıcıların verileri üzerinde kontrol sahibi olmalarını sağlarken daha düşük gecikme süresinden faydalanmalarını sağlar. Bu rehber, Mac, Windows veya Linux kullanıyor olsanız da, DeepSeek R1'i yerel makinenizde kurmak ve çalıştırmak için gerekli adımları size gösterecektir.
Neden DeepSeek'i Yerel Olarak Çalıştırmalısınız?
DeepSeek'i yerel olarak çalıştırmanın birkaç avantajı vardır:
- Veri Gizliliği: Üçüncü taraf sunuculara güvenmeden verileriniz üzerinde tam kontrol sağlarsınız.
- Maliyet Tasarrufu: Bulut hizmetleriyle ilişkili olası ücretlerden kaçınabilirsiniz.
- Özelleştirilebilirlik: Modeli özel ihtiyaçlarınıza göre uyarlayabilirsiniz.
DeepSeek R1'i Çalıştırmak için Gereksinimler
Başlamadan önce, makinenizin aşağıdaki minimum donanım gereksinimlerini karşıladığından emin olun:
- Depolama: Model boyutu için yeterli disk alanı.
- RAM: Model boyutuna bağlı olarak, 161 GB'a kadar RAM gerekebilir.
- GPU: Belirli model boyutları çoklu GPU kurulumunu gerektireceğinden, yeterli bir NVIDIA GPU önerilir.
Model Boyutu Karşılaştırması
Farklı DeepSeek R1 modellerinin ve gereksinimlerinin hızlı bir özeti:
Model | Parametreler (B) | Disk Alanı | RAM | Önerilen GPU |
---|---|---|---|---|
DeepSeek-R1-Distill-Qwen-1.5B | 1.5B | 1.1 GB | ~3.5 GB | NVIDIA RTX 3060 12GB veya daha yüksek |
DeepSeek-R1-Distill-Qwen-7B | 7B | 4.7 GB | ~16 GB | NVIDIA RTX 4080 16GB veya daha yüksek |
DeepSeek-R1-Distill-Qwen-14B | 14B | 9 GB | ~32 GB | Çoklu GPU kurulumu |
DeepSeek-R1 | 671B | 404 GB | ~1,342 GB | Çoklu GPU kurulumu |
AI modellerini yerel olarak çalıştırmaya yeni başlıyorsanız, daha küçük modellerle başlamanız önerilir.
Yöntem 1: Ollama Kullanarak DeepSeek R1 Kurulumu
Adım 1: Ollama'yı Kurun
- Ollama web sitesine gidin ve işletim sisteminiz için yükleyiciyi indirin.
- Kurulum talimatlarını izleyin.
- Aşağıdaki komutu çalıştırarak doğru bir şekilde kurulduğunu test edin:
ollama --version
Adım 2: DeepSeek R1 Modelini İndirin ve Çalıştırın
- Terminalinizde, modeli kurmak için aşağıdaki komutu çalıştırın (
[model boyutu]
kısmını uygun şekilde değiştirin):ollama run deepseek-r1:[model boyutu]
- Modelin indirilmesini ve çalışmaya başlamasını bekleyin.
Adım 3: Kullanıcı Dostu Bir Arayüz için Chatbox Kurun
- Chatbox'ı resmi web sitesinden indirin ve kurulum talimatlarını izleyin.
- Ayarlarda Model Sağlayıcısını Ollama olarak ve API ana bilgisayarını
http://127.0.0.1:11434
olarak ayarlayarak modelle etkileşime geçmeye başlayın.
Yöntem 2: Docker Kullanarak
Docker, güvenilir bir ortam sağlar ve kurulum sürecini basitleştirir.
Adım 1: Docker'ı Kurun
- Resmi Docker web sitesinden Docker Desktop'ı indirin ve kurun.
- Docker uygulamasını açın ve gerekirse giriş yapın.
Adım 2: DeepSeek Docker Görüntüsünü İndirin
Terminalinizde aşağıdaki komutu çalıştırın:
docker pull ghcr.io/open-webui/open-webui:main
Adım 3: Docker Konteynerini Çalıştırın
Konteyneri başlatmak için bu komutu çalıştırın:
docker run -d -p 9783:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
Adım 4: Web Arayüzünü Açın
Tarayıcınızı açın ve arayüze erişmek için http://localhost:9783/
adresine gidin.
Yöntem 3: LM Studio Kullanarak
LM Studio, terminal kullanmak istemeyen kullanıcılar için uygundur.
- LM Studio'yu resmi sitesinden indirin ve kurun.
- Uygulama içinde DeepSeek R1 modelini arayın ve indirin.
- İndirdikten sonra, modelle doğrudan uygulama üzerinden etkileşimde bulunabilirsiniz.
Son Düşünceler
DeepSeek R1, doğal dil işleme görevleri için sağlam yetenekler sunar ve akıl yürütmede mükemmeldir. İster yeni başlayan ister ileri düzey bir kullanıcı olun, teknik rahatlık seviyenize uygun çeşitli kurulum yöntemleri mevcuttur. Eğer yeni başlıyorsanız, basitliği nedeniyle Ollama'yı denemeyi düşünebilirsiniz; Docker ise daha deneyimli kullanıcılar için mükemmel bir seçenek olabilir. Seçiminiz ne olursa olsun, DeepSeek R1 yerel olarak çalıştırıldığında AI projelerinizi önemli ölçüde geliştirebilir.