Cara Menjalankan DeepSeek R1 Secara Lokal: Panduan Komprehensif
Cara Menjalankan DeepSeek R1 Secara Lokal: Panduan Komprehensif
DeepSeek R1 adalah model AI sumber terbuka yang kuat dan menonjol dalam bidang pemrosesan bahasa. Kemampuannya untuk melakukan tugas penalaran yang mirip dengan kemampuan manusia yang canggih menjadikannya pilihan menarik bagi pengembang, peneliti, dan penggemar AI. Menjalankan DeepSeek R1 secara lokal memungkinkan pengguna untuk mempertahankan kontrol atas data mereka sambil mendapatkan manfaat dari latensi yang lebih rendah. Panduan ini akan membawa Anda melalui langkah-langkah penting untuk mengatur dan menjalankan DeepSeek R1 di mesin lokal Anda, terlepas dari apakah Anda menggunakan Mac, Windows, atau Linux.
Mengapa Menjalankan DeepSeek Secara Lokal?
Menjalankan DeepSeek secara lokal menawarkan beberapa keuntungan:
- Privasi Data: Anda mempertahankan kontrol penuh atas data Anda tanpa bergantung pada server pihak ketiga.
- Penghematan Biaya: Hindari biaya potensial yang terkait dengan layanan cloud.
- Kustomisasi: Sesuaikan model sesuai dengan kebutuhan spesifik Anda.
Prasyarat untuk Menjalankan DeepSeek R1
Sebelum Anda mulai, pastikan mesin Anda memenuhi persyaratan perangkat keras minimum berikut:
- Penyimpanan: Ruang disk yang cukup untuk ukuran model.
- RAM: Tergantung pada ukuran model, Anda mungkin memerlukan hingga 161 GB RAM.
- GPU: GPU NVIDIA yang mampu disarankan, karena ukuran model tertentu akan memerlukan pengaturan multi-GPU.
Perbandingan Ukuran Model
Berikut adalah gambaran cepat tentang berbagai model DeepSeek R1 dan persyaratannya:
Model | Parameter (B) | Ruang Disk | RAM | GPU yang Direkomendasikan |
---|---|---|---|---|
DeepSeek-R1-Distill-Qwen-1.5B | 1.5B | 1.1 GB | ~3.5 GB | NVIDIA RTX 3060 12GB atau lebih tinggi |
DeepSeek-R1-Distill-Qwen-7B | 7B | 4.7 GB | ~16 GB | NVIDIA RTX 4080 16GB atau lebih tinggi |
DeepSeek-R1-Distill-Qwen-14B | 14B | 9 GB | ~32 GB | Pengaturan multi-GPU |
DeepSeek-R1 | 671B | 404 GB | ~1,342 GB | Pengaturan multi-GPU |
Disarankan untuk memulai dengan model yang lebih kecil, terutama jika Anda baru dalam menjalankan model AI secara lokal.
Metode 1: Menginstal DeepSeek R1 Menggunakan Ollama
Langkah 1: Instal Ollama
- Kunjungi situs web Ollama dan unduh penginstal untuk sistem operasi Anda.
- Ikuti petunjuk instalasi.
- Uji apakah itu terinstal dengan benar dengan menjalankan perintah:
ollama --version
Langkah 2: Unduh dan Jalankan Model DeepSeek R1
- Di terminal Anda, jalankan perintah untuk menginstal model (ganti
[ukuran model]
dengan tepat):ollama run deepseek-r1:[ukuran model]
- Tunggu model untuk diunduh dan mulai berjalan.
Langkah 3: Instal Chatbox untuk Antarmuka yang Ramah Pengguna
- Unduh Chatbox dari situs resminya dan ikuti petunjuk instalasi.
- Atur Penyedia Model di pengaturan ke Ollama dan host API ke
http://127.0.0.1:11434
untuk mulai berinteraksi dengan model.
Metode 2: Menggunakan Docker
Docker menyediakan lingkungan yang andal dan menyederhanakan proses instalasi.
Langkah 1: Instal Docker
- Unduh dan instal Docker Desktop dari situs resmi Docker.
- Buka aplikasi Docker dan masuk jika perlu.
Langkah 2: Tarik Gambar Docker DeepSeek
Jalankan perintah berikut di terminal Anda:
docker pull ghcr.io/open-webui/open-webui:main
Langkah 3: Jalankan Kontainer Docker
Eksekusi perintah ini untuk memulai kontainer:
docker run -d -p 9783:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
Langkah 4: Buka Antarmuka Web
Buka browser Anda dan navigasikan ke http://localhost:9783/
untuk mengakses antarmuka.
Metode 3: Menggunakan LM Studio
LM Studio cocok untuk pengguna yang lebih suka tidak menggunakan terminal.
- Unduh LM Studio dari situs resminya dan instal.
- Cari model DeepSeek R1 dalam aplikasi dan unduh.
- Setelah diunduh, Anda dapat berinteraksi dengan model langsung melalui aplikasi.
Pemikiran Akhir
DeepSeek R1 menyediakan kemampuan yang kuat untuk tugas pemrosesan bahasa alami dan unggul dalam penalaran. Apakah Anda seorang pemula atau pengguna tingkat lanjut, ada berbagai metode yang tersedia untuk instalasi yang dapat memenuhi tingkat kenyamanan teknis Anda. Jika Anda baru memulai, pertimbangkan untuk mencoba Ollama karena kesederhanaannya, sementara Docker bisa menjadi pilihan yang sangat baik untuk pengguna yang lebih berpengalaman. Terlepas dari pilihan Anda, DeepSeek R1 dapat meningkatkan proyek AI Anda secara signifikan dengan menjalankannya secara lokal.