Як запустити DeepSeek R1 локально: всебічний посібник
Як запустити DeepSeek R1 локально: всебічний посібник
DeepSeek R1 — це потужна модель відкритого коду ШІ, яка виділяється у сфері обробки мови. Її здатність виконувати завдання розуміння, подібні до розвинених людських можливостей, робить її привабливим вибором для розробників, дослідників та ентузіастів ШІ. Запуск DeepSeek R1 локально дозволяє користувачам зберігати контроль над своїми даними, отримуючи при цьому переваги нижчої затримки. Цей посібник проведе вас через основні кроки для налаштування та запуску DeepSeek R1 на вашій локальній машині, незалежно від того, чи використовуєте ви Mac, Windows чи Linux.
Чому варто запускати DeepSeek локально?
Запуск DeepSeek локально має кілька переваг:
- Конфіденційність даних: Ви зберігаєте повний контроль над своїми даними, не покладаючись на сторонні сервери.
- Економія коштів: Уникайте потенційних витрат, пов'язаних з хмарними сервісами.
- Налаштування: Налаштуйте модель відповідно до ваших конкретних потреб.
Попередні вимоги для запуску DeepSeek R1
Перед початком переконайтеся, що ваша машина відповідає наступним мінімальним апаратним вимогам:
- Місце на диску: Достатньо місця на диску для розміру моделі.
- Оперативна пам'ять: В залежності від розміру моделі, вам може знадобитися до 161 ГБ оперативної пам'яті.
- Графічний процесор: Рекомендується потужний графічний процесор NVIDIA, оскільки певні розміри моделі вимагатимуть налаштування з кількома графічними процесорами.
Порівняння розмірів моделей
Ось швидкий огляд різних моделей DeepSeek R1 та їх вимог:
Модель | Параметри (B) | Місце на диску | Оперативна пам'ять | Рекомендується GPU |
---|---|---|---|---|
DeepSeek-R1-Distill-Qwen-1.5B | 1.5B | 1.1 ГБ | ~3.5 ГБ | NVIDIA RTX 3060 12GB або вище |
DeepSeek-R1-Distill-Qwen-7B | 7B | 4.7 ГБ | ~16 ГБ | NVIDIA RTX 4080 16GB або вище |
DeepSeek-R1-Distill-Qwen-14B | 14B | 9 ГБ | ~32 ГБ | Налаштування з кількома GPU |
DeepSeek-R1 | 671B | 404 ГБ | ~1,342 ГБ | Налаштування з кількома GPU |
Рекомендується почати з менших моделей, особливо якщо ви новачок у запуску моделей ШІ локально.
Метод 1: Встановлення DeepSeek R1 за допомогою Ollama
Крок 1: Встановіть Ollama
- Відвідайте вебсайт Ollama та завантажте інсталятор для вашої операційної системи.
- Дотримуйтесь інструкцій з установки.
- Перевірте, чи правильно встановлено, виконавши команду:
ollama --version
Крок 2: Завантажте та запустіть модель DeepSeek R1
- У вашому терміналі виконайте команду для установки моделі (замініть
[model size]
відповідно):ollama run deepseek-r1:[model size]
- Дочекайтеся, поки модель завантажиться та почне працювати.
Крок 3: Встановіть Chatbox для зручного інтерфейсу
- Завантажте Chatbox з його офіційного вебсайту та дотримуйтесь інструкцій з установки.
- Встановіть постачальника моделі в налаштуваннях на Ollama, а хост API на
http://127.0.0.1:11434
, щоб почати взаємодію з моделлю.
Метод 2: Використання Docker
Docker забезпечує надійне середовище та спрощує процес установки.
Крок 1: Встановіть Docker
- Завантажте та встановіть Docker Desktop з офіційного вебсайту Docker.
- Відкрийте додаток Docker і увійдіть, якщо це необхідно.
Крок 2: Завантажте образ Docker для DeepSeek
Виконайте наступну команду у вашому терміналі:
docker pull ghcr.io/open-webui/open-webui:main
Крок 3: Запустіть контейнер Docker
Виконайте цю команду, щоб запустити контейнер:
docker run -d -p 9783:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
Крок 4: Відкрийте веб-інтерфейс
Відкрийте ваш браузер і перейдіть за адресою http://localhost:9783/
, щоб отримати доступ до інтерфейсу.
Метод 3: Використання LM Studio
LM Studio підходить для користувачів, які не бажають використовувати термінал.
- Завантажте LM Studio з його офіційного сайту та встановіть його.
- Знайдіть модель DeepSeek R1 у додатку та завантажте її.
- Після завантаження ви можете взаємодіяти з моделлю безпосередньо через додаток.
Заключні думки
DeepSeek R1 забезпечує потужні можливості для завдань обробки природної мови та відзначається у розумінні. Незалежно від того, чи ви новачок, чи досвідчений користувач, існує кілька методів установки, які можуть відповідати вашому рівню технічного комфорту. Якщо ви тільки починаєте, розгляньте можливість спробувати Ollama за його простоту, тоді як Docker може бути відмінним варіантом для більш досвідчених користувачів. Незалежно від вашого вибору, DeepSeek R1 може значно покращити ваші проекти ШІ, запустивши їх локально.