Como Executar DeepSeek R1 Localmente: Um Guia Abrangente
Como Executar DeepSeek R1 Localmente: Um Guia Abrangente
DeepSeek R1 é um poderoso modelo de IA de código aberto que se destaca no campo do processamento de linguagem. Sua capacidade de realizar tarefas de raciocínio semelhantes às habilidades humanas avançadas o torna uma escolha atraente para desenvolvedores, pesquisadores e entusiastas de IA. Executar o DeepSeek R1 localmente permite que os usuários mantenham o controle sobre seus dados enquanto se beneficiam de uma latência mais baixa. Este guia irá levá-lo através das etapas essenciais para configurar e executar o DeepSeek R1 em sua máquina local, independentemente de você estar usando Mac, Windows ou Linux.
Por que Executar DeepSeek Localmente?
Executar o DeepSeek localmente oferece várias vantagens:
- Privacidade dos Dados: Você mantém controle total sobre seus dados sem depender de servidores de terceiros.
- Economia de Custos: Evite taxas potenciais associadas a serviços em nuvem.
- Personalização: Adapte o modelo de acordo com suas necessidades específicas.
Pré-requisitos para Executar o DeepSeek R1
Antes de começar, certifique-se de que sua máquina atende aos seguintes requisitos mínimos de hardware:
- Armazenamento: Espaço em disco suficiente para o tamanho do modelo.
- RAM: Dependendo do tamanho do modelo, você pode precisar de até 161 GB de RAM.
- GPU: Uma GPU NVIDIA capaz é recomendada, pois certos tamanhos de modelo exigirão uma configuração de múltiplas GPUs.
Comparação de Tamanhos de Modelo
Aqui está uma visão rápida dos diferentes modelos DeepSeek R1 e seus requisitos:
Modelo | Parâmetros (B) | Espaço em Disco | RAM | GPU Recomendada |
---|---|---|---|---|
DeepSeek-R1-Distill-Qwen-1.5B | 1.5B | 1.1 GB | ~3.5 GB | NVIDIA RTX 3060 12GB ou superior |
DeepSeek-R1-Distill-Qwen-7B | 7B | 4.7 GB | ~16 GB | NVIDIA RTX 4080 16GB ou superior |
DeepSeek-R1-Distill-Qwen-14B | 14B | 9 GB | ~32 GB | Configuração de múltiplas GPUs |
DeepSeek-R1 | 671B | 404 GB | ~1.342 GB | Configuração de múltiplas GPUs |
É aconselhável começar com os modelos menores, especialmente se você é novo em executar modelos de IA localmente.
Método 1: Instalando o DeepSeek R1 Usando Ollama
Passo 1: Instalar o Ollama
- Visite o site do Ollama e baixe o instalador para seu sistema operacional.
- Siga as instruções de instalação.
- Teste se está instalado corretamente executando o comando:
ollama --version
Passo 2: Baixar e Executar o Modelo DeepSeek R1
- No seu terminal, execute o comando para instalar o modelo (substitua
[tamanho do modelo]
adequadamente):ollama run deepseek-r1:[tamanho do modelo]
- Aguarde o modelo ser baixado e começar a ser executado.
Passo 3: Instalar o Chatbox para uma Interface Amigável
- Baixe o Chatbox do seu site oficial e siga as instruções de instalação.
- Defina o Provedor de Modelo nas configurações para Ollama e o host da API para
http://127.0.0.1:11434
para começar a interagir com o modelo.
Método 2: Usando Docker
O Docker fornece um ambiente confiável e simplifica o processo de instalação.
Passo 1: Instalar o Docker
- Baixe e instale o Docker Desktop do site oficial do Docker.
- Abra o aplicativo Docker e faça login, se necessário.
Passo 2: Baixar a Imagem Docker do DeepSeek
Execute o seguinte comando no seu terminal:
docker pull ghcr.io/open-webui/open-webui:main
Passo 3: Executar o Contêiner Docker
Execute este comando para iniciar o contêiner:
docker run -d -p 9783:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
Passo 4: Abrir a Interface Web
Abra seu navegador e navegue até http://localhost:9783/
para acessar a interface.
Método 3: Usando LM Studio
O LM Studio é adequado para usuários que preferem não usar o terminal.
- Baixe o LM Studio do seu site oficial e instale-o.
- Procure pelo modelo DeepSeek R1 dentro do aplicativo e faça o download.
- Uma vez baixado, você pode interagir com o modelo diretamente pelo aplicativo.
Considerações Finais
O DeepSeek R1 oferece capacidades robustas para tarefas de processamento de linguagem natural e se destaca em raciocínio. Seja você um iniciante ou um usuário avançado, existem vários métodos disponíveis para instalação que podem atender ao seu nível de conforto técnico. Se você está apenas começando, considere tentar o Ollama pela sua simplicidade, enquanto o Docker pode ser uma excelente opção para usuários mais experientes. Independentemente da sua escolha, o DeepSeek R1 pode aprimorar significativamente seus projetos de IA ao executá-los localmente.