DeepSeek R1을 로컬에서 실행하기: 종합 가이드
DeepSeek R1을 로컬에서 실행하기: 종합 가이드
DeepSeek R1은 언어 처리 분야에서 두드러진 강력한 오픈 소스 AI 모델입니다. 고급 인간 능력과 유사한 추론 작업을 수행할 수 있는 능력 덕분에 개발자, 연구자 및 AI 애호가들에게 매력적인 선택이 됩니다. DeepSeek R1을 로컬에서 실행하면 사용자는 데이터에 대한 제어를 유지하면서 낮은 대기 시간의 이점을 누릴 수 있습니다. 이 가이드는 Mac, Windows 또는 Linux를 사용하는지에 관계없이 로컬 머신에서 DeepSeek R1을 설정하고 실행하는 필수 단계를 안내합니다.
DeepSeek를 로컬에서 실행하는 이유는 무엇인가요?
DeepSeek를 로컬에서 실행하면 여러 가지 이점이 있습니다:
- 데이터 프라이버시: 제3자 서버에 의존하지 않고 데이터에 대한 완전한 제어를 유지합니다.
- 비용 절감: 클라우드 서비스와 관련된 잠재적인 요금을 피할 수 있습니다.
- 사용자 정의 가능성: 특정 요구에 맞게 모델을 조정할 수 있습니다.
DeepSeek R1 실행을 위한 전제 조건
시작하기 전에 머신이 다음 최소 하드웨어 요구 사항을 충족하는지 확인하세요:
- 저장 공간: 모델 크기에 충분한 디스크 공간.
- RAM: 모델 크기에 따라 최대 161GB의 RAM이 필요할 수 있습니다.
- GPU: 특정 모델 크기는 다중 GPU 설정을 필요로 하므로 유능한 NVIDIA GPU를 권장합니다.
모델 크기 비교
다양한 DeepSeek R1 모델과 그 요구 사항에 대한 간단한 개요는 다음과 같습니다:
모델 | 매개변수 (B) | 디스크 공간 | RAM | 권장 GPU |
---|---|---|---|---|
DeepSeek-R1-Distill-Qwen-1.5B | 1.5B | 1.1 GB | ~3.5 GB | NVIDIA RTX 3060 12GB 이상 |
DeepSeek-R1-Distill-Qwen-7B | 7B | 4.7 GB | ~16 GB | NVIDIA RTX 4080 16GB 이상 |
DeepSeek-R1-Distill-Qwen-14B | 14B | 9 GB | ~32 GB | 다중 GPU 설정 |
DeepSeek-R1 | 671B | 404 GB | ~1,342 GB | 다중 GPU 설정 |
AI 모델을 로컬에서 처음 실행하는 경우 특히 작은 모델부터 시작하는 것이 좋습니다.
방법 1: Ollama를 사용하여 DeepSeek R1 설치하기
1단계: Ollama 설치
- Ollama 웹사이트를 방문하여 운영 체제에 맞는 설치 프로그램을 다운로드합니다.
- 설치 지침을 따릅니다.
- 다음 명령어를 실행하여 올바르게 설치되었는지 테스트합니다:
ollama --version
2단계: DeepSeek R1 모델 다운로드 및 실행
- 터미널에서 모델을 설치하는 명령어를 실행합니다(적절하게
[model size]
를 교체하세요):ollama run deepseek-r1:[model size]
- 모델이 다운로드되고 실행될 때까지 기다립니다.
3단계: 사용자 친화적인 인터페이스를 위한 Chatbox 설치
- 공식 웹사이트에서 Chatbox를 다운로드하고 설치 지침을 따릅니다.
- 설정에서 모델 제공자를 Ollama로 설정하고 API 호스트를
http://127.0.0.1:11434
로 설정하여 모델과 상호작용을 시작합니다.
방법 2: Docker 사용하기
Docker는 신뢰할 수 있는 환경을 제공하며 설치 과정을 간소화합니다.
1단계: Docker 설치
- 공식 Docker 웹사이트에서 Docker Desktop을 다운로드하고 설치합니다.
- Docker 앱을 열고 필요시 로그인합니다.
2단계: DeepSeek Docker 이미지 가져오기
터미널에서 다음 명령어를 실행합니다:
docker pull ghcr.io/open-webui/open-webui:main
3단계: Docker 컨테이너 실행
다음 명령어를 실행하여 컨테이너를 시작합니다:
docker run -d -p 9783:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
4단계: 웹 UI 열기
브라우저를 열고 http://localhost:9783/
로 이동하여 인터페이스에 접근합니다.
방법 3: LM Studio 사용하기
LM Studio는 터미널을 사용하지 않으려는 사용자에게 적합합니다.
- 공식 사이트에서 LM Studio를 다운로드하고 설치합니다.
- 애플리케이션 내에서 DeepSeek R1 모델을 검색하고 다운로드합니다.
- 다운로드가 완료되면 앱을 통해 모델과 직접 상호작용할 수 있습니다.
최종 생각
DeepSeek R1은 자연어 처리 작업을 위한 강력한 기능을 제공하며 추론에서 뛰어난 성능을 발휘합니다. 초보자든 고급 사용자든 기술적 편안함 수준에 맞는 다양한 설치 방법이 있습니다. 처음 시작하는 경우 단순함 때문에 Ollama를 시도해보는 것이 좋으며, Docker는 더 경험이 많은 사용자에게 훌륭한 옵션이 될 수 있습니다. 선택에 관계없이 DeepSeek R1은 로컬에서 실행함으로써 AI 프로젝트를 크게 향상시킬 수 있습니다.