DeepSeek-V4 là một trong những phát hành mô hình open-weight tham vọng nhất của DeepSeek cho đến nay. Gia đình này bao gồm DeepSeek-V4-Pro, một mô hình Mixture-of-Experts (MoE) với 1.6T tham số và 49B tham số kích hoạt, và DeepSeek-V4-Flash, một mô hình MoE nhỏ hơn với 284B tham số và 13B tham số kích hoạt. Cả hai mô hình đều hỗ trợ độ dài ngữ cảnh lên đến một triệu token.
Khoảng 13 phút
Google DeepMind phát hành Gemma 4 vào đầu năm 2026, và phiên bản instruction-tuned 31B nằm đúng điểm ngọt: đủ lớn để cạnh tranh với các model độc quyền trên benchmark reasoning, đủ nhỏ để chạy trên một GPU tiêu dùng khá tốt. Nó đạt 85.2% trên MMLU Pro và 89.2% trên AIME 2026 không dùng tools, đặt nó vào cùng hàng với các model lớn gấp đôi.
Khoảng 15 phút
Chạy Kimi-K2-Instruct cục bộ có thể ban đầu có vẻ khó khăn — nhưng với các công cụ và bước đi đúng, nó lại khá đơn giản. Dù bạn là nhà phát triển muốn thử nghiệm với các mô hình AI tiên tiến hay là người muốn kiểm soát hoàn toàn quá trình suy luận mà không phụ thuộc vào API đám mây, hướng dẫn này sẽ dẫn bạn qua toàn bộ quy trình từng bước một.
Khoảng 6 phút