- 1.**Qwen2.5:1.5b** — 서바이벌 모델. 2GB RAM. "JSON 변환" "요약" 수준은 확실히.
- 2.**Gemma 3 4B** — 속도왕. GPU에서 40~60 tok/s. 듀얼 모델의 "빠른 모델"에 최적.
- 3.**Llama 3.1 8B** — 올라운더. 하나만 다운로드한다면 이것.
- 4.**Qwen3-8B** — 추론 업그레이드. 수학·논리에서 Llama 3.1 8B보다 우수.
- 5.**Qwen2.5-Coder 7B** — 코드 전문가. 2배 크기 범용 모델보다 코드 생성이 확실.
- 6.**GLM-4-9B** — 다국어 챔피언. CJK + 영어 최고의 다국어 품질.
- 7.**DeepSeek V3.2 32B** — 품질 도약. 8B와 질적으로 다른 출력. 24GB+ VRAM이면 최고.
- 8.**Qwen2.5-Coder 32B** — 코드 대포. 프론티어 클라우드 모델에 접근하는 코드 생성.
- 9.**Llama 3.1 70B** — 클라우드 킬러. 대부분 작업에서 클라우드 API와 경쟁.
- 10.**Mistral Large 123B** — 로컬 프론티어. 듀얼 4090 또는 192GB Apple Silicon 필요.
실용 스택: 빠른 모델 (gemma3:4b) + 품질 모델 (deepseek-v3.2:32b). ZeroClaw가 복잡도 기반 자동 라우팅.