2025년의 Top 10 로컬 LLMs: Context Windows, VRAM Targets, 그리고 라이센스 비교
2025년에는 Llama 3.1 (128K ctx), Qwen3 (Apache-2.0, dense + MoE), Gemma 2 (9B/27B, 8K ctx), Mixtral 8×7B (Apache-2.0 SMoE), Phi-4-mini (3.8B, 128K ctx)와 같은 오픈 웨이트 패밀리인 로컬 LLMs가 빠르게 성숙해졌다. 이제 GGUF/llama.cpp, LM Studio, Ollama와 같은 일류 로컬 러너를 탑재하면서 온프렘 및 랩톱 추론이 실용적으로 가능해졌다.
#AIShorts #Applications #ArtificialIntelligence #EditorsPick #LargeLanguageModel #TechNews #Technology
출처: Mark Tech Post
요약번역: 미주투데이 김지호 기자