Cerebras, 롱 컨텍스트 코딩 에이전트를 위한 MiniMax-M2-REAP-162B-A10B 출시

Cerebras가 MiniMax-M2-REAP-162B-A10B를 출시했다. 이 모델은 MiniMax-M2에서 파생된 압축된 희소 Mixture-of-Experts (SMoE) 인과 언어 모델로, 새로운 Router 가중 전문가 활성화 가지치기(REAP) 방법을 사용한다. 이 모델은 코딩 에이전트 및 도구와 같은 배포 중심 워크로드를 위해 전문가를 가지치기하고 메모리를 줄이면서 원래의 230B 총, 10B 활성 MiniMax M2의 동작을 유지한다. 이러한 변화는 모델의 효율성을 높이고, 장기적인 문맥 코딩 에이전트를 위한 최적화된 모델을 제공한다.
출처: Mark Tech Post
요약번역: 미주투데이 김지호 기자