MLPerf Inference v5.1 (2025): GPU, CPU 및 AI 가속기에 대한 결과 설명
MLPerf Inference는 고정된 사전 훈련 모델을 엄격한 지연 시간과 정확도 제약 조건 하에 실행하는 완전한 시스템(하드웨어 + 런타임 + 서빙 스택)이 얼마나 빠르게 실행되는지 측정합니다. 결과는 LoadGen에 의해 생성된 표준화된 요청 패턴(“시나리오”)으로 Datacenter 및 Edge 스위트에 대해 보고되며, 이는 아키텍처 중립성과 재현성을 보장합니다. Closed division은 일반적인 제한 사항 뿐 아니라 GPU, CPU 및 AI 가속기에 대한 결과를 상세히 설명합니다.
출처: Mark Tech Post
요약번역: 미주투데이 김지호 기자