LLMs를 위한 불확실성 인식 공정성 평가

최근 대형 언어 모델(Large Language Models, LLMs)의 급격한 보급은 이들의 공정성을 벤치마킹하는 것이 중요하다는 점을 강조합니다. 기존의 공정성 측정 방법은 이산형 정확도 기반 평가(예: 예측 정확도)에 초점을 맞추는데, 이는 모델의 불확실성이나 모델의 한 그룹에 대한 다른 그룹보다 더 높은 신뢰 수준과 같은 내재적 영향을 포착하지 못합니다. 이러한 한계를 극복하기 위해 모델 결정의 내부적 편향을 보다 잘 반영하는 불확실성 인식 공정성 측정 기준 UCerF를 제안합니다. UCerF는 모델의 공정성을 미세하게 평가할 수 있도록 하여 LLMs의 공정성을 보다 잘 이해하고 개선할 수 있는 기회를 제공합니다.
출처: Apple
요약번역: 미주투데이 서현진 기자