LLM이 자신의 내부 답변 분포를 알까?

논문은 2025 ICML의 ‘신뢰할 수 있고 책임있는 Foundation Models (RRFMs) 워크샵’에서 받아들여졌다. 대규모 언어 모델(LLMs)을 최종 사용자에게 제공할 때 불확실성 양자화는 중요한 역할을 한다. 주된 목표는 LLM이 제공하는 답변에 대해 확신이 없을 때를 나타내야 한다는 것이다. 이전에는 수치적으로 확신 점수로 이를 밝혀냈지만, 우리는 LLM의 다양한 출력 공간, 즉 모든 가능한 문자열의 공간을 활용하여 불확실성을 나타내는 문자열을 제안한다. 특히, LLM 답변의 분포를 설명하는 문자열을 찾고자 한다.
출처: Apple
요약번역: 미주투데이 서현진 기자