사전훈련부터 사후훈련까지: 언어 모델이 환각하는 이유와 평가 방법이 문제를 강화하는 방법
대형 언어 모델 (LLM)은 매우 자주 “환각”을 생성하는데, 이는 올바르지만 잘못된 출력을 확신하며 가능성이 있는 것으로 보인다. 훈련 방법과 구조의 개선에도 불구하고, 환각은 지속된다. OpenAI의 새로운 연구는 환각이 교사 지도 학습과 자기 지도 학습의 통계적 특성에서 비롯되며, 그 지속성은 평가 기준의 불일치로 강화된다는 엄밀한 설명을 제공한다. 무엇이 환각을 통계적으로 만드는지에 대한 자세한 내용은 원문을 참조하시기 바랍니다.
#AIPaperSummary #Applications #ArtificialIntelligence #LanguageModel #Machinelearning #TechNews #Technology
출처: Mark Tech Post
요약번역: 미주투데이 김지호 기자