LLM 사전 학습에서 유해 데이터 재고: 향상된 조절성과 해독을 위한 협업 설계 접근법

LLM 사전 학습에서 훈련 데이터의 품질은 모델 성능에 중요하다. 일반적인 전략은 유해 콘텐츠를 필터링하여 유해한 출력을 최소화하는 것이다. 그러나 이는 트레이드오프를 도입한다. 유해 콘텐츠를 제거하는 것은 모델이 훈련 데이터를 반영하는 원칙과 일치하지만 동시에 모델의 다양성과 성능을 제한할 수 있다. 이러한 문제를 해결하기 위해 LLM 사전 학습에서 유해 데이터를 다루는 새로운 공동 설계 접근 방식이 소개되었다. 이 접근 방식은 모델의 조절성과 해독을 향상시키는 것을 목표로 하며, 모델의 성능을 희생하지 않으면서도 유해한 영향을 줄일 수 있는 방법을 탐구한다.
출처: Mark Tech Post
요약번역: 미주투데이 김지호 기자