2026년 3월 9일 월요일
오늘의 신문
2026년 3월 9일 월요일 오늘의 신문

최신뉴스 전체보기

보상 희소 환경 해결을 위한 온라인 프로세스 보상 학습을 사용하여 선호도로부터 단계별 보상 학습하는 방법

이 튜토리얼에서는 온라인 프로세스 보상 학습 (OPRL)을 탐구하고, 궤적 선호도로부터 밀도가 높은 단계별 보상 신호를 학습하여 희소 보상 강화 학습 과제를 해결하는 방법을 시연합니다. 미로 환경부터 보상 모델 네트워크, 선호도 생성, 훈련 루프 및 평가까지 각 구성요소를 살펴보면서 에이전트가 서서히 개선되는 과정을 관찰합니다.

2025년 12월 3일 오전 8시 19분
에이전틱 딥 강화 학습 시스템 구축 방법: 커리큘럼 진행, 적응적 탐험, 메타 레벨 UCB 계획

이 튜토리얼에서는 환경 내에서의 행동 뿐만 아니라 자체 교육 전략을 선택하는 방법을 학습하는 고급 에이전트형 딥 강화 학습 시스템을 구축한다. Dueling Double DQN 학습자를 설계하고 어려움이 증가하는 커리큘럼을 도입하며 학습 중에 적응하는 여러 탐험 모드를 통합한다.

2025년 11월 19일 오전 8시 35분
시그모이드 스케일링 곡선이 LLMs에 대한 강화 학습 RL 후 훈련을 예측 가능하게 만듦

강화 학습 RL 후 훈련은 이제 추론 중심 LLMs에 대한 주요 수단이지만, 사전 훈련과 달리 예측 가능한 스케일링 규칙이 없었습니다. Meta, UT Austin, UCL, Berkeley, Harvard 등의 연구진이 시그모이드 스케일링 곡선을 도입하여 이 문제를 해결했습니다.

2025년 10월 17일 오후 10시 27분
NVIDIA 연구진, 강화 학습 사전 학습(RLP) 제안: 사전 학습 중 추론 구축을 위한 사전 학습 목적으로 강화 학습 제안

NVIDIA AI가 강화 학습 사전 학습(RLP)을 소개했습니다. 이는 후속 학습이 아닌 사전 학습 단계에서 강화 학습을 적용하는 교육 목표입니다. 강화 학습을 다음 토큰 예측 전에 샘플링된 작업으로 취급하고 정보 획득에 대한 보상으로 보상합니다.

2025년 10월 14일 오전 5시 55분
NVIDIA, 현실 환경에서 육체적 상식과 체험적 추론을 발전시키는 AI 모델 세트 ‘Cosmos-Reason1’ 출시

AI는 언어 처리, 수학, 코드 생성 분야에서 발전했지만 물리적 환경으로 확장하는 것은 여전히 어렵다. 물리 AI는 동적인 실제 환경에서 지각, 이해, 행동하는 시스템을 개발하여 이 간극을 줄이려고 한다. 텍스트나 기호를 처리하는 기존 AI와 달리 물리 AI는 주로 비디오와 같은 감각적 입력과 상호작용한다.

2025년 5월 20일 오후 8시 40분
LLM 에이전트 훈련이 더 안정화: StarPO-S와 RAGEN 소개로 다중 턴 추론과 강화 학습 붕괴 대응하는 연구진

대형 언어 모델(Large language models, LLM)이 상호작용 환경에서 자율 에이전트로 훈련받을 때 중요한 도전에 직면하고 있다. 순차적 의사 결정, 교차 턴 메모리 유지, 환경적 피드백에 대한 적응 등이 필요한데, 이는 효과적인 계획 보조자, 로봇 응용 프로그램, 경험을 통해 자가 개선할 수 있는 지도 에이전트 개발에 중요하다. 이에 연구진은 StarPO-S와 RAGEN을 도입하여 이러한 도전을 대응하고 있다.

2025년 5월 2일 오전 2시 31분