2026년 3월 7일 토요일
오늘의 신문
2026년 3월 7일 토요일 오늘의 신문
YuanLab AI가 오픈소스 Mixture-of-Experts (MoE) 대형 언어 모델인 Yuan 3.0 Ultra를 공개했다. 이 모델은 1조 개의 총 파라미터와 68.8조 개의 활성화된 파라미터를 특징으로 하며, 기업 성능을 최적화하고 사전 훈련 효율성을 높이는 것을 목표로 한다.
2026년 3월 5일 오전 12시 55분
구글이 Gemini 3.1 Flash-Lite를 공개했다. 고성능 작업에 최적화된 이 모델은 낮은 지연시간과 토큰 당 비용을 중점으로 고안되었다. 현재 Gemini API 및 Vertex AI를 통해 Public Preview로 이용 가능하다.
2026년 3월 3일 오후 1시 28분
Generative AI의 발전은 잠재 확산 모델(LDMs)에 많이 의존하고 있습니다. 잠재 공간으로 데이터를 압축함으로써 모델이 효과적으로 확장될 수 있습니다. 그러나 낮은 정보 밀도는 잠재 변수를 학습하기 쉽게 만들지만 재구성 품질을 희생시키는 기본적인 트레이드오프가 존재합니다.
2026년 2월 27일 오후 10시 58분
Perplexity사가 대규모 검색 작업에 최적화된 다국어 임베딩 모델 pplx-embed을 출시했다. 웹 규모 데이터의 복잡성과 잡음을 처리하기 위한 이 모델은 전용 임베딩 API에 대한 대안으로 제작되었다. 양방향 어텐션과 확산을 활용한 구조적 혁신이 돋보인다.
2026년 2월 26일 오후 11시 01분
Microsoft의 연구진은 CORPGEN을 소개했는데, 이는 계층적 계획과 메모리를 활용하여 자율형 디지털 직원을 통해 현실적인 조직 업무의 복잡성을 관리하는 데 사용되는 아키텍처에 중립적인 프레임워크이다. 기존의 AI 에이전트는 단일 작업에 대해 평가되지만, 실제 기업 환경에서는 복잡한 종속성을 가진 여러 작업을 동시에 처리해야 한다.
2026년 2월 26일 오후 7시 32분
이 튜토리얼에서는 asyncio를 사용하여 Practical Byzantine Fault Tolerance (PBFT) 시뮬레이터를 구현한다. 비동기 메시지 패싱, 구성 가능한 지연 및 프로토콜에서 의도적으로 벗어나는 바이잔틴 노드를 모델링하여 PBFT가 적대적 상황에서 합의를 달성하는 방법을 탐색한다.
2026년 2월 24일 오후 6시 12분
알리바바의 Qwen 3.5 중간 모델 시리즈 출시는 대규모 언어 모델의 발전이 초기에는 성능 향상을 이끌었지만, 이로 인해 상당한 인프라 부담과 한계적인 이득이 도입되었음을 신호한다. 작은 AI 모델이 더 똑똑하다는 점을 강조하며 Qwen 접근 방식의 변화를 시사한다.
2026년 2월 24일 오후 2시 33분
구글 딥마인드 연구팀은 MARL 분야에서 진보를 위해 직관에 의존했던 기존의 방식을 변화시켜, CFR 및 PSRO와 같은 알고리즘을 수동으로 개선하는 대신 의미론적 진화를 적용하여 우수한 알고리즘 수렴을 이룩했다.
2026년 2월 24일 오전 4시 48분
Zyphra가 EEG 신호에 특화된 380M 파라미터 foundation 모델인 ZUNA를 공개했다. ZUNA는 채널 인필링과 초해상도를 수행하는 마스크된 확산 오토인코더로, Apache-2.0 라이선스 하에 가중치가 포함되어 있다.
2026년 2월 19일 오전 1시 43분
Tavus는 Phoenix-4를 출시하여 인공적인 비디오의 최종 영역인 '거친 계곡'을 개선하려고 합니다. Phoenix-4는 인간 상호 작용의 영혼을 부족한 AI 아바타를 보완하기 위해 설계된 새로운 생성 AI 모델입니다.
2026년 2월 18일 오후 6시 12분
구글 딥마인드 연구원들은 현재 대부분의 다중 에이전트 시스템이 환경이 변할 때 실패하는 취약한 하드 코딩 휴리스틱에 의존하고 있음을 지적하며, '에이전틱 웹'이 확장되려면 에이전트가 단순히 넘어선 더 복잡한 작업을 수행해야 한다고 주장하고 새로운 해결책을 제안했다.
2026년 2월 16일 오전 2시 04분
NVIDIA가 VibeTensor를 공개했는데, 이는 딥러닝을 위한 오픈소스 연구 시스템 소프트웨어 스택이다. VibeTensor는 LLM 기반 코딩 에이전트에 의해 고수준의 인간 안내 아래 생성되었다. 이 시스템은 코딩 에이전트가 Python과 JavaScript API에서 C++ 런타임 구성 요소 및 CUDA 메모리 관리까지 포괄하는 일관된 딥러닝 런타임을 생성할 수 있는지에 대한 구체적인 질문을 제기한다.
2026년 2월 4일 오후 11시 10분
이 튜토리얼에서는 고정된 오프라인 데이터로만 학습하는 안전 중요한 강화 학습 파이프라인을 구축한다. 사용자 정책에서 행동 데이터셋을 생성하고, d3rlpy를 사용하여 행동 복제 기준선과 보수적인 Q-Learning 에이전트를 모두 훈련시킨다.
2026년 2월 3일 오후 11시 49분
Robbyant은 LingBot-World를 공개했는데, 이는 영상 생성을 상호작용 시뮬레이터로 변환하는 대규모 세계 모델로, 총체 AI, 자율 주행, 게임 등을 위한 환경을 렌더링하며 시각적으로 뛰어나고 반응성이 뛰어난 특징을 갖추고 있다.
2026년 1월 30일 오후 8시 53분
AI2가 SERA(Soft Verified Efficient Repository Agents)를 소개했다. SERA는 감독 학습과 합성 경로만 사용하여 훨씬 큰 폐쇄 시스템과 맞추기 위해 개발된 코딩 에이전트 패밀리다. SERA는 AI2의 오픈 코딩 에이전트 시리즈의 첫 번째 릴리스이며, 주요 모델인 SERA-32B는...
2026년 1월 30일 오후 5시 53분
이 튜토리얼에서는 PyKEEN을 사용하여 지식 그래프 임베딩에 대한 고급 워크플로우를 살펴보며 현대적인 임베딩 모델이 어떻게 실제로 훈련, 평가, 최적화 및 해석되는지를 탐색합니다. 실제 지식 그래프 데이터셋의 구조를 이해한 후 여러 임베딩 모델을 체계적으로 훈련하고 비교하며 하이퍼파라미터를 조정하고 분석합니다.
2026년 1월 30일 오후 4시 18분

최신뉴스 전체보기

MemAgent: LLMs에서 장문 처리 재정의하는 강화 학습 프레임워크

MemAgent는 장문 처리를 위해 설계된 강화 학습 기반 메모리 에이전트로, LLMs에서 발생하는 성능 하락과 컴퓨팅 비용 문제를 해결하기 위해 ByteDance Seed와 Tsinghua University 연구진이 소개했다.

2025년 7월 19일 오후 6시 56분
NVIDIA AI가 DiffusionRenderer를 공개: 단일 비디오에서 편집 가능하고 사실적인 3D 장면을 위한 AI 모델

AI 기반 비디오 생성 기술이 빠르게 발전하고 있으며, NVIDIA의 DiffusionRenderer는 단일 비디오에서 편집 가능하고 사실적인 3D 장면을 생성하는 AI 모델을 소개했다. 이 모델은 놀라운 현실감을 가진 비디오를 생성하는 능력을 갖추고 있다. 그러나 이제는 전문적이고 현실적인 편집 기능이 추가되어 사용자가 비디오를 보다 전문적으로 수정할 수 있다.

2025년 7월 10일 오후 5시 25분
구글 AI가 스켈러블 다중 모달 의학 추론을 위해 MedGemma 27B와 MedSigLIP를 오픈 소스로 공개

구글 DeepMind와 구글 연구가 MedGemma 우산 아래 두 가지 새로운 모델을 소개했습니다. MedGemma 27B는 대규모 비전-언어 기반 모델이며 MedSigLIP는 가벼운 의학 이미지-텍스트 인코더입니다. 이들은 건강 인공지능 분야에서 가장 능력있는 오픈 소스 모델입니다.

2025년 7월 10일 오전 3시 35분
Hugging Face, SmolLM3 공개: 3B 길이의 다국어 추론 모델

Hugging Face가 SmolLM3을 공개했다. 3B 파라미터 아키텍처를 사용하여 강력한 다국어 추론을 제공하며 상태-of-the-art 성능을 획득하였다. 더 적은 파라미터로 비용 효율적이고 제약된 환경에서도 배포 가능하다.

2025년 7월 8일 오후 9시 04분
SynPref-40M 및 Skywork-Reward-V2: 최첨단 보상 모델을 위한 확장 가능한 인간-인공지능 정렬

현재의 보상 모델의 한계를 이해하는 것은 중요하다. 오늘날의 최고의 모델들도 여전히 복잡한 인간 선호도의 전체 범위를 반영하는 데 어려움을 겪고 있다. 훈련 기술이 발전해도 의미 있는 진전이 제한되어있는데, 주요 이유는 모델의 한계 때문이다.

2025년 7월 6일 오후 10시 09분
Chai Discovery Team가 Chai-2를 발표: AI 모델이 De Novo 항체 디자인에서 16%의 성공률 달성

Chai Discovery Team이 Chai-2를 소개했다. 이는 제로샷 De Novo 항체 디자인을 가능케 하는 멀티모달 AI 모델로, 각각의 대상에 대해 최대 20명의 후보자를 사용하여 52가지의 신규 대상에서 16%의 성공률을 달성했다. Chai-2는 이전 방법보다 100배 이상 우수한 결과를 보여주며, 2주 미만의 시간 내에 유효한 결합체를 제공하여 대규모 스크리닝의 필요성을 없앴다.

2025년 7월 6일 오전 1시 23분
AbstRaL: LLM에 추상적 추론 가르치기, GSM 벤치마크에서 강건성 향상을 위해

작은 LLM은 강건한 추론에 어려움을 겪는데, 익숙한 문제에서는 잘 작동하지만 이름이나 숫자를 바꾸거나 관련 없는 정보를 추가하는 등 약간의 변경으로 성능이 급격히 감소하는 것이 보고되고 있다.

2025년 7월 5일 오후 8시 46분
대형 언어 모델에서 주요 추론 단계를 식별하고 측정하는 머신러닝 프레임워크: Thought Anchors

대규모 언어 모델의 핵심 추론 단계를 식별하고 측정하는 머신러닝 프레임워크인 Thought Anchors 소개. 현재 해석 도구의 한계를 이해하는데 중점을 두며, DeepSeek 및 GPT 변형과 같은 AI 모델이 복잡한 추론 작업을 처리하는 데 어려움을 겪고 있음을 설명.

2025년 7월 3일 오후 8시 48분
DeepSeek R1T2 Chimera: R1-0528보다 200% 빠르며 개선된 추론과 간결한 출력

TNG 기술 컨설팅이 새로운 AoE 모델인 DeepSeek-TNG R1T2 Chimera를 발표했다. R1-0528, R1, V3-0324 세 부모 모델로 구성된 R1T2는 전문가 계층 보간을 통해 대형 언어 모델에서 새로운 효율성을 발휘한다.

2025년 7월 3일 오전 7시 39분
ReasonFlux-PRM: LLM에서 사고 연쇄 추론을 향상시키는 궤적 인식 보상 모델

대형 언어 모델은 논리적 사고 과정을 시뮬레이션하는 중간 단계를 통해 추론 정확도를 향상시키고 오류를 명확히 합니다. ReasonFlux-PRM은 LLM에서 이러한 사고 연쇄를 향상시키는 궤적 인식 보상 모델입니다.

2025년 7월 2일 오후 8시 42분
바이두, ERNIE 4.5 공개 소스화: 0.3B에서 424B 파라미터까지 스케일링하는 LLM 시리즈

바이두가 최신 ERNIE 4.5 시리즈를 오픈 소스로 공개했다. 이는 언어 이해, 추론 및 생성을 강화하기 위해 설계된 강력한 foundation 모델의 가족이다. 공개된 모델은 0.3B 밀집 모델부터 424B 파라미터를 가진 거대한 MoE(Mixture-of-Experts) 아키텍처까지 10가지 모델 변형을 포함하고 있다.

2025년 7월 1일 오전 11시 40분
AI 에이전트를 위한 기계 학습과 통계 분석을 결합한 사용자 정의 AI 도구 구축

Python을 사용하여 LangChain으로 구동되는 AI 에이전트에 통합할 수 있는 강력하고 지능적인 데이터 분석 도구를 만드는 방법을 안내하는 튜토리얼. 사용자 입력을 위한 구조화된 스키마를 정의하고 상관 분석과 같은 주요 기능을 구현함으로써 사용자 정의 AI 에이전트를 구축하는 중요성을 강조.

2025년 6월 29일 오전 6시 03분
Unbabel, 고품질 번역 및 다국어 LLMs에서 지시를 따르는 통합 프레임워크 TOWER+ 소개

대형 언어 모델은 대량의 학습 말뭉치를 활용하여 수십 개의 언어 및 방양을 번역하고, 언어적 미묘성을 포착함으로써 기계 번역 분야의 진전을 이끌어왔다. 그러나 이러한 모델을 번역 정확도를 위해 세밀하게 조정하는 것은 종종 그들의 지시 따르기 및 대화 기술을 손상시키며, 일반 목적의 버전들은 전문적인 충실성 기준을 충족시키기 어렵다. TOWER+는 정확하고 문화적으로 인식된 번역과 함께 다국어 LLMs에서 지시를 따르는 것을 균형잡아준다.

2025년 6월 27일 오후 3시 36분
구글 AI, 엣지 배포용으로 만들어진 소형 다중 모달 모델 ‘Gemma 3n’ 출시

구글이 엣지 디바이스에 대규모 다중 모달 AI 기능을 제공하기 위해 디자인된 Gemma 3n을 소개했다. 이 모델은 텍스트, 이미지, 오디오, 비디오를 클라우드 컴퓨팅에 의존하지 않고 장치 내에서 처리하고 이해할 수 있다.

2025년 6월 27일 오전 1시 56분
LLM 추론 트레이스에서의 개인정보 위험을 밝힌 새로운 AI 연구

새로운 AI 연구에 따르면, 개인 LLM 에이전트를 통해 민감한 사용자 데이터에 접근하는 LLM은 상황에 맞는 개인정보 이해 능력과 특정 사용자 정보를 공유할 적절성을 판단하는 능력에 대한 우려를 불러일으킨다. 대형 추론 모델은 작동하는 동안 도전을 제기한다.

2025년 6월 25일 오후 4시 16분
바이트댄스 연구원들, 6조 토큰으로 학습된 모델 중심의 코드 LLM ‘시드 코더’ 소개

바이트댄스 연구원들이 6조 토큰으로 학습된 모델 중심의 코드 LLM인 ‘시드 코더’를 소개했다. 코드 데이터는 LLM 학습에 중요하며 코딩 작업뿐만 아니라 더 넓은 추론 능력에도 도움을 준다. 오픈소스 모델들은 수작업 필터링과 전문가가 제작한 규칙에 의존하는 반면, 바이트댄스의 접근 방식은 시간이 많이 소요되고 편향적이며 여러 언어에 걸쳐 확장하기 어렵다.

2025년 6월 25일 오전 4시 17분
바이트댄스 연구원들, 프로토리즈닝 소개: 논리 기반 프로토타입을 통한 LLM 일반화 향상

바이트댄스 연구자들이 프로토리즈닝을 소개했는데, 이는 LLM(대규모 언어 모델)의 일반화를 논리 기반 프로토타입을 통해 향상시키는 것이다. 최근 LRM의 교차 도메인 추론이 중요한데, 특히 Long CoT 기술을 사용해 훈련된 모델들은 다양한 도메인에서 인상적인 일반화를 보여준다.

2025년 6월 24일 오후 5시 37분
Mistral AI, Mistral Small 3.2 출시: AI 통합을 위한 강화된 명령 따르기, 반복 감소 및 강화된 함수 호출

Mistral AI가 Mistral Small 3.2를 출시했다. 이 버전은 반복적인 오류 최소화, 강화된 강인성, 사용자 상호작용 향상을 위해 설계되었으며 AI 모델이 더욱 복잡한 계산 작업에 필수적해지는 가운데, 실제 시나리오에 매끄럽게 통합될 수 있도록 지속적으로 업그레이드되고 있다.

2025년 6월 21일 오후 5시 31분
Flow 매칭 모델에서의 일반화는 근사로부터 나온다, 확률성이 아닌

Deep generative models의 일반화 능력과 기작을 이해하는 것이 어려운데, generative models이 실제로 일반화를 하는지 여부에 대한 이해가 중요하다. Flow matching 모델에서의 일반화는 근사에서 나오며 확률성과는 무관하다.

2025년 6월 21일 오후 2시 19분
메타 AI 연구자들, 언어 모델링 벤치마크에서 토큰 기반 트랜스포머를 능가하는 확장 가능한 바이트 수준 자기회귀 U-Net 모델 소개

언어 모델링은 자연어 처리에서 중요한 역할을 하며, 기계가 인간 언어와 유사한 텍스트를 예측하고 생성할 수 있게 합니다. 최근 대규모 트랜스포머 시스템으로 발전한 모델들 중 하나인 확장 가능한 바이트 수준 자기회귀 U-Net 모델이 토큰 기반 트랜스포머를 능가하는 것으로 나타났다.

2025년 6월 21일 오전 2시 43분
MiniMax AI가 MiniMax-M1을 공개: 장기 문맥 및 강화 학습을 위한 456B 파라미터 하이브리드 모델

AI 모델의 장기 문맥 추론 도전, AI가 현실 세계와 소프트웨어 개발 환경에서 더 많은 책임을 맡을 때, 연구자들은 장기 문맥과 강화 학습에 적합한 아키텍처를 찾고 있다.

2025년 6월 19일 오후 1시 40분
ReVisual-R1: 장기적이고 정확하며 심사숙고한 추론을 이루는 오픈 소스 7B 멀티모달 대형 언어 모델 (MLLMs)

최근 텍스트 기반 언어 모델의 발전으로 RL이 강력한 추론 기술 개발에 도움이 되는 것을 입증했다. 이에 영감을 받아 연구자들은 시각적 및 텍스트 입력 간 추론 능력을 향상시키기 위해 동일한 RL 기술을 MLLMs에 적용하려고 시도해왔지만 성공하지 못했다.

2025년 6월 19일 오전 2시 54분
HtFLlib: 이질적 페더레이티드 러닝 방법을 평가하기 위한 통합 벤치마킹 라이브러리

AI 연구 기관들은 고유한 요구 사항에 맞는 이질적 모델을 개발하지만, 훈련 중 데이터 부족 문제에 직면한다. 기존 페더레이티드 러닝은 동질적 모델 협업만 지원하므로, 고객이 고유한 요구 사항에 맞는 모델 아키텍처를 개발할 때 문제가 발생한다.

2025년 6월 18일 오후 9시 54분
인공 신경망 오토인코더의 내부 작동을 드러내는 잠재 벡터 필드의 중요성

오토인코더와 잠재 공간은 고차원 데이터의 압축 표현을 학습하는 데 사용되는데, 이들은 데이터를 저차원 잠재 공간으로 투영하고 다시 원래 형태로 재구성하는 인코더-디코더 구조를 사용한다. 이 논문에서는 잠재 벡터 필드가 신경 오토인코더의 내부 작동을 어떻게 드러내는지에 대해 설명한다.

2025년 6월 18일 오전 4시 37분
Fine-Tuning에서 Prompt Engineering으로: 효율적인 트랜스포머 적응을 위한 이론과 실제

Self-attention을 이용한 대규모 트랜스포머 모델의 섬세한 조정 도전, 효율적인 트랜스포머 적응을 위한 이론과 실제에 대한 내용 소개.

2025년 6월 17일 오후 9시 14분
EPFL 연구진, LLMs에서 평생 학습 모델 편집을 위한 확장 가능한 프레임워크 MEMOIR 소개

EPFL 연구진은 폭넓은 데이터셋에서의 사전 학습을 통해 다양한 작업에 뛰어난 성능을 보이는 LLMs가 배포 중에 오래된 정보나 편향을 반영할 수 있어 지속적인 지식 업데이트가 필요한 문제를 제기. 기존의 파인 튜닝 방법은 비용이 많이 들고 재앙적인 망각에 취약한데, EPFL은 이에 대처할 수 있는 MEMOIR 프레임워크를 소개함.

2025년 6월 17일 오전 12시 41분
StepFun이 Step-Audio-AQAA를 소개합니다: 자연스러운 음성 상호작용을 위한 완전한 엔드 투 엔드 오디오 언어 모델

Step-Audio-AQAA는 음성 인식, 자연어 이해, 오디오 생성을 결합한 오디오 언어 모델로, 텍스트 변환에 의존하지 않고 음성 상호작용을 위해 설계되었습니다.

2025년 6월 16일 오전 4시 17분
내부 일관성 최대화 (ICM): LLM을 위한 레이블 없는 비지도 학습 프레임워크

사전 훈련된 언어 모델(LMs)을 위한 사후 훈련 방법은 인간 감독을 필요로 하는데, 이는 작업과 모델 행동이 매우 복잡해지면 신뢰성이 떨어지는 한계를 가지고 있다. 이에 레이블 없는, 비지도 학습 프레임워크인 내부 일관성 최대화(ICM)가 소개되었다.

2025년 6월 14일 오후 4시 28분
MemOS: 진화하는 대형 언어 모델을 위한 메모리 중심 운영 체제

대형 언어 모델은 인공 일반 지능(AGI)을 달성하는 데 핵심 요소로 인식되지만 메모리 처리 방식에 대한 주요 제한 사항이 있습니다. MemOS는 외부 지식을 통합하여 정보를 오래 보관하거나 업데이트하는 데 어려움을 겪는 대부분의 대형 언어 모델의 한계를 극복하기 위한 메모리 중심 운영 체제입니다.

2025년 6월 14일 오전 10시 23분
Sakana AI, 작업 설명에 기반한 작업별 LLM 어댑터 생성하는 Text-to-LoRA (T2L) 소개

Sakana AI는 Text-to-LoRA (T2L)을 소개했다. 이는 작업 설명에 기반해 작업별 LLM 어댑터를 생성하는 하이퍼네트워크로, 새로운 특화 작업에 대한 모델 적용을 단순화한다.

2025년 6월 14일 오전 1시 03분
OpenThoughts: 추론 모델을 위한 확장 가능한 지도학습 Feine-Tuning SFT 데이터 정제 파이프라인

최근 추론 모델들은 지도학습 Feine-Tuning (SFT)과 강화 학습 (RL)과 같은 기술을 활용하여 수학, 코딩, 과학 분야에서 높은 성능을 보여주고 있으나 이러한 선두적인 추론 모델들의 완벽한 방법론은 공개되어 있지 않다.

2025년 6월 13일 오후 11시 49분
LLM이 실제로 어떻게 추론하는가? 지식과 논리를 분리하는 프레임워크

최근의 LLM 발전은 복잡한 작업에서 뚜렷한 개선을 이끌어내었지만, 이 모델들의 단계적 추론 과정은 여전히 불분명하다. 대부분의 평가는 최종 답변 정확도에 초점을 맞추어 추론 과정을 숨기고 모델이 지식을 어떻게 결합하는지를 나타내지 않는다.

2025년 6월 11일 오후 4시 12분
NVIDIA 연구진, 트랜스포머 LLM에서 8배 KV 캐시 압축을 위한 다이나믹 메모리 희박화(DMS) 소개

NVIDIA와 대학 연구진이 최근 논문에서, 큰 언어 모델이 더 긴 시퀀스 또는 병렬 추론 체인을 생성하기를 요구함에 따라, 추론 시간 성능이 토큰 수뿐 아니라 키-값(KV) 캐시의 메모리 풋프린트에 의해 심각하게 제한되는 문제를 다루었다.

2025년 6월 11일 오전 4시 11분
Meta가 LlamaRL을 소개: 효율적인 규모 확장 LLM 훈련을 위한 PyTorch 기반 강화 학습 RL 프레임워크

강화 학습은 대형 언어 모델 (LLM)을 미세 조정하는 데 강력한 방법으로 등장했다. 이 모델은 이미 요약부터 코드 생성까지 다양한 작업을 수행할 수 있으며, RL은 구조화된 피드백을 기반으로 출력을 조정하여 지능적인 행동을 더욱 향상시킨다.

2025년 6월 10일 오후 2시 40분
ALPHAONE: AI 모델의 추론을 조절하는 범용 테스트 시간 프레임워크

대형 언어 모델에 의해 자주 사용되는 대형 추론 모델은 수학, 과학 분석 및 코드 생성의 고수준 문제를 해결하는 데 사용된다. 이중 모드 사고는 간단한 추론에 대한 신속한 응답과 복잡한 문제에 대한 신중하고 느린 사고를 모방한다. 이는 사람들이 직관적인 응답에서 복잡한 문제로 전환하는 방식을 반영한다.

2025년 6월 9일 오전 3시 07분
구글, Gemini 2.5와 LangGraph를 활용한 오픈소스 풀 스택 AI 에이전트 스택 소개

대화형 AI 연구 보조기의 필요성, 최신 대형 언어 모델의 한계와 동적 AI 에이전트 스택 소개

2025년 6월 8일 오후 3시 56분
생물학 분야에서 AI가 생물학 전문가처럼 유전체에 대해 추론할 수 있게 해주는 세계 최초의 추론 모델 ‘BioReason’ 만나보기

AI를 유전체 연구에 활용하는 주요 장애물 중 하나는 복잡한 DNA 데이터로부터 해석 가능한 단계별 추론의 부족이다. BioReason은 생물학 메커니즘에 대한 통찰력을 제공하는 세계 최초의 추론 모델로, 기존의 DNA 모델이 가진 한계를 극복하고, 유전체에 대한 복잡한 추론을 가능하게 한다.

2025년 6월 8일 오전 2시 02분
알리바바 Qwen 팀, Qwen3-Embedding 및 Qwen3-Reranker 시리즈 공개 – 다국어 임베딩 및 랭킹 표준 재정의

알리바바의 Qwen 팀이 Qwen3-Embedding 및 Qwen3-Reranker 시리즈를 발표했다. 이는 다국어 임베딩 및 랭킹 표준을 재정의하여 현대 정보 검색 시스템에 기초를 제공한다. 현재 접근 방식은 고다국어 충실성 및 작업 적응성을 달성하는 데 어려움을 겪고 있지만, Qwen3 시리즈는 이러한 문제를 극복하고 있다.

2025년 6월 6일 오전 12시 24분
NVIDIA AI, Llama Nemotron Nano VL 출시: 문서 이해를 위한 최적화된 소형 Vision-Language 모델

NVIDIA가 Llama Nemotron Nano VL을 소개했다. 이는 문서 수준 이해 작업에 효율적이고 정확한 비전-언어 모델(VLM)로, 복잡한 문서 구조의 정확한 구문 분석이 필요한 애플리케이션을 대상으로 한다.

2025년 6월 4일 오전 2시 47분
LLMs가 이제 언어를 넘어 사고할 수 있게 되었다: 연구자들이 이산 토큰을 연속적인 개념 임베딩으로 대체하기 위해 소프트 씽킹을 소개

현재의 대형 언어 모델은 자연어의 범위 내에서 추론하는 데 한정되어 있지만, 연구자들은 이산 언어 토큰 대신 연속적인 개념 임베딩으로 대체하며 모델의 표현 능력과 범위를 확장시키는 소프트 씽킹을 도입했다.

2025년 5월 28일 오전 12시 17분
데이터 과학 인재 네트워크 구축

MIT 데이터, 시스템 및 사회 연구소는 PERIT의 BREIT와 협력하여 전 세계 수백 명의 학습자들을 데이터 과학과 머신 러닝으로 역량 강화하고 있습니다.

2025년 5월 27일 오후 4시 11분MIT News
Qwen Researchers가 큰 언어 모델에서 긴 문맥 추론을 위한 강화 학습 프레임워크인 QwenLong-L1을 제안

대규모 추론 모델(LRMs)은 짧은 문맥 추론에서 강화 학습을 통해 인상적인 성능을 보여주었지만, 이러한 이익은 긴 문맥 시나리오로 일반화되지 않는다. 다중 문서 QA, 연구 종합, 법적 또는 금융 분석과 같은 응용 프로그램에서는 모델이 100K 토큰을 초과하는 시퀀스를 처리하고 추론해야 한다.

2025년 5월 27일 오전 3시 18분
UT Austin 연구진, 20,000개의 혼돈적 ODE로 사전 학습된 비선형 동역학을 위한 기반 모델 ‘Panda’ 소개

UT Austin 연구진이 20,000개의 혼돈적 ODE로 사전 학습된 비선형 동역학을 위한 기반 모델 ‘Panda’를 소개했다. 혼돈적 시스템은 초기 조건에 매우 민감하여 장기적인 예측이 어렵기 때문에, 이를 모델링하는 데 오차가 발생할 경우 빠르게 커질 수 있다. 이에 대한 새로운 접근 방식을 제시하고 있다.

2025년 5월 26일 오후 9시 05분
NVIDIA, 효율적인 엣지 AI 및 과학 작업에 최적화된 Llama Nemotron Nano 4B 발표

NVIDIA가 Llama Nemotron Nano 4B를 공개했는데, 이는 과학 작업, 프로그래밍, 심볼릭 수학, 함수 호출 및 명령어 따르기에 강력한 성능과 효율성을 제공하면서 엣지 배포에 적합한 오픈 소스 추론 모델이다. 40억 개의 파라미터로 높은 정확도를 달성하며, 비교 모델 대비 최대 50% 높은 처리량을 달성했다.

2025년 5월 25일 오후 5시 06분
NVIDIA AI, 강화 학습을 통해 수학 및 코드 추론 발전을 위한 AceReason-Nemotron 소개

NVIDIA의 인공지능이 강화 학습을 통해 수학 및 코드 추론을 발전시키는 AceReason-Nemotron을 소개했다. AI 시스템의 추론 능력은 중요한 구성 요소이며, 최근 대규모 강화 학습을 통해 추론 모델을 구축하는 데 흥미가 커지고 있다.

2025년 5월 25일 오후 1시 11분
LLM을 활용한 어셈블리 코드 최적화: 강화 학습이 기존 컴파일러를 능가

LLM은 프로그래밍 작업에서 놀라운 능력을 보여주었지만, 프로그램 최적화에 대한 잠재력은 완전히 탐구되지 않았다. 최근의 노력 중 일부는 LLM을 사용하여 C++ 및 Python과 같은 언어의 성능을 향상시키는 데 사용되었지만, LLM을 사용하여 코드를 최적화하는 더 넓은 응용은 여전히 제한적이다.

2025년 5월 24일 오후 4시 03분
싱가포르 국립대학 연구진, ‘Thinkless’ 소개: DeGRPO를 활용해 불필요한 추론 90% 줄임

싱가포르 국립대학 연구진은 ‘Thinkless’라는 적응형 프레임워크를 소개했다. 이 프레임워크는 DeGRPO를 사용하여 불필요한 추론을 최대 90%까지 줄일 수 있다.

2025년 5월 23일 오전 1시 59분
구글 딥마인드, 실시간 장치 사용을 위한 소형 고효율 다중 모달 AI 모델 ‘Gemma 3n’ 공개

Gemma 3n은 실시간 장치 사용을 위한 소형이면서 고효율적인 다중 모달 AI 모델로, 지능을 기기에 직접 통합함으로써 빠른 응답 속도를 제공하고 메모리 요구를 줄이며 사용자 프라이버시를 강화한다.

2025년 5월 22일 오전 12시 03분
구글 AI가 발표한 MedGemma: 의료 텍스트 및 이미지 이해 성능을 위해 훈련된 오픈 스위트

구글이 개발한 MedGemma는 의료 텍스트와 이미지 이해를 위해 훈련된 모델 스위트로, Gemma 3 아키텍처 기반으로 구축되었다. 의료 이미지와 텍스트 데이터의 통합 분석을 필요로 하는 의료 애플리케이션 개발자들에게 견고한 기반을 제공한다.

2025년 5월 20일 오후 9시 31분
AI의 추론을 드러내주지 않을 수도 있는 Chain-of-Thought: Anthropics의 새 연구가 감춰진 결함을 밝혀냄

Chain-of-Thought (CoT) 프롬프팅은 대형 언어 모델의 추론 과정을 개선하고 해석하는 인기 있는 방법이 되었다. 그러나 최근 Anthropics의 연구에 따르면, 이 방법은 AI의 추론을 완전히 이해하는 데 한계가 있을 수 있다.

2025년 5월 19일 오후 10시 21분
강화 학습이 LLMs를 검색에 능숙하게 만듭니다: Ant Group 연구원들이 SEM을 도입하여 도구 사용과 추론 효율성 최적화

최근 LLMs의 발전으로 복잡한 추론 작업을 수행하고 검색 엔진과 같은 외부 도구를 효과적으로 사용하는 잠재력이 드러났다. 그러나 내부 지식 대신 검색을 언제 의존해야 하는지 모델에 스마트한 결정을 내릴 수 있도록 가르치는 것은 여전히 중요한 과제다. 단순한 프롬프트 기반 방법은 모델이 도구를 활용하도록 안내할 수 있지만, LLMs는 여전히 어려움을 겪고 있다.

2025년 5월 18일 오후 10시 52분
LLMs는 내지식에 대해 행동하는 데 어려움을 겪는다: Google DeepMind 연구원들이 강화 학습 세밀 조정을 사용하여 앎과 행동 간의 간극을 메꾸다

대규모 데이터셋으로 훈련된 언어 모델은 언어 이해 및 생성 도구로 두드러지며, 상호 작용 환경에서 의사 결정 요소로 작동할 수 있다. 그러나 행동 선택이 필요한 환경에 적용될 때 이러한 모델은 내부 지식과 추론을 활용하여 효과적으로 행동하기를 기대된다. 그러나 LLMs는 이를 실현하기 어렵다. Google DeepMind 연구원들은 강화 학습 세밀 조정을 사용하여 이러한 간극을 메우려고 한다.

2025년 5월 18일 오후 10시 24분
SWE-Bench 성능이 도구 사용 없이 50.8%로 달성: 단일 상태 내 문맥 에이전트에 대한 사례

LM 에이전트의 최근 발전은 복잡한 실제 과제 자동화에 유망한 잠재력을 보여주고 있음. 이러한 에이전트는 일반적으로 API를 통해 작업을 제안하고 실행하여 소프트웨어 공학, 로봇공학, 과학 실험 등의 응용 프로그램을 지원함. 이러한 과제가 더 복잡해지면 LM 에이전트 프레임워크는 다중 에이전트, 다단계 검색, 맞춤형 지원을 포함하도록 진화해왔음.

2025년 5월 17일 오후 11시 06분
LLMs가 실제 대화에서 어려움을 겪는다: Microsoft와 Salesforce 연구자들이 멀티턴의 미정의 작업에서 39%의 성능 저하를 밝혀

대화형 인공지능은 사용자 요구가 점진적으로 드러나는 동적 상호작용을 가능하게 하는데 초점을 맞추고 있습니다. Microsoft와 Salesforce 연구자들이 발표한 연구에 따르면, 대화형 인공지능 모델인 LLMs는 실제 대화에서 어려움을 겪고 멀티턴의 미정의 작업에서 39%의 성능 저하가 있습니다.

2025년 5월 17일 오전 2시 23분
AI 에이전트들이 이제 병렬로 코드를 작성합니다: OpenAI가 ChatGPT 내부의 클라우드 기반 코딩 에이전트 Codex를 소개합니다

OpenAI가 ChatGPT에 통합된 클라우드 기반 소프트웨어 엔지니어링 에이전트 Codex를 소개했습니다. 기존의 코딩 어시스턴트와 달리 Codex는 자동 완성 도구뿐만 아니라 코드 작성, 디버깅, 테스트 실행 등의 프로그래밍 작업을 자율적으로 수행할 수 있는 클라우드 기반 에이전트 역할을 합니다.

2025년 5월 16일 오후 2시 46분
Tsinghua 및 ModelBest 연구진, Ultra-FineWeb: 트리리언 토큰 데이터셋 발표, 벤치마크에서 LLM 정확도 향상

Tsinghua 대학 및 ModelBest 연구진이 Ultra-FineWeb이라는 트리리언 토큰 데이터셋을 발표했다. 이 데이터셋은 LLM의 정확도를 향상시켜주며, 모델 기반 필터링을 통해 고품질 샘플을 식별하는 방법을 사용한다.

2025년 5월 15일 오전 3시 11분
강화 학습, 미세 조정이 아닌: Nemotron-Tool-N1가 최소 감독과 최대 일반화로 LLMs에게 도구 사용을 가르침

LLMs를 외부 도구나 기능으로 장착하는 것이 인기를 끌며, 최소 감독과 최대 일반화로 LLMs의 도구 호출 능력을 향상시키기 위해 고급 언어 모델과 SFT를 통해 대량의 도구 사용 궤적을 종합하는 기존 연구가 있다. 그러나 존재하는 연구의 중요한 한계는 합성 데이터셋이 명시적 추론 단계를 포착하지 못하고 표면적인 도구 사용만 가능하다는 점에 있다.

2025년 5월 13일 오후 4시 30분
PrimeIntellect가 INTELLECT-2를 발표: 분산 비동기 강화 학습을 통해 훈련된 32B 추론 모델

INTELLECT-2는 32B의 추론 모델로, 분산 비동기 강화 학습을 통해 훈련되었다. 이 모델은 전통적인 중앙 집중식 훈련 파이프라인의 제약을 극복하고, 협업과 실험의 가능성을 확대한다.

2025년 5월 12일 오후 1시 12분
LightOn AI가 GTE-ModernColBERT-v1을 공개: 장문 문서 검색을 위한 확장 가능한 토큰 수준의 의미 검색 모델 및 최고 수준의 벤치마크 성능

LightOn AI가 GTE-ModernColBERT-v1을 발표했다. 이 모델은 토큰 수준의 의미 검색을 통해 장문 문서 검색에 탁월한 성능을 보여준다. 이는 키워드 기반 방법보다 더욱 효과적인 사용자 의도에 부합하는 결과를 제공한다.

2025년 5월 11일 오후 2시 08분
알리바바의 ZeroSearch, 강화 학습과 시뮬레이션 문서 활용해 LLMs 검색을 실시간 검색 없이 가르침

알리바바의 ZeroSearch는 강화 학습과 시뮬레이션 문서를 활용하여 대형 언어 모델의 검색을 실시간 검색 없이 가르치는 방법을 제시하고 있다. 기존의 정적 데이터셋으로 훈련된 언어 모델은 시간이 지남에 따라 오래되어 문제가 발생하는데, ZeroSearch는 이를 극복하기 위해 새로운 방법론을 제시하고 있다.

2025년 5월 10일 오후 4시 49분
자가 학습하는 AI: Tsinghua 대학의 ‘Absolute Zero’가 외부 데이터 없이 LLM을 훈련시킴

Tsinghua 대학의 ‘Absolute Zero’는 외부 데이터 없이 LLM을 훈련시키는데 성공하였다. 현재의 RLVR 작업은 규모 확장 문제에 직면하고 있지만, ‘Absolute Zero’는 중간 추론 단계를 모방하는 대신 결과 기반 피드백에 의존하여 추론 능력을 향상시켰다.

2025년 5월 9일 오후 6시 56분
Hugging Face, NanoVLM 출시: 750줄의 코드로 처음부터 비전-언어 모델 학습 가능한 순수 PyTorch 라이브러리

Hugging Face가 nanoVLM을 출시했다. 이는 750줄의 코드로 비전-언어 모델을 처음부터 학습할 수 있는 PyTorch 기반의 간결하고 교육적인 프레임워크다.

2025년 5월 8일 오전 3시 08분
LLMs 이제 최소 대기 시간으로 실시간 대화 가능: 중국 연구진이 확장 가능한 모듈식 음성 언어 모델인 LLaMA-Omni2 공개

중국 연구진이 만든 LLaMA-Omni2는 실시간 음성 대화를 가능하게 하는 모듈식 프레임워크를 소개했다. 이 모델은 음성 지각과 합성을 언어 이해와 통합하여 이전의 계층적 시스템과 달리 실시간 대화를 가능케 한다.

2025년 5월 6일 오후 7시 13분
RWKV-X가 희소 어텐션과 순환 메모리를 결합하여 선형 복잡도로 효율적인 1백만 토큰 디코딩 가능

Transformer 아키텍처를 기반으로 한 LLM은 긴 문맥 입력을 처리할 때 이차 복잡도로 인해 확장에 어려움을 겪는다. RWKV와 같은 선형 아키텍처는 이 문제를 해결하나, 긴 문맥을 이해하는 데 어려움을 겪는다. RWKV-X는 희소 어텐션과 순환 메모리를 결합하여 선형 복잡도로 1백만 토큰 디코딩을 효율적으로 가능케 한다.

2025년 5월 5일 오후 2시 09분
수학을 넘어 강화 학습 확장: NVIDIA AI 및 CMU 연구진, 다중 도메인 추론을 위한 Nemotron-CrossThink 제안

대형 언어 모델이 다양한 작업에서 놀라운 추론 능력을 보여주고 있으며, 강화 학습은 그들의 심층 사고 능력을 개선하는 중요한 메커니즘으로 작용합니다. 이 연구는 수학적 추론 및 코딩 영역에서의 강화 학습 기술의 성공을 보여주었지만, 이를 넓은 추론 맥락으로 확장하는 것이 중요합니다.

2025년 5월 5일 오전 1시 31분
IBM AI, 그랜ite 4.0 Tiny 미리보기 공개: 긴 문맥과 지시 작업에 최적화된 콤팩트 오픈 언어 모델

IBM은 그랜ite 4.0 패밀리의 최소 구성원인 그랜ite 4.0 Tiny 미리보기를 소개했다. Apache 2.0 라이선스로 출시된 이 콤팩트 모델은 효율성, 투명성, 성능 사이의 균형을 잡아 긴 문맥 작업 및 지시 따르기 시나리오에 최적화되었다.

2025년 5월 3일 오후 9시 36분
LLMs는 한 예제로부터 복잡한 수학을 배울 수 있습니다: 워싱턴 대학, 마이크로소프트, USC의 연구진들이 1회 강화 학습과 검증 가능한 보상으로 강력한 성능 발휘

최근 LLMs의 발전으로 OpenAI-o1, DeepSeek-R1, Kimi-1.5 등이 복잡한 수학적 추론 작업에서 성능을 크게 향상시켰다. 규칙 기반 보상을 사용하는 강화 학습은 이러한 개선에 중요한 역할을 한다. 최종 결과물을 향상시키는 RLVR은 모델의 문제 해결 방법이 올바른지를 나타내는 바이너리 신호를 일반적으로 사용한다.

2025년 5월 3일 오전 1시 28분
Xiaomi, 더 강력한 수학 및 코드 추론 능력을 갖춘 소형 언어 모델 MiMo-7B 발표

MiMo-7B는 더 큰 모델보다 더 우수한 수학 및 코드 추론 능력을 갖추고, 사전 훈련과 강화 학습을 통해 개발되었다. 인간 지능에서 독점적으로 여겨졌던 추론 능력이 이제 보다 효율적이고 널리 사용 가능한 소형 모델에서도 활발히 연구되고 있다.

2025년 5월 2일 오전 12시 03분
AI 에이전트 프로토콜에 대한 기술적 탐구: 확장 가능한 인공지능 시스템에서의 역할

대형 언어 모델 에이전트가 기업 및 연구 생태계 전반에 걸쳐 주목을 받는 가운데, 에이전트들의 통신 역량을 제한하는 표준화된 프로토콜의 부재로 인해 커뮤니케이션 병목 현상이 발생했다. 이로 인해 에이전트들의 상호 조정 능력 및 외부 도구와의 인터페이스가 제약을 받고 있다.

2025년 5월 1일 오후 10시 53분
DeepSeek-AI가 DeepSeek-Prover-V2를 발표: 공식 이론 증명을 위한 대형 언어 모델, 서브 골 분해 및 강화 학습을 통해

DeepSeek-Prover-V2는 공식 이론 증명을 위해 설계된 대형 언어 모델로, 서브 골 분해와 강화 학습을 활용한다. 수학적 추론은 강력한 논리 일관성을 요구하는데, 이 모델은 Lean, Coq, Isabelle과 같은 증명 어시스턴트의 역할을 한다.

2025년 5월 1일 오후 3시 54분
Meta AI, 효율성과 RAG 성능 최적화를 위한 ReasonIR-8B 소개

Meta AI가 ReasonIR-8B를 소개했다. 이는 효율성과 RAG 성능을 최적화한 추론 중심의 검색기다. 현재 대부분의 검색기는 짧은 사실성 질문 데이터셋으로 훈련되어 있어 복잡한 다단계 추론 작업에 대한 정보를 검색하는 것이 여전히 어려운 도전으로 남아있다.

2025년 5월 1일 오전 2시 21분
ThinkPRM: 확장 가능한 추론 검증을 위한 생성 과정 보상 모델

LLMs와 추론 작업에 더 많은 계산을 활용하기 위해 고품질의 프로세스 보상 모델(PRMs)이 필요하다. 이 모델은 문제-해결 쌍에 점수를 매겨 해결책이 올바른지 나타내며, 판별적 분류기로 구현되어 왔다. 그러나 이러한 모델은 인간 주석, 골드 단계별 솔루션 등 많은 리소스를 필요로 한다.

2025년 4월 29일 오후 1시 40분
알리바바 Qwen 팀, Qwen 시리즈의 최신 대형 언어 모델인 Qwen3 공개

알리바바의 Qwen 팀이 Qwen 시리즈의 최신 대형 언어 모델인 Qwen3을 공개했다. 이 모델은 Dense 및 Mixture-of-Experts (MoE) 모델의 포괄적인 스위트를 제공하며, 세밀한 추론, 다국어 능력, 계산 효율성에 대한 다양한 도전 과제를 해결하고 있다.

2025년 4월 28일 오후 9시 08분
추론 시간 스케일링 방법의 종합 분석: 언어 모델에서 추론 성능 최적화

언어 모델은 다양한 작업에서 뛰어난 성능을 보이지만 복잡한 추론은 계산 리소스와 전문 기술이 추가로 필요하여 도전적이다. 이에 따라 추론 시간 계산(ITC) 스케일링 방법이 발전되었는데, 이는 모델 출력을 향상시키기 위해 추가 계산 리소스를 할당하는 방법이다.

2025년 4월 27일 오전 2시 06분
AgentA/B: LLM 에이전트를 사용하는 확장 가능한 AI 시스템, 전통적인 A/B 테스트를 변형시켜 실제 사용자 행동을 시뮬레이션

AgentA/B는 LLM 에이전트를 활용하여 실제 사용자 행동을 시뮬레이션하고 라이브 웹 플랫폼에서 전통적인 A/B 테스팅을 변형하는 확장 가능한 AI 시스템이다. 웹 인터페이스 설계 및 평가는 디지털 선도적인 세계에서 가장 중요한 작업 중 하나이며, 레이아웃, 요소 위치, 또는 탐색 논리의 변경은 사용자가 웹사이트와 상호 작용하는 방식에 영향을 줄 수 있다.

2025년 4월 26일 오전 12시 18분
NVIDIA AI, 수학 추론을 위한 OpenMath-Nemotron-32B 및 14B-Kaggle 공개: AIMO-2 대회에서 1위 차지하며 새로운 기록 설정

NVIDIA AI가 OpenMath-Nemotron-32B 및 14B-Kaggle을 발표했다. 이는 수학 추론을 위한 고급 AI 모델로, AIMO-2 대회에서 1위를 차지하고 새로운 기록을 세웠다.

2025년 4월 25일 오전 1시 49분
Sequential-NIAH: 장문에서 순차 정보 추출에 대한 LLM 평가 벤치마크

긴 문맥을 다루는 데 LLM의 성능을 평가하는 것은 중요하며, 최근의 LLM인 Gemini-1.5, GPT-4, Claude-3.5, Qwen-2.5 등은 강력한 추론 능력을 유지하면서 문맥 길이의 한계를 늘렸다. 이러한 능력을 평가하기 위해 ∞Bench, LongBench, L-Eval과 같은 벤치마크가 개발되었다.

2025년 4월 24일 오전 1시 52분
OpenAI, 기업 워크플로우에서 AI 활용 사례 식별과 확장에 대한 실용적 가이드 발표

OpenAI가 “Identifying and Scaling AI Use Cases”라는 포괄적인 프로세스 지향 가이드를 발행했다. 300개 이상의 사례 연구와 통찰을 바탕으로 기업이 AI를 측정 가능한 영향을 창출하는 방법을 결정하는 것이 주요 과제다.

2025년 4월 21일 오전 2시 46분
ReTool: 컴퓨터 도구를 활용한 강화 학습 프레임워크로 LLM 추론 최적화

Reinforcement learning은 LLM의 추론 능력을 향상시키는 강력한 기법이지만, 숫자 계산이나 기호 조작이 필요한 작업에서 한계가 있다. ReTool은 이러한 한계를 극복하기 위한 도구-Augmented 강화 학습 프레임워크다.

2025년 4월 21일 오전 2시 34분
LLMs가 유휴 상태에서도 생각할 수 있다: Letta 및 UC 버클리 연구자들, ‘슬립 타임 컴퓨트’를 소개하여 추론 비용을 낮추고 정확도를 높이지만 지연 시간 희생 없이

대형 언어 모델(LLMs)은 복잡한 추론 작업을 처리하는 능력으로 주목받고 있으며, Letta와 UC 버클리의 연구자들은 유휴 상태에서 컴퓨팅을 확장하여 더 어려운 문제에 더 많은 리소스를 할당함으로써 더 높은 정확도를 달성하는 ‘슬립 타임 컴퓨트’를 소개했다.

2025년 4월 20일 오후 10시 32분
LLMs는 놀라운 데이터에 속을 수 있다: Google DeepMind가 의도치 않은 지식 오염을 예측하고 줄이는 새로운 기술 소개

대형 언어 모델(LLMs)은 방대한 양의 텍스트 데이터를 소화하면서 지식을 업데이트하는데 그들을 속일 수 있는 놀라운 데이터가 있을 수 있다. Google DeepMind는 이를 예측하고 줄이기 위한 새로운 기술을 소개하고 있다.

2025년 4월 20일 오후 10시 18분
푸리에 신경 오퍼레이터가 터보 부스트를 받았다: UC 리버사이드의 연구자들이 PyTorch보다 최대 150% 속도 향상을 달성한 TurboFNO를 소개했다

푸리에 신경 오퍼레이터(FNO)는 편미분 방정식 해결 오퍼레이터를 학습하는 강력한 도구이지만, 아키텍처에 대한 최적화가 부족하다. FFT – GEMM – iFFT의 계산 패턴이 더 많은 주목을 받고 있다. UC 리버사이드의 연구자들은 TurboFNO를 소개하여 PyTorch보다 최대 150% 속도 향상을 달성했다.

2025년 4월 20일 오후 4시 16분
Meta AI, 협업 추론자 (코랄)를 소개합니다: LLM에서 협업 추론 기술을 평가하고 향상시키기 위해 특별히 설계된 AI 프레임워크

대형 언어 모델(Large language models, LLMs)은 질문 응답 및 구조적 추론과 같은 단일 에이전트 작업에서 놀라운 능력을 보여주었지만, 협업적으로 추론하는 능력은 여전히 미발달 상태입니다. Meta AI는 협업 추론자인 Coral을 소개하여 다수의 에이전트가 상호 작용하고 의견 충돌을 해결하며 해결책을 도출하는 능력을 향상시키는 AI 프레임워크를 특별히 설계했습니다.

2025년 4월 20일 오전 2시 15분
NVIDIA, 언어 모델 사전 학습을 위한 반복적 데이터 혼합 최적화 프레임워크 CLIMB 소개

NVIDIA가 CLIMB 프레임워크를 소개했다. 대규모 언어 모델이 커짐에 따라, 사전 학습 데이터 선택은 중요해졌다. CLIMB은 최적화된 데이터 혼합을 위한 프레임워크로, 이는 후속 성능에 영향을 미친다.

2025년 4월 19일 오후 4시 59분
LLMs가 이제는 소량의 데이터로 어려운 수학 문제를 해결할 수 있습니다: UC 버클리와 AI2 연구원들이 난이도 수준별로 수학적 추론을 해제하는 파인튜닝 레시피를 발표했습니다

UC 버클리와 AI2 연구원들이 발표한 연구에 따르면, LLMs는 소량의 데이터로도 어려운 수학 문제를 해결할 수 있게 되었습니다. 최근 소규모 지도 파인튜닝 접근법들이 수학 문제 해결 능력을 현저히 향상시켰으며, 모델이 훈련 데이터를 넘어 일반화하는지 여부에 대한 근본적인 질문이 남아 있습니다.

2025년 4월 19일 오전 1시 49분
IBM, 새로운 음성-텍스트(STT) 모델 Granite 3.3 8B 발표

IBM이 새로운 음성-텍스트(STT) 모델 Granite 3.3 8B를 발표했다. 이 모델은 자동 음성 인식(ASR) 및 자동 음성 번역(AST)에서 뛰어난 성능을 보여준다.

2025년 4월 18일 오전 3시 08분
트랜스포머 모델이 정말 추론 모델에 필요한가?: TogetherAI, Cornell, Geneva, Princeton 연구진이 M1 소개 – 최신 성능 3배 속도로 달성

수학 및 프로그래밍 분야의 복잡한 문제 해결에 효율적인 추론이 중요하며, LLMs는 연쇄 추론을 통해 상당한 향상을 보여줌. 그러나 트랜스포머 기반 모델은 장기 시퀀스를 효율적으로 처리하는 것이 어렵기 때문에 한계가 있음. 이에 TogetherAI, Cornell, Geneva, Princeton 연구진이 M1이라는 하이브리드 AI를 소개하며 최신 성능을 3배의 추론 속도로 달성함.

2025년 4월 17일 오후 11시 56분
MIT 학생들의 작품이 인간-인공지능 협업을 재정의합니다

MIT 과목 4.043/4.044 (상호작용 지능)에서 나온 프로젝트들이 NeurIPS에서 발표되었는데, 이는 인공지능이 창의성, 교육, 상호작용을 예상치 못한 방식으로 변형시키는 방법을 보여줍니다.

2025년 1월 29일 오후 3시 45분MIT News