2026년 3월 7일 토요일
오늘의 신문
2026년 3월 7일 토요일 오늘의 신문
구글이 안드로이드 개발 작업에서 Large Language Models (LLMs)의 성능을 측정하기 위한 새로운 리더보드 및 평가 프레임워크인 안드로이드 벤치를 공개했다. 데이터셋, 방법론, 테스트 하네스는 GitHub에서 공개되었으며, 일반 코딩 벤치마크가 캡처하지 못하는 안드로이드 개발 작업에 적합하다.
2026년 3월 6일 오후 2시 53분
YuanLab AI가 오픈소스 Mixture-of-Experts (MoE) 대형 언어 모델인 Yuan 3.0 Ultra를 공개했다. 이 모델은 1조 개의 총 파라미터와 68.8조 개의 활성화된 파라미터를 특징으로 하며, 기업 성능을 최적화하고 사전 훈련 효율성을 높이는 것을 목표로 한다.
2026년 3월 5일 오전 12시 55분
구글이 Gemini 3.1 Flash-Lite를 공개했다. 고성능 작업에 최적화된 이 모델은 낮은 지연시간과 토큰 당 비용을 중점으로 고안되었다. 현재 Gemini API 및 Vertex AI를 통해 Public Preview로 이용 가능하다.
2026년 3월 3일 오후 1시 28분
산업용 추천 시스템에서 Large Language Models (LLMs)를 활용한 Generative Retrieval (GR)이 일반적인 임베딩 기반의 검색을 대체하고 있으며, 이에 따라 엄격한 비즈니스 로직을 준수하는 STATIC 프레임워크가 속도 향상을 제공한다.
2026년 3월 1일 오후 4시 47분
Generative AI의 발전은 잠재 확산 모델(LDMs)에 많이 의존하고 있습니다. 잠재 공간으로 데이터를 압축함으로써 모델이 효과적으로 확장될 수 있습니다. 그러나 낮은 정보 밀도는 잠재 변수를 학습하기 쉽게 만들지만 재구성 품질을 희생시키는 기본적인 트레이드오프가 존재합니다.
2026년 2월 27일 오후 10시 58분
Perplexity사가 대규모 검색 작업에 최적화된 다국어 임베딩 모델 pplx-embed을 출시했다. 웹 규모 데이터의 복잡성과 잡음을 처리하기 위한 이 모델은 전용 임베딩 API에 대한 대안으로 제작되었다. 양방향 어텐션과 확산을 활용한 구조적 혁신이 돋보인다.
2026년 2월 26일 오후 11시 01분
Microsoft의 연구진은 CORPGEN을 소개했는데, 이는 계층적 계획과 메모리를 활용하여 자율형 디지털 직원을 통해 현실적인 조직 업무의 복잡성을 관리하는 데 사용되는 아키텍처에 중립적인 프레임워크이다. 기존의 AI 에이전트는 단일 작업에 대해 평가되지만, 실제 기업 환경에서는 복잡한 종속성을 가진 여러 작업을 동시에 처리해야 한다.
2026년 2월 26일 오후 7시 32분
Nous Research 팀이 Hermes Agent를 공개하여 AI의 망각 문제를 해결하기 위해 디자인된 오픈소스 자율 시스템을 출시했습니다. 현재의 AI 환경에서 우리는 '일시적 에이전트'에 익숙해졌는데, 이는 매 채팅 세션마다 인지 클락을 재시작하는 잊어버리기 쉬운 조수입니다. LLMs는 뛌륭한 코더가 되었지만, 진정한 팀원으로 기능하는 데 필요한 지속적인 상태가 부족합니다.
2026년 2월 26일 오전 3시 01분
최근 ETH 취리히 연구에서, AI의 'Context Engineering'이 중요한데 AGENTS.md 파일이 너무 상세해서 코딩 에이전트가 실패하는 것으로 밝혀졌다. 산업 리더들은 AGENTS.md를 코딩 에이전트의 최종 설정 지점으로 손꼽았는데, 이 파일이 복잡한 코드베이스를 안내하는데 있어 중요한 역할을 한다.
2026년 2월 25일 오후 7시 28분
Liquid AI 팀이 발표한 LFM2-24B-A2B는 24억 개의 파라미터를 가진 모델로, 전력 소비 및 메모리 병목 현상의 한계에 부딪히는 산업에서, 파라미터 수보다 아키텍처 효율성에 대한 대화로 전환되고 있다.
2026년 2월 25일 오전 3시 37분
알리바바의 Qwen 3.5 중간 모델 시리즈 출시는 대규모 언어 모델의 발전이 초기에는 성능 향상을 이끌었지만, 이로 인해 상당한 인프라 부담과 한계적인 이득이 도입되었음을 신호한다. 작은 AI 모델이 더 똑똑하다는 점을 강조하며 Qwen 접근 방식의 변화를 시사한다.
2026년 2월 24일 오후 2시 33분
구글 딥마인드 연구팀은 MARL 분야에서 진보를 위해 직관에 의존했던 기존의 방식을 변화시켜, CFR 및 PSRO와 같은 알고리즘을 수동으로 개선하는 대신 의미론적 진화를 적용하여 우수한 알고리즘 수렴을 이룩했다.
2026년 2월 24일 오전 4시 48분
오픈소스 프로젝트인 OpenPlanter는 개인들에게 데이터 추적 권한을 돌려주는 노력으로, 개발자 'Shin Megami Boson'이 만들었으며 재귀 언어 모델 조사 에이전트입니다. 사용자들의 마이크로 감시 요구를 지원하는 것이 목표입니다.
2026년 2월 21일 오후 4시 10분
NVIDIA가 DreamDojo를 발표했다. 이는 44,711시간의 실제 인간 비디오 데이터로 훈련된 오픈소스 로봇 월드 모델로, 기존의 물리 엔진 대신 픽셀에서 직접 로봇 행동의 결과를 '꿈꾼다'.
2026년 2월 20일 오후 3시 30분
NVIDIA가 Dynamo v0.9.0을 출시했다. 이 업데이트는 대규모 모델의 배포와 관리를 간소화하고 GPU가 다중 모달 데이터를 처리하는 방식을 개선했다. 이번 릴리스에서는 NATS와 etcd와 같은 무거운 종속성을 제거하고 있다.
2026년 2월 20일 오전 1시 51분
Zyphra가 EEG 신호에 특화된 380M 파라미터 foundation 모델인 ZUNA를 공개했다. ZUNA는 채널 인필링과 초해상도를 수행하는 마스크된 확산 오토인코더로, Apache-2.0 라이선스 하에 가중치가 포함되어 있다.
2026년 2월 19일 오전 1시 43분

최신뉴스 전체보기

Zhipu AI, 시각-텍스트 압축을 통해 컨텍스트 길이 확장하는 AI 프레임워크 ‘Glyph’ 출시

Zhipu AI 연구진은 ‘Glyph’를 발표했다. 긴 텍스트를 이미지로 렌더링하고 VLM을 사용하여 128K 컨텍스트를 1백만 토큰 워크로드로 확장하는 AI 프레임워크로, 3-4배의 토큰 압축을 달성함.

2025년 10월 28일 오전 4시 35분
‘kvcached’ 만나보기: 공유 GPU에서 LLM 서빙을 위한 가상화된 탄력있는 KV 캐시를 가능하게 하는 머신러닝 라이브러리

‘kvcached’는 공유 GPU에서 LLM 서빙을 위해 가상화된 탄력있는 KV 캐시를 가능하게 하는 머신러닝 라이브러리입니다. 기존에는 모델당 큰 정적 KV 캐시 영역을 미리 예약하여 GPU 메모리를 낭비했지만, kvcached를 사용하면 이를 최적화할 수 있습니다.

2025년 10월 26일 오후 7시 23분
Liquid AI의 LFM2-VL-3B가 3B 파라미터 비전 언어 모델(VLM)을 엣지 기기로 가져옵니다

Liquid AI가 이미지 텍스트를 텍스트로 변환하는 작업을 위한 3B 파라미터 비전 언어 모델인 LFM2-VL-3B를 출시했습니다. 450M 및 1.6B 변형을 넘어 LFM2-VL 패밀리를 확장했으며, 정확도를 높이면서 LFM2 아키텍처의 속도 프로필을 유지합니다.

2025년 10월 24일 오후 5시 14분
LitServe를 사용한 고급 Multi-Endpoint 기계 학습 API 구축 방법: 배치, 스트리밍, 캐싱 및 로컬 추론

LitServe를 사용하여 기계 학습 모델을 최소한의 노력으로 API로 배포하는 강력하고 가벼운 서빙 프레임워크를 탐구하는 튜토리얼. 텍스트 생성, 배치, 스트리밍, 멀티 태스크 처리, 캐싱 등의 실제 기능을 보여주는 여러 엔드포인트를 로컬에서 실행하여 외부 API에 의존하지 않는다.

2025년 10월 24일 오후 4시 20분
구글 AI가 FLAME 접근 방식을 소개: 가장 정보가 풍부한 샘플을 선택하여 모델 전문화를 빠르게 만듬

구글 연구팀이 FLAME을 제안했는데, 이는 강력한 오픈 어휘 탐지기를 기반으로 한 단일 단계의 액티브 러닝 전략으로, 훈련할 수 있는 작은 정교화기를 추가하여 가장 정보가 풍부한 샘플을 선택하고 모델 전문화를 빠르게 만드는 방법이다.

2025년 10월 23일 오후 6시 44분
구글 AI 연구팀이 새로운 AI 모델 ‘DeepSomatic’을 발표: 암 세포의 유전적 변이 식별

구글 연구팀과 UC Santa Cruz의 연구자들이 암 세포의 유전적 변이를 식별하는 AI 모델 ‘DeepSomatic’을 발표했다. Children’s Mercy와의 연구에서, 다른 도구에서 놓친 소아 백혈병 세포의 10가지 변이를 찾아내었다. DeepSomatic은 암 유전체를 위한 체세포 소규모 변이 콜러로, Illumina 단독 독립적으로 작동한다.

2025년 10월 21일 오전 2시 57분
DeepSeek, 고성능 OCR 및 구조화된 문서 변환을 위해 디자인된 3B OCR 모델 출시

DeepSeek-AI가 3B DeepSeek-OCR을 출시했다. 이는 텍스트를 작은 집합의 시각 토큰으로 압축한 뒤 언어 모델로 해당 토큰을 디코딩하는 OCR 및 문서 구문 분석 Vision-Language Model(VLM) 시스템이다. 이미지는 텍스트의 간략한 표현을 갖고 있어 디코더의 시퀀스 길이를 줄인다.

2025년 10월 20일 오후 7시 50분
로컬 AI 혁명: GPT-OSS-20B와 NVIDIA RTX AI PC로 확장되는 생성 AI

AI 분야의 풍경이 확장되고 있다. 최강의 LLMs(대형 언어 모델) 중 많은 것들이 클라우드에 주로 위치하고 있지만, 이제 강력한 새로운 패러다임이 등장하고 있다. 개인의 프라이버시 문제와 업로드 파일 수나 로딩 기간 제한에 대한 우려도 존재한다.

2025년 10월 20일 오후 12시 19분
Weak-for-Strong (W4S): 약한 메타 에이전트를 강한 LLM으로 강화하는 혁신적인 강화 학습 알고리즘

스탠포드, EPFL, UNC의 연구진은 약한 메타 에이전트가 강한 실행 모델을 부르는 코드 워크플로를 설계하고 개선하는 새로운 강화 학습 프레임워크인 Weak-for-Strong Harnessing, W4S를 소개했다. 이 메타 에이전트는 강한 모델을 세밀하게 조정하는 것이 아니라 조정하는 방법을 학습한다. W4S는 워크플로 디자인을 다중 턴으로 형식화한다.

2025년 10월 19일 오전 2시 48분
Microsoft AI가 제안하는 BitNet Distillation (BitDistill): 최대 10배의 메모리 절약과 약 2.65배의 CPU 가속을 제공하는 가벼운 파이프라인

Microsoft Research는 BitNet Distillation을 제안하여 기존의 완전 정밀한 LLM을 특정 작업을 위해 1.58비트의 BitNet 학생으로 변환하고, 정확도를 FP16 교사에 가깝게 유지하면서 CPU 효율성을 향상시킵니다. 이 방법은 SubLN 기반의 구조적 개선, 지속적인 사전 훈련 및 로짓 및 멀티 헤드 어텐션 관계로부터의 이중 신호 증류를 결합합니다.

2025년 10월 19일 오전 1시 39분
AutoCode: 인간 문제 제작자의 작업 흐름을 반영하여 LLM이 경쟁 프로그래밍 문제를 작성하고 검증하는 새로운 AI 프레임워크

AutoCode는 LLM이 경쟁 프로그래밍 문제를 만들고 검증할 수 있는 새로운 AI 프레임워크로, UCSD, NYU, University of Washington, 등 다수의 연구진이 개발했다. 이 프레임워크는 인간의 문제 제작자의 작업 흐름을 본떠 LLM이 문제를 생성하고 검증할 수 있게 한다.

2025년 10월 18일 오전 4시 58분
바이두의 PaddlePaddle 팀, PaddleOCR-VL (0.9B) 출시: NaViT 스타일 + ERNIE-4.5-0.3B VLM을 통한 end-to-end 다국어 문서 구문 분석

바이두의 PaddlePaddle 팀이 PaddleOCR-VL을 출시했습니다. 이 모델은 다국어 문서를 Markdown/JSON으로 변환하는데 사용되며, 텍스트, 표, 수식, 차트, 필기체 등을 구문 분석하는 데 적합합니다.

2025년 10월 17일 오전 4시 28분
구글 AI, 복잡한 단일 세포 유전자 발현 데이터를 ‘셀 문장’으로 번역하는 C2S-Scale 27B 모델 발표

구글 AI 팀이 C2S-Scale 27B 모델을 발표했다. 이 모델은 270억 개의 매개변수를 갖춘 단일 세포 분석을 위한 모델로, 단일 세포 RNA-seq(scRNA-seq) 프로필을 ‘셀 문장’으로 형식화하여 언어 모델이 세포 상태를 자연스럽게 분석할 수 있게 했다.

2025년 10월 17일 오전 3시 42분
Qualifire AI, Rogue: AI 에이전트의 성능, 준수 및 신뢰성을 평가하기 위해 설계된 종단간 에이전트 AI 테스트 프레임워크 공개 소스화

Qualifire AI가 Rogue를 오픈소스화했습니다. 이 프레임워크는 AI 에이전트를 평가하기 위해 설계되었으며 프로토콜 정확한 대화, 명시적 정책 확인, 기계 판독 가능한 증거를 제공하여 릴리스를 자신 있게 관리할 수 있습니다.

2025년 10월 16일 오후 2시 12분
QeRL: NVFP4-Quantized Reinforcement Learning (RL)가 32B LLM 트레이닝을 단일 H100으로 가져오면서 탐사 향상

NVIDIA 연구진은 MIT, HKU, Tsinghua과 협력하여 오픈소스 QeRL(Quantization-enhanced Reinforcement Learning)을 소개했다. 이 프레임워크는 4비트 FP4로 강화 학습(Reinforcement Learning) 후 훈련을 밀어넣는다.

2025년 10월 16일 오전 12시 28분
알리바바의 Qwen AI, FP8 체크포인트와 함께 Compact Dense Qwen3-VL 4B/8B 출시

알리바바의 Qwen 팀이 밀도 높은 Qwen3-VL 4B/8B 모델을 FP8로 축소한 Instruct와 Thinking 두 가지 프로필로 출시했다. VRAM을 적게 사용하면서도 256K→1M 컨텍스트와 전체 능력을 유지한다.

2025년 10월 14일 오후 10시 14분
안드레이 카르파시가 공개한 ‘nanochat’: 약 4시간 동안 약 100달러에 훈련할 수 있는 미니멀한 엔드투엔드 ChatGPT 스타일 파이프라인

안드레이 카르파시가 nanochat을 공개했다. 이는 하나의 멀티 GPU 노드에서 실행 가능한 ChatGPT 스타일 스택을 구현한 경량 코드베이스로, 토크나이저 훈련부터 웹 UI 추론까지를 지원한다. 단일 스크립트 “스피드런”을 제공하여 토큰화, 베이스 사전 훈련, 채팅/다중 선택/도구 사용 데이터에 대한 중간 훈련, 지도된 세부 튜닝(SFT), 선택적 강화 학습을 실행한다.

2025년 10월 14일 오후 1시 40분
7 LLM 생성 매개변수 – 그들이 하는 일과 어떻게 조정하는가?

LLM 출력을 조정하는 것은 주로 디코딩 문제이다. 몇 가지 샘플링 컨트롤로 모델의 다음 토큰 분포를 형성하며, 맥스 토큰, 온도, 상위 p/핵, 상위 k, 빈도 및 존재 패널티 등을 조절할 수 있다.

2025년 10월 14일 오전 5시 05분
마이크로소프트 AI가 MAI-Image-1을 선보여, LMArena의 Top-10에 진입

마이크로소프트 AI가 처음으로 개발한 이미지 생성 모델인 MAI-Image-1이 선보였다. 이 모델은 2025년 10월 13일 기준으로 LMArena 텍스트-이미지 리더보드 Top-10에 데뷔했다. 모델은 커뮤니티 피드백을 수집하기 위해 공개적으로 테스트 중이며, 마이크로소프트 AI 팀에 따르면 곧 공개될 예정이다.

2025년 10월 13일 오후 9시 31분
SwiReasoning: 추론 LLM을 위한 잠재적 및 명시적 사고 체인의 엔트로피 주도 교대

SwiReasoning은 추론 LLM이 다음 토큰 분포의 엔트로피 추세를 기반으로 블록 단위 신뢰도를 추정하여 잠재 공간에서 생각할지 명시적 사고 체인을 쓸지 결정할 수 있는 디코딩 시간 프레임워크다. 이 방법은 훈련 없이 모델에 대해 Pareto-우수한 정확도/효율성 트레이드오프를 목표로 하며, 수학 및 STEM 벤치마크에서 +1.5%~2.8% 평균 정확도 향상을 보여준다.

2025년 10월 13일 오전 3시 24분
파이썬에서 안전한 AI 에이전트의 코딩 구현: 자가 감사 가드레일, 개인정보 비식별화, 안전한 도구 액세스

이 튜토리얼에서는 파이썬을 사용하여 실제로 AI 에이전트를 안전하게 보호하는 방법을 탐구합니다. 데이터 및 도구와 상호 작용할 때 안전 규칙을 준수하는 지능적이고 책임감 있는 에이전트를 구축하는 데 초점을 맞춥니다. 입력 살균, 프롬프트 주입 탐지, 개인 식별 정보 비식별화, URL 허용 목록, 속도 제한 등 여러 보호층을 구현합니다.

2025년 10월 12일 오후 9시 34분
오픈TSLM 만나보기: 의료 시계열 분석을 혁신하는 시계열 언어 모델(TSLMs) 패밀리

스탠포드 대학의 연구진과 ETH 취리히, Google Research, Amazon과의 협업으로 새로운 시계열 언어 모델인 OpenTSLM이 소개되었다. 이 모델은 현재의 LLMs의 한계를 극복하여 의료 분석에 혁신을 가져오고 있다.

2025년 10월 11일 오후 6시 47분
Liquid AI, 8.3B 매개변수와 토큰 당 1.5B 활성 매개변수를 갖는 온디바이스 Mixture-of-Experts인 LFM2-8B-A1B를 출시

Liquid AI가 온디바이스 실행을 위해 만들어진 소형 Mixture-of-Experts 모델인 LFM2-8B-A1B를 출시했다. 클라우드 배치 서빙용이 아닌 이 모델은 폰에 최적화되어 있어 메모리, 지연 및 에너지 예산을 엄격하게 고려하며 작동한다.

2025년 10월 11일 오전 12시 54분
Agentic Context Engineering (ACE): Self-Improving LLMs via Evolving Contexts, Not Fine-Tuning

스탠포드 대학교, SambaNova Systems, UC 버클리에서 연구진이 소개한 ACE 프레임워크는 LLM 성능을 향상시키는데 모델 가중치를 업데이트하는 대신 입력 컨텍스트를 편집하고 확장함으로써 작동합니다. 컨텍스트는 Generator, Reflector, Curator 세 가지 역할에 의해 유지되며 간결성 편향을 피하기 위해 작은 델타 항목이 점진적으로 병합됩니다.

2025년 10월 10일 오전 7시 37분
Tiny Recursive Model (TRM): DeepSeek-R1, Gemini 2.5 pro, o3-mini를 능가하는 Tiny 7M 모델

삼성 SAIT가 발표한 Tiny Recursive Model (TRM)은 2층 구조의 약 7백만 파라미터 재귀 추론기로, ARC-AGI-1에서 44.6-45%의 테스트 정확도와 ARC-AGI-2에서 7.8-8%의 결과를 보여 더 큰 언어 모델인 DeepSeek-R1, o3-mini-high 등을 능가했다.

2025년 10월 9일 오후 2시 00분
RA3: 더 빠른 강화 학습을 위한 시간적 행동 추상화를 활용한 중간 학습 (RL) 및 코드 LLMs에서의 후속 학습

Apple의 새로운 연구는 중간 학습이 강화 학습 후 후속 학습을 하기 전에 무엇을 해야 하는지 공식화하고 RA3 (Reasoning as Action Abstractions)를 소개합니다. RA3는 전문가의 흔적으로부터 시간적으로 일관된 잠재적 행동을 학습하고 그에 대해 미세 조정합니다. 중간 학습은 (1) 최적의 행동 부분 공간으로 가지치기하고 (2) 줄여야 함을 보여줍니다.

2025년 10월 9일 오전 2시 20분
스탠포드 연구진이 발표한 AgentFlow: 모듈식, 도구 사용 AI 에이전트를 위한 In-the-Flow 강화 학습 RL

AgentFlow는 명시적 메모리와 도구 세트에 의해 조정되는 네 가지 모듈 – Planner, Executor, Verifier, Generator – 을 갖춘 훈련 가능한 에이전트 프레임워크이다. Planner는 Flow-GRPO라는 새로운 온-폴리시 방법을 통해 최적화되며 트라젝토리 수준의 결과 보상을 모든 턴에 방송하고 KL 정규화 및 그룹 정규화된 어드밴티지를 적용하는 토큰 수준의 PPO 스타일 업데이트를 수행한다.

2025년 10월 8일 오후 10시 25분
메타 AI, 오픈 소스 OpenZL 공개: 형식 인식 압축 프레임워크와 유니버설 디코더

메타 AI가 OpenZL을 공개했다. 이는 형식 인식 그래프 압축기를 훈련시키고 유니버설 디코더에 자체 설명 그래프만 보내어 압축 비율과 처리량을 얼마나 회복할 수 있는지 탐구한 오픈 소스 프레임워크이다.

2025년 10월 8일 오전 4시 22분
LangChain 에이전트 및 XGBoost를 통합한 지능적인 대화형 기계 학습 파이프라인으로 자동 데이터 과학 워크플로우 구축

XGBoost의 분석적 능력과 LangChain의 대화형 지능을 결합하여, 합성 데이터셋 생성부터 XGBoost 모델 학습, 성능 평가, 주요 인사이트 시각화까지 가능한 파이프라인을 구축하는 튜토리얼. 대화형 AI가 원활하게 상호작용할 수 있는 방법을 보여줌.

2025년 10월 7일 오후 10시 44분
OpenAI, 에이전트 빌더 및 에이전트킷 공개: AI 에이전트 구축, 배포, 평가를 위한 시각화 기반 스택

OpenAI가 AgentKit을 출시했다. 시각적인 에이전트 빌더, 임베드 가능한 ChatKit UI 및 확장된 Evals를 포장하여 제품 에이전트를 출하하기 위한 단일 워크플로우를 제공한다. 에이전트 빌더(beta)와 기타 기능이 포함되어 있다.

2025년 10월 6일 오후 10시 47분
Salesforce AI Research, 양방향 병렬 토큰 생성을 통한 이산 확산 코드 모델인 CoDA-1.7B 발표

Salesforce AI Research가 CoDA-1.7B를 발표했다. 이는 양방향 컨텍스트를 사용하여 전체 시퀀스를 정제하고, 왼쪽에서 오른쪽으로 다음 토큰 예측이 아닌 병렬로 여러 토큰을 업데이트하는 코드용 확산 기반 언어 모델이다.

2025년 10월 5일 오후 7시 33분
텍스트에서 연속 값 예측을 위한 트랜스포머 기반 회귀 언어 모델 구축 코딩 구현

이 코딩 구현에서는 텍스트 시퀀스에서 연속적인 수치 값을 직접 예측하는 회귀 언어 모델(RLM)을 구축한다. 자연어 설명 안에 숨겨진 양적 관계를 학습하는 트랜스포머 기반 아키텍처를 훈련하는데 초점을 맞춘다. 합성 텍스트-숫자 데이터 생성부터 시작해서 효율적으로 토큰화한다.

2025년 10월 5일 오전 12시 05분
구글이 제안하는 TUMIX: 도구 사용 혼합을 통한 다중 에이전트 테스트 시간 스케일링

Google Cloud AI Research과 MIT, 하버드, Google DeepMind의 협력자들이 TUMIX (도구 사용 혼합)를 소개했다. 이는 이질적인 에이전트 스타일(텍스트, 코드, 검색, 가이드된 변형)을 앙상블하는 테스트 시간 프레임워크이다.

2025년 10월 4일 오후 6시 47분
작은 언어 모델이 코드로부터 커널 지연, 메모리 및 모델 정확도를 예측할 수 있을까? 새로운 회귀 언어 모델(RLM)이 그렇다고 말합니다

코넬과 구글의 연구진은 코드 문자열에서 직접 숫자 결과를 예측하는 통합 회귀 언어 모델(RLM)을 소개했습니다. 이 모델은 GPU 커널 지연, 프로그램 메모리 사용량, 심지어 신경망 정확도와 지연까지 손수 조작된 특성 없이 예측합니다. T5-Gemma에서 초기화된 300M 파라미터 인코더-디코더는 단일 텍스트-숫자 디코더를 사용하여 이질적 작업과 언어 간 강력한 순위 상관관계를 달성합니다.

2025년 10월 4일 오전 1시 58분
Thinking Machines, Tinker 출시: 분산 LLM 파인 튜닝을 숨기지 않고 추상화하는 저수준 학습 API

Thinking Machines사가 Tinker를 출시했다. Tinker는 연구원과 엔지니어들이 로컬에서 학습 루프를 작성하고 플랫폼이 관리되는 분산 GPU 클러스터에서 실행할 수 있는 파이썬 API이다. 데이터, 목표 및 최적화 단계의 완전한 제어를 유지하면서 스케줄링, 장애 허용 및 다중 노드 조율을 자동화한다.

2025년 10월 3일 오전 12시 49분
IBM, 혁신적인 하이브리드 Mamba-2/Transformer 아키텍처를 갖춘 Granite 4.0 모델 출시: 성능 희생 없이 메모리 사용량 대폭 감소

IBM은 Granite 4.0을 출시했는데, 이는 모노리딕 트랜스포머 대신 하이브리드 Mamba-2/Transformer 스택을 사용하여 서빙 메모리를 줄이고 품질을 유지한다. 다양한 사이즈의 모델들이 제공되며, 이들은 Apache-2.0로 공개되었다.

2025년 10월 2일 오후 6시 47분
ServiceNow AI, Apriel-1.5-15B-Thinker 공개: 싱글 GPU 예산으로 프론티어 수준 성능 달성하는 오픈 가중치 다중 모달 추론 모델

ServiceNow AI 연구소가 Apriel-1.5-15B-Thinker를 공개했다. 이 모델은 강화 학습이나 선호도 최적화 없이 데이터 중심 중간 학습 레시피로 훈련된 150억 개의 오픈 가중치 다중 모달 추론 모델로, 단일 GPU 예산에서 SOTA 대비 8배의 비용 절감으로 인공 분석 지능 지수 52를 달성한다.

2025년 10월 2일 오전 1시 05분
Google AI가 제안하는 ReasoningBank: 테스트 시간에 LLM 에이전트들을 자가진화시키는 전략 수준 I 에이전트 메모리 프레임워크

구글 AI가 제안한 ReasoningBank는 LLM 에이전트가 자체 상호 작용 추적을 재사용 가능한 고수준 추론 전략으로 변환하여 미래 결정을 안내하고 에이전트가 자가진화하는 프레임워크를 소개합니다.

2025년 10월 1일 오전 4시 17분
DeepSeek V3.2-Exp는 DeepSeek Sparse Attention (DSA)로 장문 맥락 비용을 절감하면서 벤치마크 동등성 유지

DeepSeek가 DeepSeek Sparse Attention (DSA)를 추가한 DeepSeek-V3.2-Exp를 출시했다. 이 업데이트는 장문 맥락 효율성을 높이기 위한 훈련 가능한 희소화 경로를 제공한다. 또한 API 가격을 50% 이상 할인하여 효율성 향상을 보여줬다. 새로운 업데이트는 V3/V3.1 스택(MoE + MLA)을 유지하고 두 단계의 어텐션 경로를 삽입했다.

2025년 9월 30일 오전 5시 24분
Anthropic, 새 코딩 및 혁신적인 결과를 제공하는 Claude Sonnet 4.5 출시

Anthropic는 Claude Sonnet 4.5를 출시하며 소프트웨어 엔지니어링과 현실 세계 컴퓨터 사용에 새로운 기준을 세웠습니다. 이 업데이트에는 제품 표면 변경 사항(Claude Code 체크포인트, 네이티브 VS Code 확장 프로그램, API 메모리/컨텍스트 도구)과 내부적으로 Anthropic이 사용하는 구조를 노출하는 에이전트 SDK도 포함되어 있습니다. 가격은 Sonnet 4와 동일하게 유지됩니다.

2025년 9월 29일 오후 6시 42분
2025년의 Top 10 로컬 LLMs: Context Windows, VRAM Targets, 그리고 라이센스 비교

2025년 로컬 LLMs는 빠르게 성숙해졌으며, 안정적인 사양과 일류 로컬 러너를 제공하면서 온프렘 및 랩톱 추론이 실용적으로 가능해졌다.

2025년 9월 28일 오전 2시 21분
메타 FAIR가 공개한 코드 월드 모델 (CWM): 320억 파라미터의 오픈 가중치 LLM, 월드 모델을 활용한 코드 생성 연구 선도

메타 FAIR가 320억 개의 파라미터로 이루어진 CWM을 공개했다. 이 모델은 코드 생성에 세계 모델링을 삽입하여 실행 추적 및 장기적 상호작용을 통해 학습하며, 코드를 예측함으로써 중간 훈련을 수행한다.

2025년 9월 25일 오전 4시 22분
MIT 연구진, 인공지능(AI) 성능 향상, 계획 수립에서 64배 빠르고 94% 정확도 달성

MIT CSAIL 연구진은 PDDL-INSTRUCT를 소개하여 대화식 계획 수립 성능을 향상시키고 LLM의 심볼릭 계획 성능을 높였다. 조정된 Llama-3-8B 모델은 Blocksworld에서 94%의 유효한 계획을 달성했다.

2025년 9월 22일 오전 3시 06분
Meta AI가 제안한 ‘메타인지 재사용’: LLM 사고 체인을 절차적 핸드북으로 변환하여 토큰을 46% 절감

메타 연구원들은 반복되는 추론 패턴을 짧고 이름이 붙은 절차, “행동”,으로 압축한 다음 모델이 추론 시 사용하거나 미세 조정을 통해 정제하는 방법을 소개했다. 결과적으로 MATH에서 추론 토큰 수를 최대 46% 절감하면서 정확도를 유지 또는 향상시키고, AIME에서는 자가 개선 환경에서 최대 10%의 정확도 향상을 이끌어냈다.

2025년 9월 21일 오후 8시 39분
LLM 시스템에서 탈옥 프롬프트를 탐지하고 방어하기 위한 하이브리드 규칙 기반 및 기계 학습 프레임워크 구축

이 튜토리얼에서는 탈옥 방어 기술을 소개하며, 정책 회피 프롬프트를 탐지하고 안전하게 처리하는 방법을 단계별로 소개합니다. 실제 공격 및 양성 예제를 생성하고, 규칙 기반 신호를 만들어 TF-IDF 기능과 결합하여 회피 프롬프트를 차단하지 않고 합법적인 요청을 차단할 수 있는 간결하고 해석 가능한 분류기를 만듭니다.

2025년 9월 21일 오전 3시 30분
구글의 Sensible 에이전트, 증강 현실 지원을 “무엇+어떻게” 결정으로 재평가 – 그래서 그것이 어떻게 변화되나?

구글의 Sensible Agent는 실시간 다중 모달 컨텍스트에 따라 행동과 상호작용 방식을 선택하는 AI 연구 프레임워크이다. 이는 “제안할 것”과 “어떻게 물어볼 것”을 분리하여 접근하는 것이 아니라 둘을 연결시켜준다.

2025년 9월 19일 오후 12시 46분
H회사가 Holo1.5를 출시: GUI 로컬라이제이션 및 UI-VQA에 중점을 둔 오픈 웨이트 컴퓨터 사용 VLMs

H 회사가 Holo1.5를 출시했다. 이는 컴퓨터 사용을 위한 오픈 기반 비전 모델로, 실제 사용자 인터페이스에 스크린샷 및 포인터/키보드 조작을 통해 작동하는 CU 에이전트를 위해 설계되었다. 3B, 7B, 72B 체크포인트가 포함되어 있으며, 크기별로 Holo1 대비 약 10% 정확도 향상이 문서화되어 있다.

2025년 9월 18일 오전 4시 14분
구글 AI, 상인과 지갑 간 상호 운용 가능한 AI 에이전트 체크아웃을 위한 오픈 프로토콜 AP2 소개

구글의 Agent Payments Protocol (AP2)은 에이전트 주도의 결제를 위한 오픈, 상호 운용 가능한 명세서로, 사용자, 에이전트 개발자 또는 상인 중 누가 책임을 져야 하는지에 대한 불신이 해결됨.

2025년 9월 16일 오후 11시 21분
대규모 데이터에 Zarr 구현하는 코딩 가이드: 청킹, 압축, 인덱싱, 시각화 기술

Zarr 라이브러리의 기능을 깊이 파헤치는 튜토리얼. 대규모 다차원 배열의 효율적인 저장 및 조작을 위해 설계된 Zarr의 기본부터 시작하여 청킹 전략 설정, 직접 디스크에서 값 수정 등의 고급 작업까지 탐색.

2025년 9월 16일 오후 7시 17분
Google AI, TimesFM-2.5 출시: GIFT-Eval에서 선두를 달리는 작고 긴 컨텍스트의 기반 모델 (제로샷 예측)

Google Research가 200M 파라미터의 TimesFM-2.5를 공개했다. 이 모델은 16K 컨텍스트 길이와 원천 확률 예측 지원을 갖추고 있으며, GIFT-Eval에서 최상의 정확성 지표(MASE, CRPS)를 기록하고 있다. 시계열 예측은 무엇인가? 시계열 예측은 [ … ]

2025년 9월 16일 오후 12시 29분
스탠포드 연구진이 소개한 MedAgentBench: 의료 AI 에이전트를 위한 현실 세계 벤치마크

스탠포드 대학 연구팀이 의료 분야에서 대형 언어 모델 에이전트를 평가하기 위해 설계된 MedAgentBench를 발표했다. MedAgentBench는 가상 전자 건강 기록 환경을 제공하여 AI 시스템이 상호 작용, 계획 및 다단계 임상 작업을 실행해야 하는 실제 시나리오를 제공한다.

2025년 9월 16일 오전 3시 24분
OpenAI가 GPT-5-Codex를 소개: Codex에서 Agentic 코딩을 위해 더 최적화된 GPT-5의 발전된 버전

OpenAI가 GPT-5-Codex를 발표했다. 이는 Codex 생태계 내에서 “agentic coding” 작업에 더 최적화된 GPT-5의 버전이다. 이번 업데이트의 목표는 Codex가 더 신뢰성 있고 빠르며 자율적인 행동을 보여 팀원처럼 행동할 수 있도록 하는 것이다.

2025년 9월 15일 오후 8시 43분
NVIDIA AI가 ViPE(Video Pose Engine)를 오픈 소스로 공개: 공간 AI를 위한 강력하고 다재다능한 3D 비디오 주석 도구

NVIDIA의 연구진이 ViPE: 3D 기하학 인식을 위한 비디오 포즈 엔진을 공개했다. 이는 비용이 많이 드는 전통적인 방법 없이 로봇학을 위한 AI를 훈련하기 위한 3D 데이터셋을 어떻게 생성하는가에 대한 해결책으로, 3D 컴퓨터 비전 분야의 병목 현상을 해결한다.

2025년 9월 15일 오후 12시 43분
Meta AI가 MobileLLM-R1을 공개: 10억 개 이하의 파라미터를 가진 엣지 추론 모델이 다른 완전 오픈 소스 AI 모델보다 2배~5배의 성능 향상을 이룩

Meta가 MobileLLM-R1을 출시했습니다. 이는 Hugging Face에서 사용 가능한 가벼운 엣지 추론 모델로, 140M에서 950M의 파라미터를 가진 모델들이 포함되어 있습니다. 일반적인 챗봇 모델과는 달리 MobileLLM-R1은 엣지 배포용으로 설계되어 있어 최신 추론 정확도를 제공합니다.

2025년 9월 15일 오전 2시 34분
Google AI가 디퍼렌셜 프라이버시로 완전히 훈련된 1B-파라미터로 구축된 최대 및 가장 능력있는 오픈 모델인 VaultGemma 공개

구글 AI 연구팀과 딥마인드가 디퍼렌셜 프라이버시(DP)로 완전히 훈련된 최대 규모의 오픈 가중치 대형 언어 모델인 VaultGemma 1B를 공개했다. 이는 강력하면서도 프라이버시 보호가 가능한 AI 모델 구축으로 나아가는 중요한 한걸음이다.

2025년 9월 13일 오전 3시 54분
IBM AI 연구팀, ModernBERT 아키텍처 기반 두 개의 영어 Granite 임베딩 모델 공개

IBM은 고성능 검색 및 RAG 시스템용으로 설계된 두 개의 새로운 임베딩 모델, granite-embedding-english-r2와 granite-embedding-small-english-r2를 소개했다. 이 모델들은 효율적이고 소형이며 Apache 2.0 라이선스로 제공된다.

2025년 9월 12일 오후 11시 50분
BentoML이 llm-optimizer를 발표: LLM 추론의 벤치마킹과 최적화를 위한 오픈 소스 AI 도구

BentoML은 llm-optimizer를 출시했는데, 이는 self-hosted large language models (LLMs)의 벤치마킹과 성능 튜닝을 간소화하기 위해 설계된 오픈 소스 프레임워크이다. 이 도구는 LLM 배포에서의 최적의 구성을 찾는 것과 같은 일반적인 도전에 대처하며, 수동 시행착오 없이 지연 시간, 처리량 및 비용에 대한 최적화된 구성을 찾는 데 도움을 준다.

2025년 9월 12일 오전 3시 23분
Python을 사용하여 SpeechBrain을 활용한 음성 개선 및 자동 음성 인식 (ASR) 파이프라인 구축

이 튜토리얼에서는 SpeechBrain을 사용한 고급이면서도 실용적인 워크플로우를 안내합니다. gTTS로 자체 깨끗한 음성 샘플을 생성하고 실제 시나리오를 시뮬레이션하기 위해 음향을 의도적으로 추가한 다음 SpeechBrain의 MetricGAN+ 모델을 적용하여 오디오를 향상시킵니다. 오디오가 소음 제거되면 언어 모델-재점수화를 통해 자동 음성 인식을 실행합니다.

2025년 9월 9일 오후 11시 54분
MBZUAI 연구진, K2 Think 공개: 고급 AI 추론을 위한 32B 오픈소스 시스템 출시 및 20배 큰 추론 모델보다 우수한 성능 발휘

MBZUAI의 연구진이 고급 AI 추론을 위한 32B-파라미터 오픈 추론 시스템 K2 Think을 발표했다. 이 시스템은 강화 학습, 테스트 시 스케일링, 추론 최적화 등을 결합하여 선두적인 성능을 보여준다.

2025년 9월 9일 오후 3시 53분
시퀀셜 추론에서 터널 비전 극복을 위해 원시 병렬 사고로 LLM 테스트 시간 계산 확장하는 ParaThinker

LLM의 시험 시간 계산 확장은 단일 추론 경로를 확장하는 데 의존했지만, 이는 한정된 범위에서는 추론을 개선하지만 성능이 빠르게 수렴한다. 32K 이상의 토큰 예산을 증가시켜도 무의미한 정확도 향상. 이 병목 현상은 초기 토큰에서 발생.

2025년 9월 8일 오후 11시 26분
Biopython을 사용하여 DNA 및 단백질 분석을 위한 생물정보학 AI 에이전트 만드는 방법

이 튜토리얼에서는 Biopython과 인기있는 Python 라이브러리를 사용하여 Google Colab에서 원활하게 실행되도록 설계된 고급이면서 접근성 있는 생물정보학 AI 에이전트를 구축하는 방법을 보여줍니다. 이 튜토리얼은 서열 검색, 분자 분석, 시각화, 다중 서열 정렬, 계통수 구축 및 모티프 검색을 하나의 간소화된 클래스로 결합하여 실습적인 방법을 제공합니다.

2025년 9월 7일 오후 9시 36분
Tilde AI, TildeOpen LLM 공개: 300억개 이상의 파라미터를 가진 오픈 소스 대규모 언어 모델, 대부분의 유럽어 지원

Tilde AI가 TildeOpen LLM을 공개했다. 이 모델은 300억개 이상의 파라미터를 가지며 유럽어에 특화되어 있어 소수 언어에도 주목한다. EU 내 언어 균형과 디지털 주권을 강화하는 전략적인 발전이다.

2025년 9월 7일 오전 1시 34분
사전훈련부터 사후훈련까지: 언어 모델이 환각하는 이유와 평가 방법이 문제를 강화하는 방법

대형 언어 모델은 종종 “환각”을 생성하는데, 이는 올바르지만 잘못된 출력을 확신하며 가능성이 있는 것으로 보인다. OpenAI의 새로운 연구는 환각이 교사 지도 학습과 자기 지도 학습의 통계적 특성에서 비롯되며, 그 지속성은 평가 기준의 불일치로 강화된다는 엄밀한 설명을 제공한다.

2025년 9월 7일 오전 12시 56분
Hugging Face, 새로운 비전-언어 모델 학습용 2천400만 샘플을 포함한 멀티모달 데이터셋 FineVision 오픈 소스화

Hugging Face가 FineVision을 공개했다. 이 데이터셋은 17.3백만 개의 이미지, 24.3백만 개의 샘플, 88.9백만 개의 질문-답변 쌍, 약 100억 개의 응답 토큰을 보유하며 비전-언어 모델(VLMs) 학습을 위한 최대 규모의 구조화된 데이터셋 중 하나로 손꼽힌다.

2025년 9월 6일 오전 4시 05분
알리바바 AI, Qwen3-Max 미리보기 발표: 초고속 및 품질을 갖춘 조수 모델

알리바바의 Qwen 팀이 1조 개 이상의 파라미터를 갖춘 새로운 플래그십 대형 언어 모델인 Qwen3-Max-Preview를 발표했다. 이 모델은 Qwen Chat, 알리바바 클라우드 API, OpenRouter에서 접근 가능하며 Hugging Face의 AnyCoder 도구에서 기본으로 제공된다. 이 모델은 현재의 대형 언어 모델 환경에 어떻게 맞는지 살펴보자.

2025년 9월 6일 오전 3시 16분
구글 AI가 개인 건강 에이전트(PHA)를 소개: 개인 건강 요구를 해결하기 위해 맞춤 상호작용을 가능하게 하는 멀티 에이전트 프레임워크

구글 AI가 개인 건강 에이전트(PHA)를 소개했다. 이는 맞춤 상호작용을 통해 개인 건강 요구를 해결하는 멀티 에이전트 프레임워크로, 임상 추론, 의사 결정 지원, 소비자 건강 애플리케이션 등 다양한 영역에서 강력한 성능을 보여주고 있다.

2025년 9월 5일 오후 7시 58분
구글 AI가 대규모 언어 모델 평가를 위한 Stax 도구를 소개합니다

구글 AI가 대규모 언어 모델의 평가를 간편하게 하는 Stax를 출시했습니다. Stax는 구조화된 방법으로 모델을 평가하고 비교할 수 있어, 확률적 시스템인 언어 모델의 일관성 테스트를 간단하게 도와줍니다.

2025년 9월 2일 오후 7시 55분
Elysia 만나보기: 의사결정 트리와 더 똑똑한 데이터 처리로 Agentic RAG 시스템 재정의하는 새로운 오픈소스 파이썬 프레임워크

Elysia는 의사결정 트리와 더 똑똑한 데이터 처리를 통해 Agentic RAG 시스템을 새롭게 정의하는 오픈소스 파이썬 프레임워크입니다.

2025년 9월 1일 오후 11시 03분
AI 에이전트 관측성이란? 믿을 수 있는 AI를 위한 최고의 7가지 실천 방법

AI 에이전트 관측성은 AI 에이전트를 기획부터 메모리 쓰기와 최종 출력까지 추적하고 모니터링하여 팀이 오류를 디버깅하고 품질과 안전성을 측정하며 지연 시간과 비용을 제어하고 규제 요구 사항을 준수할 수 있도록 하는 학문이다. 이는 전통적인 텔레메트리(추적, 메트릭스 등)를 결합하여 실제로 작동한다.

2025년 8월 31일 오전 6시 16분
액센쳐 연구팀, MCP-Bench 소개: MCP 서버를 통해 복잡한 현실 세계 과제에서 LLM 에이전트를 평가하는 대규모 벤치마크

최신 대형 언어 모델(Large Language Models, LLMs)은 단순한 텍스트 생성을 넘어섰다. 현실 세계 응용 프로그램들은 이제 이러한 모델이 API, 데이터베이스, 소프트웨어 라이브러리와 같은 외부 도구를 사용하여 복잡한 과제를 해결해야 한다. 그러나 AI 에이전트가 도구 간에 계획을 세우고 추론하며 조정할 수 있는지를 어떻게 정확히 알 수 있을까?

2025년 8월 30일 오전 2시 18분
Memory-R1: 강화 학습이 LLM 메모리 에이전트에 어떻게 도움을 주는가

대형 언어 모델(LLM)은 AI의 다양한 분야에서 중요한 역할을 하고 있지만, 이들은 상태를 유지하지 못하는 한계가 있다. 쿼리마다 이전 정보를 기억하지 못하고 고정된 컨텍스트 창으로 장기 대화나 멀티세션 작업에서 계속된 지식을 축적할 수 없다. 이를 해결하기 위해 강화 학습이 LLM 메모리 에이전트를 어떻게 강화하는지 알아보자.

2025년 8월 28일 오후 11시 50분
의료 AI를 전문가가 라벨링한 데이터에 근거로: 방사선 보고서를 위한 최초의 다중 모달, 이중 언어, 문장 수준 데이터 집합에 대한 사례 연구

의료 AI의 최근 발전은 모델의 정교함뿐만 아니라 기반 데이터의 품질과 풍부함에 달려있다. Centaur.ai, Microsoft Research 및 University of Alicante의 협력으로 성과를 거둔 PadChest-GR은 최초의 다중 모달, 이중 언어, 문장 수준 데이터셋이다.

2025년 8월 28일 오후 4시 30분
호주의 대형 언어 모델 현황: 기술 평가

호주의 주요 노력인 카카룸 LLM은 호주 영어와 문화에 맞춘 주권 보장, 오픈소스 대형 언어 모델을 구축하기 위한 노력이다. 호주 특유의 유머, 속어, 법적/윤리적 규범을 이해하는 모델을 만들기 위한 목표를 가지고 있다.

2025년 8월 28일 오전 3시 09분
Nous 연구팀, 하이브리드 추론을 사용한 Hermes 4 공개

Nous 연구팀이 Hermes 4를 발표했다. 이 모델은 순수 사후 훈련 기술을 통해 선두 수준의 성능을 달성하는데, 복잡한 문제에 대한 심층 고찰이 필요할 때 모델이 표준 응답과 명시적 추론 사이를 전환할 수 있는 하이브리드 추론을 소개했다.

2025년 8월 28일 오전 1시 03분
NVIDIA AI가 공개한 Jet-Nemotron: 추론 규모에서 98% 비용 절감을 가능케 하는 53배 빠른 하이브리드 아키텍처 언어 모델 시리즈

NVIDIA 연구자들이 대형 언어 모델 추론의 효율성 장벽을 깨고, Jet-Nemotron을 공개했는데 이 모델 시리즈는 선도적인 LLM보다 최대 53.6배 높은 생성 처리량을 제공하면서 정확도를 유지하거나 능가한다. 이는 새로운 사전 훈련을 통해 이루어진 것이 아니라는 점이 가장 중요하다.

2025년 8월 26일 오후 9시 03분
구글 AI가 Gemini 2.5 플래시 이미지를 소개: 이미지를 간단히 설명함으로써 생성하고 편집할 수 있는 새로운 모델

구글 AI는 Gemini 2.5 플래시 이미지를 공개했습니다. 이 모델은 사용자가 이미지를 설명함으로써 생성하고 편집할 수 있도록 설계되었는데, 정확하고 일관된 고품질 편집을 빠르고 광범위하게 제공하는 것이 혁신적입니다.

2025년 8월 26일 오후 3시 09분
SEA-LION v4: 동남아시아를 위한 다중언어 모델링

AI Singapore가 Google과 협력하여 개발한 SEA-LION v4는 Gemma 3 (27B) 아키텍처를 기반으로 한 오픈소스 다중언어 모델이다. 주로 동남아시아 언어를 지원하며 텍스트와 이미지 이해 능력을 제공한다. SEA-LION v4는 상용 허용 라이선스를 사용한다.

2025년 8월 25일 오후 12시 16분
Prefix-RFT: 지도 미세 조정(SFT)과 강화 학습 미세 조정(RFT)을 결합하는 통합 기계 학습 프레임워크

대형 언어 모델은 보통 사전 훈련 후 지도 미세 조정(SFT) 또는 강화 학습 미세 조정(RFT)을 사용해 개선된다. SFT는 예제 기반 학습을 통해 강의 따르기를 효과적으로 가르치지만, 엄격한 행동과 부족한 일반화로 이어질 수 있다. 반면 RFT는 보상 신호를 사용해 모델을 작업 성공을 위해 최적화하지만, […]

2025년 8월 23일 오후 8시 52분
LLMs를 위한 JSON 프롬프팅: Python 코딩 예제로 실용적 가이드

JSON 프롬프팅은 AI 모델에 명확하고 기계가 읽을 수 있는 프롬프트를 제공하는 기술이다. 기존의 텍스트 프롬프트와는 달리 JSON 프롬프트는 요구 사항을 키-값 쌍, 배열, 중첩된 객체로 구조화하여 모호함을 없애고 정확한 청사진으로 바꾼다.

2025년 8월 23일 오후 8시 34분
구글 AI, 차별적인 개인 파티션 선택을 위한 혁신적인 머신러닝 알고리즘 제안

구글 AI팀은 차별적인 개인 파티션 선택을 위한 새로운 머신러닝 알고리즘을 제안했다. 이는 대규모 머신러닝 및 데이터 분석에서 사용자 정보를 보호하는 데 중요한 역할을 한다. 이 알고리즘은 엄격한 개인 정보 보호를 유지하면서 대규모 사용자 기여 데이터셋에서 고유한 항목을 안전하게 추출하는 과정을 포함한다.

2025년 8월 23일 오전 4시 15분
DeepSeek-V3.1가 무엇이며 왜 모두가 그에 대해 이야기하는가?

중국 AI 스타트업인 DeepSeek가 최신 주력 언어 모델인 DeepSeek-V3.1을 발표했다. DeepSeek-V3의 아키텍처를 기반으로 하여 추론, 도구 사용, 코딩 성능을 중요하게 향상시켰다. 이 모델은 저렴한 비용으로 OpenAI 및 Anthropic 수준의 성능을 제공하여 급속하게 명성을 얻고 있다.

2025년 8월 21일 오전 4시 44분
한국의 LLM 강자 만나보기: HyperClova, AX, Solar Pro, 그리고 더

한국은 대규모 언어 모델(LLM) 분야에서 중요한 혁신가로 자리매김하고 있으며 정부 투자, 기업 연구, 오픈 소스 협력을 통해 한국어 처리 및 국내 응용 프로그램에 맞는 모델을 만들고 있다. 이는 외국 AI 기술에 대한 의존성을 줄이고 데이터 개인 정보 보호를 향상시키며 의료, 교육 등의 분야를 지원한다.

2025년 8월 21일 오전 3시 31분
Liquid AI, LFM2-VL 출시: 저지연 및 장치 인식 배포용 초고속 오픈가중치 비전-언어 모델

Liquid AI사가 저지연, 장치 내 배포를 위해 최적화된 새로운 비전-언어 기반 모델인 LFM2-VL을 공식 출시했다. LFM2-VL-450M 및 LFM2-VL-1.6B 두 가지 효율적인 변형으로, 스마트폰, 노트북, 웨어러블 및 임베디드 시스템에 다중 모달 AI를 속도나 정확도를 희생하지 않고 도입하는 중요한 발전을 이루었다.

2025년 8월 20일 오후 8시 21분
NVIDIA AI, Nemotron Nano 2 AI 모델 출시: 제품용 기업 AI 모델 패밀리, 유사 크기 모델보다 6배 빠름

NVIDIA가 Nemotron Nano 2 패밀리를 공개했는데, 이는 최첨단 추론 정확도를 끌어올리는 하이브리드 Mamba-Transformer 대형 언어 모델을 소개하며 유사한 크기의 모델보다 최대 6배 높은 추론 처리량을 제공합니다. 이 릴리스는 데이터 및 방법론에 대한 전례없는 투명성으로 눈에 띕니다.

2025년 8월 19일 오후 1시 40분
Memp: LLM 기반 에이전트에서 프로시저 메모리를 핵심 최적화 대상으로 끌어올리는 작업에 중립적인 프레임워크

LLM 에이전트는 웹 연구, 보고서 작성, 데이터 분석 및 다단계 소프트웨어 워크플로우와 같은 복잡한 작업을 처리하는 데 충분히 강력해졌지만, 절차적 메모리에 어려움을 겪고 있습니다. 이 프레임워크는 프로시저 메모리를 핵심 최적화 대상으로 끌어올려 에이전트를 견고하게 만듭니다.

2025년 8월 19일 오전 4시 25분
R-Zero: 스스로 훈련 데이터를 생성하는 완전 자율 AI 프레임워크

대형 언어 모델이 자연어 이해부터 추론 및 코드 생성까지 다양한 분야를 혁신시켰다. 그러나 그들의 추론 능력을 실제 초인간 수준으로 끌어올리는 것은 방대하고 고품질의 인간 주석이 필요한 데이터셋 때문에 제한되어 왔다. Tencent AI Seattle Lab, Washington 대학, Maryland 대학 및 […] 연구진이 자체 훈련 데이터를 생성하는 완전 자율 AI 프레임워크인 R-Zero를 개발했다.

2025년 8월 16일 오전 12시 19분
메타 CLIP 2: 전 세계 이미지-텍스트 쌍으로부터 처음으로 훈련된 대조적 언어-이미지 사전 훈련 (CLIP)

CLIP는 현대 비전 및 멀티모달 모델에서 중요한 역할을 하고 있으며, 제로샷 이미지 분류와 MLLM의 비전 인코더로 활용되고 있다. 그러나 대부분의 CLIP 변형은 영어 데이터에만 국한되어 있어 전 세계 웹의 다양한 언어 콘텐츠를 무시한다. 메타 CLIP를 포함한 대부분의 CLIP 변형은 영어 데이터만을 다룬다.

2025년 8월 8일 오전 3시 38분
알리바바, 그룹 시퀀스 정책 최적화(GSPO) 소개: Qwen3 모델을 촉진하는 효율적인 강화 학습 알고리즘

알리바바가 GSPO 알고리즘을 소개했다. 이 알고리즘은 Qwen3 모델을 촉진하는 효율적인 강화 학습 알고리즘이다. GSPO는 언어 모델의 확장에 결정적인 역할을 하며, 보다 심층적인 추론을 통해 경쟁 수준의 수학과 프로그래밍과 같은 복잡한 작업을 해결할 수 있도록 돕는다.

2025년 8월 7일 오후 1시 21분
Anthropic AI, LLMs의 개성 변화를 모니터링하고 제어하기 위해 Persona 벡터 소개

LLMs는 도움이 되고 무해하며 정직한 보조자 페르소나를 제공하는 대화형 인터페이스를 통해 배포된다. 그러나 LLMs는 훈련 및 배포 단계 전체에서 일관된 성격 특성을 유지하지 못한다. LLMs는 다양한 프롬프트 전략이나 문맥적 입력에 노출될 때 드라마틱하고 예측할 수 없는 페르소나 변화를 보인다. 훈련 과정은 의도하지 않은 성격 변화를 일으킬 수도 있다.

2025년 8월 5일 오후 6시 47분
바이트댄스, Seed-Prover 소개: 자동 수학 정리 증명을 위한 고급 형식 추론 시스템

바이트댄스가 자연어 확장을 통해 수학적 추론을 향상시키는 LLMs를 소개했으며, 자연어 증명의 정확성 검증이 어려운 문제를 해결하기 위해 Seed-Prover를 도입했다.

2025년 8월 4일 오전 2시 51분
DeepReinforce 팀이 CUDA 최적화를 위한 자동화 강화 학습 (RL) 프레임워크 CUDA-L1을 소개, GPU로부터 3배 더 많은 성능을 발휘

DeepReinforce 팀이 CUDA-L1이라는 새로운 프레임워크를 소개했는데, 이는 인간 개입 없이 GPU로부터 평균 3.12배의 속도 향상과 최대 120배의 가속을 제공한다. 이는 학술적인 약속에 그치지 않고, 모든 결과가 오픈 소스 코드로 NVIDIA 하드웨어에서 재현 가능하다.

2025년 8월 3일 오전 1시 56분
Falcon LLM 팀이 Falcon-H1 기술 보고서를 발표: 70B LLM과 견줄만한 하이브리드 어텐션-SSM 모델

Falcon-H1 시리즈는 대형 언어 모델의 진화에서 중요한 발전을 이룬다. Transformer 기반 어텐션과 Mamba 기반 상태 공간 모델 (SSM)을 하이브리드 병렬 구성으로 통합하여 Falcon-H1은 우수한 성능, 메모리 효율성 및 확장성을 달성한다. 다양한 크기로 출시되며 0.5B~34B 파라미터를 제공한다.

2025년 8월 1일 오전 4시 36분
TransEvalnia: LLM을 사용한 세밀하고 인간 중심의 번역 평가를 위한 프롬프팅 기반 시스템

LLM을 활용한 번역 시스템은 인간 번역가를 능가할 정도로 발전했다. 그러나 LLM이 복잡한 작업에서 발전하면서 평가도 더 어려워지고 있다. 이에 TransEvalnia는 세밀하고 인간 중심의 번역 평가를 위한 프롬프팅 기반 시스템으로 개발되었다.

2025년 8월 1일 오전 12시 06분
코그니와 무료 허깅페이스 모델을 사용하여 에이전트 메모리를 가진 지능적인 대화형 AI 에이전트 구축하는 코딩 가이드

본 튜토리얼에서는 코그니와 허깅페이스 모델을 이용하여 에이전트 메모리를 가진 고급 AI 에이전트를 구축하는 방법을 다루며, 구글 콜랩 및 기타 노트북에서 완벽하게 작동하는 완전히 무료 오픈 소스 도구를 활용합니다. 코그니를 메모리 저장 및 검색을 위해 구성하고, 응답 생성을 위한 가벼운 대화 모델을 통합하고, 모두를 통합합니다.

2025년 7월 31일 오후 7시 21분
코딩을 위한 최고의 로컬 LLMs(2025)

2025년 중반 기준으로 코딩을 위한 최고의 로컬 대형 언어 모델(LLMs)을 검토하고, 주요 모델 기능을 강조하며 로컬 배포를 쉽게 하는 도구에 대해 논의합니다.

2025년 7월 31일 오전 4시 13분
구글 딥마인드의 ‘가상 위성’ 알파어스 재단 소개

알파어스 재단은 AI 기술을 활용한 행성 매핑을 위해 구글 딥마인드가 개발한 ‘가상 위성’ 기술을 소개합니다. 지구 관측 데이터가 폭증하고 있지만 고품질 지면 실측 데이터 부족 문제를 해결하고자 합니다.

2025년 7월 31일 오전 3시 54분
너무 많은 사고는 LLMs를 깰 수 있다: 테스트 시간 계산의 역 스케일링

대형 언어 모델(LLMs)의 최근 발전으로 모델이 추론 중에 ‘더 오래 생각하게’ 함으로써 일반적으로 정확도와 견고성이 향상된다는 아이디어가 증가했다. 그러나 Anthropics이 주도한 연구 “테스트 시간 계산의 역 스케일링”은 강력한 반론을 제시한다.

2025년 7월 30일 오전 3시 48분
Rubrics as Rewards (RaR): 구조화된 다중 기준 평가 신호로 언어 모델을 교육하기 위한 강화 학습 프레임워크

Rubrics as Rewards (RaR)는 체계적이고 다중 기준을 갖는 평가 신호를 활용해 언어 모델을 교육하는 강화 학습 프레임워크이다. 명확하고 검증 가능한 결과를 갖는 과제에 대해 복잡한 추론을 수행하는 강화 학습을 통해 수학 및 코딩 분야에서 뛰어난 성능을 보이지만, 직접적인 보상 신호가 없는 모델을 교육하는 것에 도전이 존재한다.

2025년 7월 30일 오전 12시 12분
VLM2Vec-V2: 이미지, 비디오 및 시각 문서 간의 다중 모달 임베딩 학습을 위한 통합 컴퓨터 비전 프레임워크

VLM2Vec-V2는 이미지, 비디오, 시각 문서 등 다양한 데이터 형식을 공유된 밀집 표현 공간으로 인코딩하여 다중 모달 정보를 전달하는 임베딩 모델이다. 최근 대규모 기초 모델의 발전으로 임베딩 모델이 발전해왔지만, 기존 다중 모달 임베딩 모델은 MMEB 및 M-BEIR과 같은 데이터셋에서 훈련되었고 대부분의 초점이 이미지나 동영상에만 집중되어왔다.

2025년 7월 27일 오후 5시 10분
왜 맥락이 중요한가: 맥락화된 쿼리로 AI 모델 평가 변환

언어 모델 사용자들은 종종 자신이 원하는 것을 명확히 설명하지 않아 이해하기 어려워한다. 현재의 평가 방법은 종종 모델이 사용자의 백그라운드 지식에 따라 다르게 대답해야하는 질문에 대처하기 어렵다.

2025년 7월 27일 오전 1시 24분