2026년 4월 23일 목요일
오늘의 신문
2026년 4월 23일 목요일 오늘의 신문
OpenAI가 AI 에이전트의 디버깅을 돕기 위한 브라우저 기반 시각화 도구 'Euphony'를 오픈 소스로 공개했습니다. 이 도구는 Harmony 채팅 데이터와 Codex 세션 로그를 시각화합니다.
2026년 4월 22일 오전 12시 38분
Hugging Face가 대형 언어 모델(LLM)의 후처리 작업을 자동화하는 오픈소스 AI 에이전트 'ml-intern'을 출시했다. 이 도구는 문헌 검토, 데이터셋 발견, 훈련 스크립트 실행 등의 작업을 자동으로 수행한다.
2026년 4월 21일 오후 8시 43분
OpenAI가 사이버 방어 프로그램의 신뢰할 수 있는 접근 방식을 확대하며, 사이버 보안에 최적화된 GPT-5.4-Cyber 모델을 수천 명의 검증된 방어자에게 제공한다고 발표했다.
2026년 4월 20일 오전 4시 26분
문샷 AI와 칭화대 연구진이 대규모 언어 모델(LLM) 서비스 방식을 혁신적으로 변화시킬 PrfaaS 아키텍처를 제안했습니다. 이 아키텍처는 데이터 센터 간의 KVCache 구조를 통해 LLM의 추론 방식을 개선하는 데 중점을 두고 있습니다.
2026년 4월 19일 오후 8시 51분
OpenMythos는 Claude Mythos 아키텍처를 이론적으로 재구성한 오픈소스 프로젝트로, PyTorch로 완전히 구축되었습니다. 이 프로젝트는 연구 커뮤니티의 이론을 바탕으로 하고 있습니다.
2026년 4월 19일 오후 3시 47분
NVIDIA가 하이브리드 양자-고전 시스템을 위한 첫 번째 오픈 양자 AI 모델인 '이징'을 출시했습니다. 이 모델은 양자 컴퓨터와 고전 컴퓨터의 간극을 줄이기 위한 노력의 일환으로 개발되었습니다.
2026년 4월 19일 오전 3시 54분
앤트로픽이 클로드 오퍼스 4.7을 출시했습니다. 이번 버전은 에이전틱 소프트웨어 엔지니어링과 멀티모달 기능에서 중요한 개선을 이루었으며, 실제 AI 애플리케이션 개발에 큰 도움이 될 것으로 기대됩니다.
2026년 4월 18일 오후 5시 40분
구글이 LLM 기반의 자동 진단 도구인 'Auto-Diagnose'를 발표했다. 이 도구는 통합 테스트 로그를 자동으로 분석하여 오류를 찾아내는 기능을 제공한다.
2026년 4월 18일 오전 2시 00분
생성형 AI의 발전과 함께 보안 위협도 증가하고 있습니다. 2026년 가이드에서는 Mindgard, Garak, Microsoft의 PyRIT 등 19개의 주요 도구를 소개하며, 보안 팀이 데이터 유출 및 편향과 같은 취약점을 사전에 식별할 수 있도록 돕습니다.
2026년 4월 17일 오후 4시 45분
OpenAI가 생명과학 분야에 진출하며, 약물 발견과 유전체 연구를 가속화하기 위해 GPT-Rosalind라는 AI 모델을 출시했습니다. 이 모델은 10-15년의 약물 발견 기간을 단축할 것으로 기대됩니다.
2026년 4월 16일 오후 8시 00분
UCSD와 Together AI 연구팀이 파르카에(Parcae)라는 새로운 언어 모델 아키텍처를 소개했습니다. 이 모델은 기존 트랜스포머 모델의 두 배 크기와 같은 품질을 제공하면서도 효율성을 높였습니다.
2026년 4월 16일 오전 4시 30분
인플렉션이 NVIDIA 아이징 디코딩 AI 모델을 자사의 스퀄(Sqale) 중성 원자 양자 컴퓨팅 플랫폼에 통합했다고 발표했다. 이번 협업은 양자 오류 수정의 속도 문제를 해결하기 위한 것이다.
2026년 4월 15일 오전 12시 33분Quantum Computing Report
타이니피쉬가 AI 에이전트를 위한 통합 웹 인프라 플랫폼을 출시했습니다. 이 플랫폼은 검색, 데이터 수집, 브라우저 자동화 기능을 하나의 API 키로 제공합니다.
2026년 4월 14일 오후 2시 53분
NVIDIA와 메릴랜드 대학교 연구팀이 오디오 언어 모델 'AF-Next'를 공개했습니다. 이 모델은 음성, 환경 소음, 음악 등을 이해하는 데 강력한 성능을 발휘합니다.
2026년 4월 14일 오전 4시 24분
메타 AI와 킹 압둘라 과학기술대학교(KAUST) 연구진이 신경망이 직접 컴퓨터 역할을 하는 신경 컴퓨터(NC)를 제안했다. 이 연구는 이론적 틀과 함께 두 가지 모델을 소개한다.
2026년 4월 12일 오후 5시 52분
MiniMax가 자가 진화 에이전트 모델인 MiniMax M2.7을 오픈 소스로 공개했습니다. 이 모델은 SWE-Pro에서 56.22%, Terminal Bench 2에서 57.0%의 성과를 기록했습니다.
2026년 4월 12일 오전 5시 20분

최신뉴스 전체보기

구글 코랩, 캐글 데이터셋, 모델 및 대회에 원 클릭 액세스할 수 있는 캐글허브 통합

구글이 캐글과 코랩 사이의 간극을 메우기 위해 새로운 기능인 코랩 데이터 익스플로러를 출시했다. 이를 통해 노트북 내에서 캐글 데이터셋, 모델, 대회를 검색하고 편집기를 벗어나지 않고 캐글허브를 통해 가져올 수 있다.

2025년 12월 8일 오전 4시 56분
Panel를 사용하여 고급 다중 페이지 대시 보드 설계하기: 동적 필터링, 실시간 KPI, 풍부한 시각적 탐색

Panel을 활용해 고급 다중 페이지 인터랙티브 대시 보드를 만드는 튜토리얼. 각 구성 요소를 통해 합성 데이터 생성, 풍부한 필터 적용, 동적 시계열 트렌드 시각화, 세그먼트 및 지역 비교, 그리고 실시간 KPI 업데이트 시뮬레이션 방법을 탐구한다.

2025년 12월 1일 오전 6시 53분
메타 AI 연구원들이 소개하는 매트릭스: 레이 네이티브, 분산 프레임워크를 통한 다중 에이전트 합성 데이터 생성

메타 AI 연구원들이 소개한 매트릭스는 현대 AI 모델을 위해 합성 데이터를 신선하고 다양하게 유지하는 방법을 제시하는데, 단일 조율 파이프라인을 병목 현상으로 만들지 않고, 분산된 대기열을 통해 메시지로 직렬화된 제어와 데이터 흐름을 구현한 분산 프레임워크이다.

2025년 11월 30일 오후 6시 49분
NVIDIA AI, Orchestrator-8B 발표: 효율적인 도구 및 모델 선택을 위한 강화 학습 훈련 컨트롤러

NVIDIA 연구진이 ToolOrchestra를 발표했습니다. 이는 각 작업 단계마다 올바른 모델 또는 도구를 선택하는 AI 시스템을 어떻게 학습시킬 수 있는지에 대한 혁신적인 방법입니다.

2025년 11월 29일 오후 1시 18분
Tinygrad를 사용하여 딥러닝 내부를 이해하기 위해 Transformer 및 Mini-GPT 모델의 기능 구성 요소를 처음부터 구현하는 방법

Tinygrad를 사용하여 텐서, 오토그래드, 어텐션 메커니즘 및 트랜스포머 구조를 완전히 손으로 만들어보는 튜토리얼. 기본 텐서 작업부터 멀티헤드 어텐션, 트랜스포머 블록, 미니-GPT 모델까지 순차적으로 구축하면서 Tinygrad의 간결함을 관찰한다.

2025년 11월 26일 오후 4시 04분
Microsoft AI, Fara-7B 발표: 컴퓨터 사용을 위한 효율적인 에이전틱 모델

마이크로소프트 연구팀이 7조 개의 파라미터를 가진 Fara-7B를 발표했다. 이 모델은 컴퓨터 사용을 위해 특별히 설계된 작은 언어 모델로, 클라우드로 데이터를 보내지 않고도 AI 에이전트가 웹 작업을 처리할 수 있게 해준다.

2025년 11월 25일 오전 7시 57분
NVIDIA AI, Nemotron-Elastic-12B 발표: 추가 훈련 비용 없이 6B/9B/12B 변형 제공하는 단일 AI 모델

NVIDIA는 하나의 탄력 있는 모델로 여러 크기의 모델을 생성할 수 있게 하여 AI 개발팀이 여러 대규모 언어 모델을 훈련하고 저장할 필요성을 없앴다. NVIDIA AI팀은 Nemotron-Elastic-12B를 발표했는데, 이는 12B 파라미터 추론 모델로, 추가 훈련 비용 없이 6B, 9B, 12B 변형을 제공한다.

2025년 11월 24일 오후 3시 54분
Opik를 사용한 투명하고 측정 가능하며 재현 가능한 AI 워크플로우를 위한 완전 추적 및 평가된 로컬 LLM 파이프라인 구현

Opik를 사용하여 LLM 파이프라인을 구축, 추적 및 평가하는 완전한 워크플로우를 구현하는 튜토리얼. 경량 모델로 시작하여 프롬프트 기반 계획 추가, 데이터셋 생성 및 자동화된 평가 실행까지 구조화된 시스템을 단계별로 진행하며 Opik가 각 함수 스팬을 추적하는 방법을 확인합니다.

2025년 11월 21일 오후 5시 47분
Meta AI, 이미지와 비디오에서 프롬프트 가능한 개념 세분화를 위한 Segment Anything Model 3 (SAM 3) 발표

Meta AI 팀이 Meta Segment Anything Model 3 또는 SAM 3을 공개했다. SAM 3은 간단한 프롬프트를 사용하여 대규모 이미지 및 비디오 컬렉션에서 모든 개념의 인스턴스를 신뢰성 있게 찾고 세분화하고 추적하는 데 사용되는 통합 기본 모델이다.

2025년 11월 21일 오전 4시 53분
xAI의 Grok 4.1, 감정 지능 향상, 환각 감소 및 안전 제어 강화를 추진

xAI의 최신 대형 언어 모델인 Grok 4.1은 인간들에게 감정적으로 지능적이고 신뢰할 수 있는 AI 어시스턴트를 구축하는 방법을 제시한다. 이 모델은 모든 사용자에게 이용 가능하며, 감정 지능을 향상시키고 환각을 줄이며 안전 제어를 강화한다.

2025년 11월 19일 오전 8시 21분
Cerebras, 롱 컨텍스트 코딩 에이전트를 위한 MiniMax-M2-REAP-162B-A10B 출시

Cerebras가 MiniMax-M2-REAP-162B-A10B를 발표했다. 이 모델은 MiniMax-M2에서 파생된 압축된 희소 Mixture-of-Experts (SMoE) 인과 언어 모델로, Router 가중 전문가 활성화 가지치기(REAP) 방법을 사용하여 전문가를 가지치기하고 코딩 에이전트 및 도구와 같은 배포 중심 워크로드의 메모리를 줄였다.

2025년 11월 15일 오후 9시 53분
Prior Labs, TabPFN-2.5 발표: 탭피에프엔의 규모와 속도를 높이는 최신 버전

Prior Labs가 TabPFN-2.5를 발표했다. 이는 탭피에프엔의 규모와 속도를 높여준다. 금융, 의료, 에너지 및 산업팀은 행과 열의 테이블로 작업하며, 이 모델은 50,000개 샘플과 2,000개 피처로 학습 범위를 확장한다.

2025년 11월 8일 오전 5시 44분
Moonshot AI, 인간 개입 없이 200-300개의 순차 도구 호출을 실행할 수 있는 인상적인 사고 모델 Kimi K2 Thinking 출시

Moonshot AI사가 Kimi K2 Thinking을 공개했다. 이 모델은 Kimi K2 Mixture of Experts 아키텍처의 전체 추론 스트림을 노출하는 오픈 소스 사고 에이전트 모델로, 깊은 추론이 필요한 작업을 대상으로 한다.

2025년 11월 6일 오후 9시 19분
메타 리서치 하이드라를 활용해 확장 가능하고 재현 가능한 머신러닝 실험 파이프라인을 구축하는 방법은 무엇인가요?

이 튜토리얼에서는 Meta Research가 개발하고 오픈 소스로 공개한 고급 구성 관리 프레임워크 인 하이드라를 탐색합니다. Python 데이터 클래스를 사용하여 구조화된 구성을 정의하여 실험 매개변수를 깔끔하고 모듈식으로 관리하고 재현 가능하게 합니다. 튜토리얼을 진행하면서 구성을 구성하고 런타임 오버라이드를 적용하고 시뮬레이션합니다.

2025년 11월 4일 오후 7시 00분
Microsoft, 새 AI 프레임워크 ‘에이전트 라이트닝’ 출시

Microsoft AI 팀이 출시한 ‘에이전트 라이트닝’은 기존 AI 에이전트 스택을 변경하지 않고도 강화 학습을 통해 정책 LLM을 개선하는 데 도와주는 오픈소스 프레임워크이다. 훈련과 실행을 분리하여 강화 학습을 모든 AI 에이전트에 대해 가능케 한다.

2025년 10월 29일 오후 5시 39분
미니맥스, 미니맥스 M2 공개: 최대 코딩 및 에이전틱 워크플로에 최적화된 미니 오픈 모델 출시, 8% 클로드 소네 가격 및 약 2배 빠름

미니맥스팀이 코딩과 에이전트 워크플로에 최적화된 전문가 모델인 MiniMax-M2를 공개했다. 이 모델은 최대 모델 비용의 일부분으로 오랜 기간 동안 MCP, 쉘, 브라우저, 검색 및 코드 작업을 지원한다.

2025년 10월 28일 오후 6시 21분
5가지 일반 LLM 매개변수 예시로 설명

대형 언어 모델(Large Language Models, LLMs)은 여러 매개변수를 제공하여 행동을 세밀하게 조정하고 응답 생성 방식을 제어할 수 있습니다. 이 튜토리얼에서는 max_completion_tokens, temperature, top_p, presence_penalty 등 일반적으로 사용되는 몇 가지 매개변수를 살펴봅니다.

2025년 10월 26일 오후 5시 16분
PokeeResearch-7B: AI 피드백으로 강화 학습된 오픈 소스 7B 딥-리서치 에이전트 및 견고한 추론 프레임워크

PokeeResearch-7B는 7B 파라미터 딥 리서치 에이전트로, 쿼리를 분해하고 검색 및 읽기 호출을 실행하며 후보 답변을 확인한 후 여러 리서치 스레드를 최종 응답으로 합성하는 기능을 제공한다. 에이전트는 연구 및 검증 루프를 실행한다.

2025년 10월 22일 오후 10시 48분
구글 AI가 소개하는 VISTA: 텍스트에서 비디오로의 생성을 위한 테스트 시간 자가 개선 에이전트

VISTA는 추론 중에 텍스트에서 비디오 생성을 개선하는 다중 에이전트 프레임워크로, 구조화된 프롬프트를 장면으로 계획하고 최고의 후보를 선택하기 위해 페어와이즈 토너먼트를 실행하며 시각, 음향, 문맥에 걸쳐 특화된 심사위원을 활용하고 깊은 사고 프롬프팅 에이전트로 프롬프트를 다시 작성합니다.

2025년 10월 22일 오후 2시 55분
시그모이드 스케일링 곡선이 LLMs에 대한 강화 학습 RL 후 훈련을 예측 가능하게 만듦

강화 학습 RL 후 훈련은 이제 추론 중심 LLMs에 대한 주요 수단이지만, 사전 훈련과 달리 예측 가능한 스케일링 규칙이 없었습니다. Meta, UT Austin, UCL, Berkeley, Harvard 등의 연구진이 시그모이드 스케일링 곡선을 도입하여 이 문제를 해결했습니다.

2025년 10월 17일 오후 10시 27분
문서에서 자동화된 파이프라인까지 통합 도구 오케스트레이션 프레임워크 구축하기

이 튜토리얼에서는 도구 문서를 표준화된 호출 인터페이스로 변환하고 중앙 시스템에 등록한 후 자동화된 파이프라인의 일부로 실행하는 효율적인 프레임워크를 구축하는 방법을 보여줍니다.

2025년 10월 17일 오후 6시 13분
Qualifire AI, Rogue: 종단간 에이전틱 AI 테스팅 프레임워크 발표, AI 에이전트의 성능 평가

Qualifire AI가 Rogue를 공개했는데, 이는 AI 에이전트의 성능을 평가하는 파이썬 프레임워크로, 기존 QA 방법론의 한계를 극복하고 개발팀이 믿고 릴리스를 관리할 수 있도록 도와준다.

2025년 10월 17일 오전 3시 05분
Meta AI의 ‘Early Experience’는 보상 없이 언어 에이전트를 훈련하고 모방 학습을 능가합니다

Meta Superintelligence Labs가 제안한 ‘Early Experience’는 보상 없이 에이전트를 훈련하는 새로운 방법으로, 언어 에이전트의 정책 학습을 개선하며 모방 학습을 능가하는 것으로 나타났습니다.

2025년 10월 15일 오전 5시 32분
고급 PyTest 코딩 구현으로 플러그인, 픽스처, JSON 보고서를 활용한 맞춤형 자동화 테스팅 구축

이 튜토리얼에서는 파이썬의 강력한 테스트 프레임워크 중 하나인 PyTest의 고급 기능을 탐구합니다. 픽스처, 마커, 플러그인, 매개변수화 및 사용자 정의 구성을 보여주는 완전한 미니 프로젝트를 처음부터 구축합니다. PyTest가 단순한 테스트 러너에서 현실 세계의 견고하고 확장 가능한 시스템으로 어떻게 진화하는지에 초점을 맞춥니다.

2025년 10월 14일 오후 12시 47분
NVIDIA 연구진, 강화 학습 사전 학습(RLP) 제안: 사전 학습 중 추론 구축을 위한 사전 학습 목적으로 강화 학습 제안

NVIDIA AI가 강화 학습 사전 학습(RLP)을 소개했습니다. 이는 후속 학습이 아닌 사전 학습 단계에서 강화 학습을 적용하는 교육 목표입니다. 강화 학습을 다음 토큰 예측 전에 샘플링된 작업으로 취급하고 정보 획득에 대한 보상으로 보상합니다.

2025년 10월 14일 오전 5시 55분
마이크로소프트 리서치, Skala 발표: 반 하이브리드 수준 정확도를 목표로 한 딥러닝 교환-상관 기능

Skala는 Kohn-Sham 밀도 기능 이론(DFT)을 위한 딥러닝 교환-상관 기능으로, 반 하이브리드 수준 정확도를 반 공간 비용에서 달성한다. W4-17에서 MAE는 약 1.06 kcal/mol(단일 참조 하위집합에서 0.85), WTMAD-2는 약 3.89 kcal/mol이다. 주요 분자화학에 적합하며 D3(BJ) 분산 보정을 사용한다.

2025년 10월 10일 오전 12시 51분
78개의 예시만으로 소프트웨어 AI 에이전트를 확장시키는 새로운 에이전시 중심 감독 방식

상하이교통대학교 및 SII Generative AI Research Lab (GAIR)의 연구진은 LIMI (“Less Is More for Agency”)라는 감독 세부 조정 방법을 제안하며, 기본 모델을 78개의 샘플을 사용하여 능숙한 소프트웨어/연구 에이전트로 변환합니다.

2025년 10월 6일 오후 2시 21분
Zhipu AI, GLM-4.6 출시: 현실 세계 코딩, 장기 맥락 처리, 추론, 탐색 및 에이전틱 AI 향상

Zhipu AI가 GLM-4.6을 출시했다. 이 모델은 에이전틱 워크플로, 장기 맥락 추론, 실용적 코딩 작업에 초점을 맞추고 있으며, 입력 창을 20만 토큰으로 확장하고 12만 8천 토큰의 최대 출력을 제공한다. 이번 업데이트는 실용적 작업에서 효율적인 토큰 사용을 목표로 하며 로컬 배포를 위한 오픈 가중치도 함께 제공된다.

2025년 9월 30일 오후 7시 17분
OpenAI, Sora 2 및 동의 게이트 Sora iOS 앱 출시

OpenAI는 물리적 타당성, 다중 샷 제어, 동기화된 대화/SFX에 중점을 둔 텍스트-비디오-오디오 모델인 Sora 2를 출시했다. 미국과 캐나다를 대상으로 한 동의 게이트 Sora iOS 앱을 출시하여 소셜 크리에이션, 리믹싱, 검증된 유사성 삽입을 허용한다.

2025년 9월 30일 오후 2시 19분
oLLM 만나보기: 8 GB 소비자 GPU로 100K-컨텍스트 LLM 추론을 SSD 오프로드를 통해 제공하는 가벼운 Python 라이브러리—양자화 불필요

oLLM은 Huggingface Transformers와 PyTorch 기반의 가벼운 Python 라이브러리로, NVIDIA GPU에서 대규모 컨텍스트 Transformers를 빠른 지역 SSD로 가중치와 KV-캐시를 공격적으로 오프로드하여 실행합니다. 이 프로젝트는 오프라인, 단일 GPU 워크로드를 대상으로 하며 명시적으로 양자화를 피하며 FP16/BF16 가중치를 사용합니다.

2025년 9월 29일 오후 1시 43분
로컬 및 온라인 배포를 위한 대시 및 플롯리 대시보드의 상호작용 콜백 메커니즘 설계 방법?

이 튜토리얼에서는 Dash, Plotly 및 Bootstrap을 사용하여 고급 대화형 대시보드를 구축하는 방법을 설명합니다. 이 도구들이 레이아웃 및 시각화를 설계하는 데 어떻게 도움을 주고, Dash의 콜백 메커니즘이 컨트롤을 출력에 연결하여 실시간으로 응답 할 수 있도록 하는 방법을 강조합니다.

2025년 9월 28일 오후 11시 39분
Gemini Robotics 1.5: DeepMind의 ER↔VLA 스택이 현실 세계로 새로운 로봇을 선사합니다

구글 DeepMind의 Gemini Robotics 1.5는 하이-레벨 신체적 추론과 로우-레벨 시각 운동을 위한 두 가지 모델로 분리하여, 연구자처럼 계획하고 장면을 이해하며 로봇 간 동작을 전달할 수 있다고 말합니다.

2025년 9월 28일 오전 4시 29분
Asyncio란 무엇인가? 비동기 Python 시작하기 및 LLM과 함께 Asyncio 사용하기

AI 애플리케이션에서 성능은 중요하다. 대형 언어 모델(Large Language Models, LLM)을 사용할 때 API 응답이나 I/O 작업을 기다리는 시간이 많이 소요된다. 이때 asyncio가 도움이 된다. 많은 개발자들이 LLM을 사용하면서 asyncio를 사용하고 있다.

2025년 9월 27일 오후 6시 26분
Qwen3Guard 소개: 글로벌 실시간 AI 안전을 위해 구축된 Qwen3 기반의 다국어 안전 가드레일 모델

알리바바의 Qwen 팀은 실시간 LLM에 안전성을 유지할 수 있는지 의문에 대답하며, Qwen3Guard를 출시했다. Qwen3Guard는 프롬프트 및 스트리밍 응답을 실시간으로 조절하는 다국어 가드레일 모델로, Qwen3Guard-Gen과 Qwen3Guard-Stream 두 가지 변형이 있다.

2025년 9월 27일 오전 1시 04분
Sakana AI가 발표한 ShinkaEvolve: 과학적 발견을 위해 프로그램을 발전시키는 무첨단 샘플 효율성을 가진 오픈소스 프레임워크

Sakana AI가 과학 및 공학 문제를 위해 프로그램을 진화시키기 위해 대형 언어 모델(LLMs)을 사용하는 오픈 소스 프레임워크인 ShinkaEvolve를 공개했다. 평균적인 해를 얻기 위해 필요한 평가 횟수를 현저히 줄이면서 새로운 SOTA를 보고했다.

2025년 9월 26일 오전 5시 15분
알리바바의 Qwen3-Max: 생산 준비 완료된 생각 모드, 1조+ 매개변수, 그리고 첫날 코딩/에이전틱 벤치 신호

알리바바가 Qwen3-Max를 발표했는데, 이는 조합 전문가(MoE) 모델로, Qwen Chat 및 알리바바 클라우드의 Model Studio API를 통해 즉시 공개되었다. Qwen의 2025년 출시 일정을 미리보기에서 생산까지 이동시키며, Qwen3-Max-Instruct와 Qwen3-Max-Thinking 두 가지 변형에 초점을 맞추고 있다.

2025년 9월 24일 오전 11시 20분
알리바바 큐윈 팀, 상용 GPU로 80B/3B-액티브 하이브리드-MoE를 가져오는 Qwen3-Next-80B-A3B의 FP8 빌드를 공개

알리바바의 큐윈 팀이 새로운 Qwen3-Next-80B-A3B 모델을 위한 FP8-양자화된 체크포인트를 공개했으며, Instruct 및 Thinking 두 가지 후 학습 변형으로 고성능 추론을 위해 설계되었습니다. 이 FP8 레포지토리는 BF16 릴리스를 반영하지만 “미세한 FP8” 가중치와 sglang 및 vLLM 신변 배포 노트가 포장되어 있습니다.

2025년 9월 22일 오전 6시 04분
IBM과 ETH 취리히 연구진, 인메모리 AI 하드웨어의 노이즈 대응을 위한 아날로그 퍼운데이션 모델 발표

IBM과 ETH 취리히의 연구진은 아날로그 퍼운데이션 모델(AFMs)을 발표했는데, 이 모델은 대형 언어 모델(LLMs)과 아날로그 인메모리 컴퓨팅(AIMC) 하드웨어 사이의 간극을 메우는 데 사용된다. AIMC는 효율성 측면에서 혁명적인 발전을 약속하며, 임베디드나 엣지 디바이스에 적합한 작은 공간에서 십억 개의 파라미터를 가진 모델을 실행할 수 있다.

2025년 9월 21일 오전 4시 12분
xAI가 Grok-4-Fast를 출시: 2백만 토큰 컨텍스트와 툴 사용 강화 학습(Reinforcement Learning)을 통한 엔드 투 엔드로 훈련된 통합 추론 및 비추론 모델

xAI가 Grok-4-Fast를 소개했는데, 이는 “추론”과 “비추론” 행동을 시스템 프롬프트를 통해 제어 가능한 단일 가중치 세트로 병합한 비용 최적화된 Grok-4의 후속 모델이다. 이 모델은 2백만 토큰 컨텍스트 창과 네이티브 툴 사용 강화 학습을 통해 높은 처리량의 검색, 코딩 및 Q&A를 대상으로 한다.

2025년 9월 20일 오전 5시 17분
Qwen3-ASR-Toolkit: Qwen-ASR API 3분/10MB 제한 초과를 위한 고급 오픈 소스 파이썬 명령줄 툴킷

Qwen이 Qwen3-ASR-Toolkit을 출시했습니다. 이는 Qwen3-ASR-Flash API의 3분/10MB 제한을 우회하기 위해 VAD 인식 청킹, 병렬 API 호출, FFmpeg를 통한 자동 재샘플링/포맷 정규화를 수행하여 안정적이고 시간 기준의 전사 파이프라인을 제공합니다. Python ≥3.8이 필요하며, 설치 방법은 공식 사이트에서 확인할 수 있습니다.

2025년 9월 19일 오전 3시 55분
AI 에이전트 구축은 5% 인공지능과 100% 소프트웨어 엔지니어링

실제 운영용 에이전트는 모델 선택이 아닌 데이터 배관, 제어 및 관측성에 달려있다. 기업 문서를 처리하고 표준화하며 관리를 시행하고 관계적 특성과 임베딩을 색인화하여 인증된 API 뒤에서 검색 및 생성을 제공하는 “문서 대화” 파이프라인에 대한 설명.

2025년 9월 18일 오후 8시 40분
어떤 UI에도 AI 에이전트를 가져오기: 실시간, 구조화된 에이전트-프론트엔드 스트림을 위한 AG-UI 프로토콜

AI 에이전트는 단순히 답변을 내뱉는 챗봇이 아닙니다. 실시간으로 협업하며 대시보드를 업데이트하고 API를 호출할 수 있는 복잡한 시스템으로 진화하고 있습니다. 하지만 에이전트가 사용자 인터페이스와 대화하는 방법은 무엇이어야 하는가? 이를 위한 AG-UI 프로토콜이 소개되었습니다.

2025년 9월 18일 오후 3시 29분
알리바바, 통이 딥리서치 공개: 장기연구용 최적화된 30B 파라미터 오픈소스 에이전틱 LLM

알리바바의 통이 랩이 통이-딥리서치-30B-A3B를 오픈소스로 공개했다. 이 모델은 웹 도구를 활용한 장기, 심층 정보탐색을 위해 구축된 에이전트 특화 대형 언어 모델로, 약 30.5B의 총 파라미터와 토큰당 약 3-3.3B의 활성 파라미터를 사용하여 강력한 추론 성능을 유지하면서 고 처리량을 가능케 한다. ReAct 스타일 하의 멀티턴 연구 워크플로우를 대상으로 한다.

2025년 9월 18일 오전 3시 31분
IBM AI, 그래나이트 독링 258M 공개: 기업용 오픈소스 문서 AI 모델

IBM이 그래나이트 독링 258M을 공개했다. 이는 엔드 투 엔드 문서 변환을 위해 설계된 오픈소스 비전-언어 모델로, 레이아웃-정확한 추출을 목표로 함. 테이블, 코드, 수식, 목록, 캡션 및 읽기 순서를 처리하여 손실이 적은 Markdown이 아닌 구조화된 기계 판독 가능한 표현을 출력함.

2025년 9월 17일 오후 8시 35분
DNA 서열 분류 및 해석을 위한 주목을 기반으로 한 고급 합성곱 신경망 구축

이 튜토리얼에서는 프로모터 예측, 스플라이스 사이트 감지, 규제 요소 식별 등과 같은 실제 생물학적 작업을 시뮬레이션하는 DNA 서열 분류를 위한 고급 합성곱 신경망을 구축하는 방법을 다룹니다. 원-핫 인코딩, 다중 스케일 합성곱 레이어 및 주목 메커니즘을 결합하여 모델을 설계합니다.

2025년 9월 15일 오후 10시 58분
UT Austin과 ServiceNow 연구팀, AU-Harness 발표: 오디오 LLMs의 종합평가를 위한 오픈소스 툴킷

음성 AI는 멀티모달 AI에서 중요한 분야 중 하나로 부상하고 있으며, 기계가 인간과 상호작용하는 방식을 재구성하고 있다. 그러나 모델은 빠르게 발전했지만 그 평가 도구는 발전하지 못했다. UT Austin과 ServiceNow 연구팀은 AU-Harness를 발표함.

2025년 9월 14일 오전 3시 11분
mmBERT 만나보기: 1800개 이상의 언어로 사전 훈련된 3T 토큰을 사용하는 인코더 전용 언어 모델, 이전 모델보다 2-4배 빠름

새로운 다국어 인코더가 필요한 이유와 XLM-RoBERTa가 지배한 다국어 NLP 분야에서 새로운 mmBERT 모델의 소개. 인코더만으로 구성된 mmBERT 모델은 이전 모델보다 2-4배 빠르고 1800개 이상의 언어로 사전 훈련된 3T 토큰을 사용한다.

2025년 9월 11일 오전 2시 45분
NVIDIA AI, 보급 가능하고 감사 가능한 딥 리서치 에이전트용 프로토타입 프레임워크 ‘UDR’ 출시

NVIDIA의 새로운 프로토타입 프레임워크 ‘UDR’은 확장 가능하고 감사 가능한 딥 리서치 에이전트를 위해 개발되었다. 기존의 딥 리서치 도구들은 제한적인 워크플로와 모델 교체, 도메인별 프로토콜 적용이 어려운 문제점을 가지고 있었는데, ‘UDR’은 이러한 제약을 극복하고자 한다.

2025년 9월 10일 오후 4시 32분
바이두, ERNIE-4.5-21B-A3B-Thinking 발표: 딥 논리를 위한 소형 MoE 모델

바이두 AI 연구팀이 효율성, 장기적 논리 추론, 도구 통합을 중심으로 설계된 새로운 ERNIE-4.5-21B-A3B-Thinking을 발표했다. 이 모델은 21B 총 매개변수를 가지고 있지만 토큰 당 활성 매개변수는 3B뿐으로, 계산 효율성을 유지하면서 경쟁력 있는 논리 능력을 갖추고 있다.

2025년 9월 10일 오전 3시 43분
메타 초지능 연구소, REFRAG 소개: 16배 더 긴 컨텍스트와 31배 더 빠른 디코딩으로 RAG 확장

메타 초지능 연구소, 싱가포르 국립대학교 및 라이스 대학의 연구진이 REFRAG (REpresentation For RAG)를 발표했다. 이는 RAG 효율성을 재고하는 디코딩 프레임워크로, LLM 컨텍스트 창을 16배로 확장하고 정확도를 저해하지 않으면서 첫 번째 토큰까지의 시간을 최대 30.85배 가속화시킨다.

2025년 9월 7일 오후 4시 49분
Chatterbox Multilingual 만나보기: 감정 제어와 워터마킹이 가능한 오픈 소스 제로샷 텍스트 음성 변환(TTS) 다국어 모델

Resemble AI가 최근 23개 국어로 제로샷 음성 클로닝을 위한 프로덕션 급 오픈 소스 TTS 모델인 Chatterbox Multilingual을 출시했다. MIT 라이선스로 배포되어 통합 및 수정에 자유롭다. 이 모델은 Chatterbox 프레임워크를 기반으로 다국어 기능, 표현 제어, 내장형 기능을 추가했다.

2025년 9월 5일 오전 3시 07분
Biomni-R0: 의료 연구에서 전문 수준의 인공지능을 위해 다중 턴 강화 학습으로 끝까지 훈련된 새로운 에이전틱 LLMs

의료 인공지능 분야에서 AI의 역할이 증가하고 있으며, 생물학적 문제를 해결하고 환자 데이터를 해석하는 등 복잡한 작업을 수행할 수 있는 에이전트에 대한 수요가 급증하고 있다.

2025년 9월 5일 오전 12시 14분
구글 딥마인드, RAG에서 규모에 한계를 발견

구글 딥마인드 팀의 최근 연구에서, RAG 시스템의 밀집 임베딩 모델이 규모에 한계를 가지고 있음을 설명했다. 이 한계는 더 큰 모델이나 더 나은 훈련만으로 해결할 수 없는 기본적인 구조적 한계이다.

2025년 9월 4일 오후 1시 34분
AI와 뇌: DINOv3 모델이 인간 시각 처리에 대한 통찰을 드러내는 방법

인간 시각 세계에 대한 내부 표현을 뇌가 어떻게 구축하는지 이해하는 것은 뇌과학에서 가장 매혹적인 도전 중 하나다. 최근 10년간 딥러닝은 컴퓨터 비전을 혁신하여 인간 수준의 정확도로 작업을 수행할 뿐 아니라 정보를 처리하는 방식이 우리의 것과 닮았다는 것을 보여준다.

2025년 9월 3일 오후 6시 05분
Apple, 혁신적인 하이브리드 비전 인코더 FastVLM 발표: 비전 언어 모델(VLM)의 해상도, 지연 시간, 정확성 균형 달성

Apple은 FastVLM을 발표했다. 이는 비교 가능한 크기의 비전 언어 모델(VLM)보다 85배 빠르고 3.4배 작다. 고해상도 이미지를 처리하는 VLM의 성능에 중요한 역할을 하는데, 높은 해상도 이미지에 대한 사전 훈련된 비전 인코더의 비효율성과 추론 실행 시의 계산 비용 증가 등이 도전 요인이다.

2025년 9월 2일 오후 1시 47분
요약된 단기 및 벡터 기반 장기 메모리를 갖춘 고급 AI 에이전트 구축 방법

이 튜토리얼에서는 채팅 뿐만 아니라 기억도 할 수 있는 고급 AI 에이전트를 구축하는 방법을 안내합니다. 경량 LLM, FAISS 벡터 검색 및 요약 메커니즘을 결합하여 단기 및 장기 메모리를 만드는 방법을 보여줍니다. 임베딩 및 자동 압축된 사실들과 함께 작동하여 […]

2025년 9월 2일 오후 1시 26분
알리바바 큐엔 팀, GUI 자동화를 위한 다음 세대 멀티 에이전트 프레임워크 Mobile-Agent-v3 및 GUI-Owl 공개

알리바바 큐엔 팀이 GUI 자동화를 위한 다음 세대 멀티 에이전트 프레임워크인 Mobile-Agent-v3와 GUI-Owl을 발표했다. 최신 언어 모델의 발전으로 화면을 이해하고 작업을 추론하며 실행할 수 있는 에이전트의 가능성이 열렸다.

2025년 8월 31일 오전 5시 41분
Microsoft AI, rStar2-Agent 소개: 14B 수학 추론 모델, 에이전틱 강화학습으로 학습하여 선도 수준 성능 달성

대형 언어 모델은 수학적 추론에서 진전을 이루었지만, 긴 연쇄 사고 과정을 통해 ‘더 오래 생각하는’ 것에는 근본적인 한계가 있다. 마이크로소프트의 rStar2-Agent는 에이전틱 강화학습을 통해 훈련된 14B 수학 추론 모델로, 선도 수준의 성능을 달성했다.

2025년 8월 30일 오전 2시 41분
TPOT를 활용한 지능적인 기계 학습 파이프라인 구축 및 최적화

TPOT를 활용하여 기계 학습 파이프라인을 자동화하고 최적화하는 방법을 실제로 시연하는 튜토리얼. Google Colab에서 작업하여 가벼우면서 재현 가능하고 접근성이 좋도록 설정. 데이터 로드, 사용자 정의 스코어러 정의, XGBoost와 같은 고급 모델로 검색 공간을 맞춤화하는 방법, 설정하는 과정을 안내.

2025년 8월 29일 오후 12시 30분
Meta AI, 딥러닝 OSS 모델 GPT-OSS-120B를 활용한 AIME 2025에서 99.9% 달성하는 첫 AI 방법인 DeepConf 공개

Meta AI와 UCSD 연구팀이 새로운 AI 방법인 Deep Think with Confidence (DeepConf)를 소개했다. 이 방법은 병렬 사고와 자아일관성 기법을 활용하여 AI 추론을 혁신하였고, AIME 2025에서 99.9%의 성과를 이루었다. 이는 오픈소스 모델 GPT-OSS-120B를 사용하는 첫 번째 사례이다.

2025년 8월 27일 오후 12시 40분
구글 AI의 새로운 회귀 언어 모델(RLM) 프레임워크, LLM이 원시 텍스트 데이터에서 산업 시스템 성능 예측 가능하게 함

구글의 새로운 회귀 언어 모델(RLM) 접근 방식은 복잡한 피쳐 엔지니어링이나 엄격한 테이블 형식에 의존하지 않고 대용량 언어 모델(LLMs)이 원시 텍스트 데이터에서 산업 시스템 성능을 예측할 수 있게 합니다.

2025년 8월 27일 오전 3시 04분
Microsoft, VibeVoice-1.5B 공개: 4명의 다른 화자로 최대 90분 음성 합성 가능한 오픈소스 텍스트 음성 모델

Microsoft이 새로 공개한 VibeVoice-1.5B는 MIT 라이선스로 배포된 텍스트 음성(TTS) 기술의 한계를 재정의하며, 4명의 다른 화자로 최대 90분의 음성을 생성할 수 있는 유연하고 확장 가능한 모델이다.

2025년 8월 25일 오후 7시 28분
구글 AI가 대화형 의료 AI에서 책임성을 강조하는 Guardrailed-AMIE (g-AMIE)를 소개했습니다

최근 대형 언어 모델 판단력을 갖춘 AI 에이전트의 발전으로, 임상 대화, 진단 및 치료 계획이 가능해졌습니다. 그러나 개별 진단과 치료 권고는 규제가 엄격하며, 중요한 환자와 직면한 결정에 대한 책임은 라이선스를 받은 임상 의사만이 가질 수 있습니다. 전통적인 의료는 종종 계층적 감독을 사용하며, 경험 많은 의사가 임상 의사의 의사결정을 검토합니다.

2025년 8월 25일 오전 3시 44분
데이터베이스란? 현대 데이터베이스 유형, 예시 및 응용 (2025)

데이터 주도 세계에서 데이터베이스는 모바일 앱부터 기업 시스템에 이르기까지 현대 애플리케이션의 중추를 이룬다. 다양한 데이터베이스 유형과 그 응용을 이해하는 것은 특정한 요구 사항에 맞는 적절한 시스템을 선택하는 데 중요하며, 개인 프로젝트를 구축하거나 기업 수준의 솔루션을 설계하는 경우 필수적이다.

2025년 8월 24일 오전 5시 35분
Huawei CloudMatrix: 확장 가능하고 효율적인 LLM 서빙을 위한 P2P AI 데이터센터 아키텍처

LLM은 파라미터 수가 급증하고 MoE 디자인과 대규모 컨텍스트 길이의 널리 사용으로 급속히 발전했습니다. DeepSeek-R1, LLaMA-4, Qwen-3 같은 모델은 이제 수조 개의 파라미터에 이르며 엄청난 컴퓨팅, 메모리 대역폭, 빠른 칩 간 통신이 요구됩니다. MoE는 효율성을 향상시키지만 전문가 라우팅에서 도전을 야기하며 백만 개 이상의 토큰을 갖는 컨텍스트 창은 […]

2025년 8월 22일 오후 6시 48분
AmbiGraph-Eval: 그래프 쿼리 생성 중의 모호성 해결을 위한 벤치마크

자연어를 SQL이나 Cypher와 같은 형식적인 쿼리 언어로 변환하는 의미 파싱은 데이터베이스와 직관적으로 상호작용할 수 있게 합니다. 그러나 자연어는 모호하고 쿼리 언어는 정확성을 요구하기 때문에 모호성은 그래프 데이터베이스에서 어려운 과제입니다.

2025년 8월 22일 오후 6시 42분
Zhipu AI, 컴퓨터 사용 에이전트를 위한 엔드투엔드 강화학습 확장 AI 프레임워크 ComputerRL 공개

Zhipu AI가 ComputerRL을 소개했다. 본 프레임워크는 에이전트에게 복잡한 디지털 작업 환경을 탐색하고 조작할 능력을 부여하는 것을 목표로 한다. 이 혁신은 AI 에이전트 개발에서 핵심적인 도전 과제를 해결하는데, 즉 컴퓨터 에이전트와 인간이 디자인한 GUI 간의 연결 부재를 해소한다.

2025년 8월 22일 오전 4시 14분
2025년 PyTorch 대 TensorFlow: 심층학습 프레임워크 대결

2025년 현재 인공지능 개발에서 PyTorch와 TensorFlow 사이의 선택은 여전히 가장 논란이 되는 문제 중 하나이다. Alfaisal 대학의 종합 조사 논문을 통해 최신 동향을 탐색하며 사용성, 성능, 배포, 생태계 고려 사항을 종합적으로 분석한다.

2025년 8월 20일 오후 7시 34분
McKinsey가 만든 오픈소스 파이썬 툴킷 Vizro MCP를 활용한 대시보드 생성

McKinsey의 오픈소스 파이썬 툴킷 Vizro는 몇 줄의 설정으로 멋진 대시보드를 만드는데 도움을 주며, Plotly, Dash, Pydantic 위에 구축되어 있다.

2025년 8월 18일 오후 6시 21분
배포부터 확장까지: 현대 비즈니스를 위한 11가지 기업용 AI 기본 개념

인공지능 시대에 기업은 전례 없는 기회와 복잡한 도전에 직면하고 있습니다. 최신 도구를 채택하는 것뿐만 아니라 AI가 사람, 프로세스, 플랫폼과 어떻게 통합되는지에 대해 근본적으로 재고하는 것이 성공의 열쇠입니다. 최신 연구를 바탕으로 기업 리더가 이해해야 할 11가지 AI 개념을 소개합니다.

2025년 8월 17일 오전 1시 54분
ReaGAN: 노드에 자율 계획과 전역 의미 검색 기능을 부여하는 그래프 에이전트 네트워크인 AI 논문 소개

Rutgers 대학 연구팀이 소개한 ReaGAN은 각 노드를 독립적인 추론 에이전트로 재구상하는 그래프 에이전트 네트워크로, 그래프 내 모든 노드를 인공지능 에이전트로 만들어 맞춤형 추론, 적응적 검색, 자율적 의사 결정을 가능케 한다.

2025년 8월 16일 오전 12시 06분
Salesforce AI가 Moirai 2.0를 발표: Salesforce의 최신 타임 시리즈 기반 모델은 디코더 전용 트랜스포머 아키텍처로 구축되었습니다

Salesforce AI Research가 Moirai 2.0을 공개했다. 이는 타임 시리즈 기반 모델의 최신 진보로, 디코더 전용 트랜스포머 아키텍처 위에 구축되어 성능과 효율성에서 새로운 기준을 세우며 GIFT-Eval 벤치마크에서 1위를 차지했다.

2025년 8월 15일 오후 4시 27분
Dynamic Fine-Tuning (DFT): 지도된 미세 조정(SFT)의 일반화 간격을 줄이는 방법

지도된 미세 조정(SFT)은 LLMs를 새로운 작업에 적응시키는 표준 기술이지만, 종종 강화 학습(RL)에 비해 일반화에서 성능이 저하됩니다. DFT는 이 간극을 줄이는 새로운 방법을 제안합니다.

2025년 8월 15일 오전 3시 17분
구글 AI가 DeepPolisher를 공개: 염기 수준 오류를 정확하게 교정하여 유전체 조립의 정확도를 향상시키는 새로운 딥러닝 도구

구글 AI가 UC Santa Cruz Genomics Institute와 협력하여 개발한 DeepPolisher는 염기 수준 오류를 정확하게 교정하여 유전체 조립의 정확도를 크게 향상시키는 새로운 딥러닝 도구이다. 최근 인간 판유전체 참조물을 발전시키는 데 효과적으로 활용되었다.

2025년 8월 7일 오후 1시 39분
C3: 복잡한 구두 대화 모델링을 위한 이중 언어 벤치마크 데이터셋 및 평가 프레임워크 소개하는 AI 논문

본문에서는 중국에서 나온 새로운 연구 논문을 소개하며, 구두 대화 모델의 실제 대화 복잡성을 다루는 능력을 평가하는 것이 중요한 도전이라고 설명하고 있다.

2025년 8월 6일 오전 5시 15분
2025년을 위한 실제 세계 AI 에이전트 구축을 위한 7가지 필수 레이어: 포괄적인 프레임워크

실제 세계에서 자율적으로 생각하고 배우고 행동할 수 있는 AI 시스템을 만들기 위해 필요한 7가지 핵심 레이어에 대한 포괄적인 프레임워크 소개.

2025년 8월 4일 오전 3시 14분
Roboflow 감독을 활용한 엔드 투 엔드 객체 추적 및 분석 시스템 구축

Roboflow 감독 라이브러리를 활용하여 객체 감지 파이프라인을 구축하는 고급 튜토리얼. 실시간 객체 추적 설정, 감지 부드럽게 처리, 비디오 스트림에서 특정 지역을 모니터링하기 위해 다각형 영역 정의 등을 다룸. 프레임을 처리하면서 경계 상자, 객체 ID 등을 주석으로 달아줌.

2025년 8월 3일 오전 5시 22분
구글 AI, MLE-STAR 발표: 다양한 AI 작업 자동화 가능한 최첨단 기계 학습 엔지니어링 에이전트

MLE-STAR은 구글 클라우드 연구원들이 개발한 최첨단 에이전트 시스템으로, 복잡한 기계 학습 ML 파이프라인 설계와 최적화를 자동화합니다. MLE-STAR은 웹 규모 검색, 특정 코드 수정, 견고한 검사 모듈을 활용하여 기계 학습 엔지니어링 작업에서 우수한 성능을 발휘합니다.

2025년 8월 2일 오후 11시 20분
Trackio 만나보기: 머신 러닝 워크플로우를 간소화하고 향상시키는 무료 지역 우선 오픈 소스 실험 추적기 파이썬 라이브러리

Trackio는 머신 러닝 워크플로우에서 중요한 실험 추적을 간편하고 통찰력 있게 만들어주는 파이썬 라이브러리다. 다양한 실험 추적 솔루션들과는 달리 복잡한 설정이 필요 없으며 라이선스 비용도 없다. 사용자 데이터를 소유권이 있는 프로토콜에 가둬두지 않는다.

2025년 8월 2일 오전 3시 47분
Apple 연구자들, FastVLM 소개: 비전 언어 모델에서 최신 해상도-지연-정확도 트레이드오프 달성

Apple 연구자들이 FastVLM을 소개했다. 이 모델은 비전 언어 모델에서 최신 해상도-지연-정확도 트레이드오프를 달성하는데 중요한 역할을 한다. 높은 해상도 이미지 처리에 대한 도전과 효율적인 사전 훈련 요구 등 다양한 문제를 다룬다.

2025년 7월 30일 오전 3시 08분
MiroMind-M1: 콘텍스트 인식 다단계 강화 학습을 통한 오픈소스 수학적 추론 발전

MiroMind-M1은 오픈소스 파이프라인으로, 수학 문제 해결을 위한 고급 기능을 평가하는 엄격한 기준으로 자리 잡은 다단계 추론에 높은 성과를 보이고 있습니다. 기존의 프로프리어터리 모델에 비해 투명성과 재현성을 향상시키는 MiroMind-M1 시리즈가 출시되었습니다.

2025년 7월 30일 오전 12시 37분
아마존, 관련 뉴런만 활성화시켜 추론 시간 30% 단축하는 AI 아키텍처 개발

아마존 연구진이 뇌가 특정 작업을 위해 특수 영역을 사용하는 것과 유사하게 작업 관련 뉴런만 선택하여 추론 시간을 30% 단축하는 새로운 AI 아키텍처를 개발했다. 이 혁신적인 방법은 대규모 AI 모델이 직면한 가장 큰 문제 중 하나인 모든 요청마다 모든 뉴런을 활성화하는 데 필요한 계산 비용과 지연 시간을 해결한다.

2025년 7월 29일 오전 12시 03분
Microsoft Edge, AI 시대를 위한 코파일럿 모드 출시

Microsoft가 Edge에서 코파일럿 모드를 출시하면서 AI 네이티브 브라우저로 나아가며 웹 브라우징의 미래를 재정립했다. 브라우저의 새로운 가능성을 열었다.

2025년 7월 28일 오후 4시 26분
NVIDIA AI 개발팀, Llama Nemotron Super v1.5 출시: 추론 및 에이전틱 AI에서 새 기준 설정

NVIDIA의 최신 릴리스인 Llama Nemotron Super v1.5은 추론 및 에이전틱 작업에 특히 뛰어난 성능과 사용성을 제공하여 모델이 어디까지 이끌 수 있는지에 대한 경계를 넘는 AI 발전을 이끌고 있다.

2025년 7월 27일 오전 4시 21분
GenSeg: Generative AI가 초저 데이터 환경에서 의료 이미지 세분화 변형

의료 이미지 세분화는 현대 의료 AI의 핵심이며 질병 감지, 진행 모니터링, 맞춤형 치료 계획 등 필수적인 작업을 가능케 한다. 그러나 특히 피부과, 영상의학, 심장병학과 같은 분야에서 정확한 세분화의 필요성이 절실하다. GenSeg는 초저 데이터 환경에서 의료 이미지 세분화를 혁신하는 연구이다.

2025년 7월 27일 오전 1시 07분
알리바바 Qwen, Qwen3-MT 소개: 강화학습으로 구동되는 차세대 다국어 기계 번역

알리바바가 Qwen API를 통해 Qwen3-MT(큐언 엠티터보)를 소개했다. 이는 언어 장벽을 뛰어넘는 놀랍도록 정확하고 빠르며 유연한 최신 기계 번역 모델로, 92개 이상의 언어를 지원하며 전 세계 인구의 95% 이상을 커버한다. 최신 아키텍처, 강화 학습, 풍부한 맞춤 옵션을 활용하여 뛰어난 성능을 보여준다.

2025년 7월 25일 오전 3시 09분
알리바바의 AI 논문, Lumos-1 소개: MM-RoPE 및 AR-DF를 활용한 통합 자기 회귀 비디오 생성기

자기 회귀 비디오 생성은 영상 합성에 초점을 맞추며 공간 배열과 시간 역학의 학습된 패턴을 사용하여 프레임별로 비디오를 생성하는 것이다. 이 논문은 MM-RoPE 및 AR-DF를 활용한 Lumos-1이라는 통합 자기 회귀 비디오 생성기를 소개한다.

2025년 7월 21일 오후 3시 43분
Allen Institute for AI-Ai2가 AutoDS를 발표: 개방형 과학적 발견을 위한 베이지안 서프라이즈 주도 엔진

Allen Institute for AI가 AutoDS(자율적 발견을 통한 서프라이즈)를 소개했는데, 이는 인간이 정의한 목표나 질의에 의존하지 않고 베이지안 서프라이즈를 측정하고 찾아내는 가치 있는 가정을 자동으로 생성, 테스트 및 반복함.

2025년 7월 21일 오전 3시 38분
구글 검색이 대규모 AI 업그레이드를 받았다: Gemini 2.5 Pro, 딥 서치, 그리고 에이전틱 인텔리전스

구글은 Gemini 2.5 Pro, 딥 서치, 그리고 강력한 새로운 에이전틱 기능을 도입하며 검색과 상호작용하는 방식을 변화시키고, 검색 엔진을 보다 똑똑하고 맥락에 맞게 만들고 있다. 이러한 기능들은 현재 미국 사용자에게만 제한되어 있지만, 구글 검색 방식에 대대적인 변화를 암시한다.

2025년 7월 17일 오후 1시 27분
Apple, 코드 생성용 7B Diffusion LLM인 DiffuCoder 소개

Apple이 코드 생성을 위해 맞춤화된 7B Diffusion LLM인 DiffuCoder를 소개했다. LLMs는 대화부터 코드 생성까지 다양한 작업에서 놀라운 결과를 얻어내며 자연어 처리를 혁신시켰다.

2025년 7월 16일 오후 7시 02분
NVIDIA, 오디오 일반 지능 발전을 위한 오픈소스 모델 ‘Audio Flamingo 3’ 출시

NVIDIA의 Audio Flamingo 3 (AF3)은 기계가 소리를 이해하고 추론하는 방식에 큰 발전을 이끌어냈다. 이전 모델들은 음성을 전사하거나 오디오 클립을 분류할 수는 있었지만, AF3는 음성, 주변 소리 등을 인간과 유사한 맥락에서 해석하는 능력을 갖췄다.

2025년 7월 16일 오전 12시 10분
AI 논문 소개: 다중 호합 질문 응답을 위한 하이브리드 SQL 및 텍스트 검색 프레임워크 TableRAG

다양한 데이터 유형이 혼합된 콘텐츠를 처리하는 더 지능적이고 유용한 AI 시스템 구축이 중요해지고 있다. 이 논문은 텍스트와 구조화된 테이블을 동시에 다루는 질문에 초점을 맞춘 프레임워크 TableRAG를 소개한다.

2025년 7월 15일 오후 4시 53분
Liquid AI가 LFM2를 오픈소스로 공개: 새로운 세대의 엣지 LLMs

Liquid AI가 새로운 엣지 LLMs인 LFM2를 오픈소스로 공개했다. 이 모델은 2배 빠른 추론과 3배 빠른 학습 성능을 제공하며, 컨볼루션과 어텐션 블록을 혼합한 하이브리드 설계를 특징으로 한다. 350M, 700M, 1.2B 파라미터 크기의 세 가지 모델이 제공되며, 유사한 크기의 모델과 비교했을 때 우수한 성능을 보여준다.

2025년 7월 14일 오전 2시 48분
인식부터 행동까지: 타인 AI 시스템에서 세계 모델의 역할

신체화된 AI 에이전트는 물리적 또는 가상 형태로 존재하며 주변 환경과 상호 작용할 수 있는 시스템이다. 이들은 세계를 지각하고 의미 있는 행동을 취한다. 최근의 발전은 신체화가 된 AI 에이전트의 물리적 상호작용, 인간 신뢰, 인간과 유사한 학습을 향상시킨다.

2025년 7월 11일 오후 4시 52분
AI에서의 컨텍스트 엔지니어링이란? 기술, 활용 사례 및 중요성

컨텍스트 엔지니어링은 대형 언어 모델(LLM)에 공급되는 컨텍스트를 설계, 조직화 및 조작하는 학문을 의미하며 모델 가중치나 아키텍처를 미세 조정하는 대신 입력에 초점을 맞춥니다. 이 기술은 프롬프트, 시스템 지침, 검색된 지식, 포맷팅 및 심지어 순서 등을 최적화하여 LLM의 성능을 향상시킵니다.

2025년 7월 6일 오전 3시 25분
Llama 3의 추론력을 포스트 트레이닝만으로 향상시킬 수 있을까? ASTRO는 +16% ~ +20% 벤치마크 향상을 보여줘

Meta AI와 Washington 대학의 연구진이 ASTRO(자동 회귀 검색 가르치는 추론기)를 소개했다. Llama-3.1-70B-Instruct에서 추론을 향상시키기 위한 포스트 트레이닝 프레임워크로, 모델에 컨텍스트 내 검색 수행을 가르치는 것이 특징이다.

2025년 7월 4일 오후 1시 19분
상하이 교통대학 연구원들, 강화 학습-확장 가능한 LLM 개발을 위한 OctoThinker 제안

연구원들이 OctoThinker를 제안하여 강화 학습을 통한 복잡한 추론 작업에 대한 LLM의 발전을 제안했다. CoT 프롬프팅과 대규모 강화 학습을 결합한 LLM은 Deepseek-R1-Zero와 같은 모델이 기본 모델에 직접 RL을 적용함으로써 강한 추론 능력을 보여주었다.

2025년 7월 2일 오후 9시 02분
TabArena: 대규모 재현성과 앙상블을 통한 타블러 기계 학습의 벤치마킹

타블러 기계 학습에서 벤치마킹의 중요성을 이해하고, 정형 데이터에서 패턴을 학습하는 모델을 구축하는 것에 초점을 맞추고 있습니다. 이는 정확성과 해석 가능성이 필수적인 의료 및 금융 분야에서 사용됩니다.

2025년 6월 30일 오후 9시 13분
미시간 대학 연구진이 제안한 G-ACT: LLMs에서 프로그래밍 언어 편향을 조절하는 확장 가능한 기계 학습 프레임워크

미시간 대학 연구진이 G-ACT를 소개했다. 이는 프로그래밍 언어 편향을 조절하기 위한 확장 가능한 기계 학습 프레임워크로, LLMs의 과학적 코드 생성에 활용될 수 있다.

2025년 6월 29일 오후 11시 51분
MLFlow를 활용한 LLM 평가 시작하기

MLflow는 머신러닝 라이프사이클을 관리하기 위한 강력한 오픈소스 플랫폼이다. 최근 MLflow는 대형 언어 모델(Large Language Models, LLMs)의 성능을 평가하기 위한 지원을 도입했다. 본 튜토리얼에서는 MLflow를 사용하여 LLM의 성능을 어떻게 평가하는지 살펴본다.

2025년 6월 27일 오후 6시 01분