2026년 3월 7일 토요일
오늘의 신문
2026년 3월 7일 토요일 오늘의 신문
구글이 안드로이드 개발 작업에서 Large Language Models (LLMs)의 성능을 측정하기 위한 새로운 리더보드 및 평가 프레임워크인 안드로이드 벤치를 공개했다. 데이터셋, 방법론, 테스트 하네스는 GitHub에서 공개되었으며, 일반 코딩 벤치마크가 캡처하지 못하는 안드로이드 개발 작업에 적합하다.
2026년 3월 6일 오후 2시 53분
YuanLab AI가 오픈소스 Mixture-of-Experts (MoE) 대형 언어 모델인 Yuan 3.0 Ultra를 공개했다. 이 모델은 1조 개의 총 파라미터와 68.8조 개의 활성화된 파라미터를 특징으로 하며, 기업 성능을 최적화하고 사전 훈련 효율성을 높이는 것을 목표로 한다.
2026년 3월 5일 오전 12시 55분
구글이 Gemini 3.1 Flash-Lite를 공개했다. 고성능 작업에 최적화된 이 모델은 낮은 지연시간과 토큰 당 비용을 중점으로 고안되었다. 현재 Gemini API 및 Vertex AI를 통해 Public Preview로 이용 가능하다.
2026년 3월 3일 오후 1시 28분
산업용 추천 시스템에서 Large Language Models (LLMs)를 활용한 Generative Retrieval (GR)이 일반적인 임베딩 기반의 검색을 대체하고 있으며, 이에 따라 엄격한 비즈니스 로직을 준수하는 STATIC 프레임워크가 속도 향상을 제공한다.
2026년 3월 1일 오후 4시 47분
Generative AI의 발전은 잠재 확산 모델(LDMs)에 많이 의존하고 있습니다. 잠재 공간으로 데이터를 압축함으로써 모델이 효과적으로 확장될 수 있습니다. 그러나 낮은 정보 밀도는 잠재 변수를 학습하기 쉽게 만들지만 재구성 품질을 희생시키는 기본적인 트레이드오프가 존재합니다.
2026년 2월 27일 오후 10시 58분
Perplexity사가 대규모 검색 작업에 최적화된 다국어 임베딩 모델 pplx-embed을 출시했다. 웹 규모 데이터의 복잡성과 잡음을 처리하기 위한 이 모델은 전용 임베딩 API에 대한 대안으로 제작되었다. 양방향 어텐션과 확산을 활용한 구조적 혁신이 돋보인다.
2026년 2월 26일 오후 11시 01분
Microsoft의 연구진은 CORPGEN을 소개했는데, 이는 계층적 계획과 메모리를 활용하여 자율형 디지털 직원을 통해 현실적인 조직 업무의 복잡성을 관리하는 데 사용되는 아키텍처에 중립적인 프레임워크이다. 기존의 AI 에이전트는 단일 작업에 대해 평가되지만, 실제 기업 환경에서는 복잡한 종속성을 가진 여러 작업을 동시에 처리해야 한다.
2026년 2월 26일 오후 7시 32분
Nous Research 팀이 Hermes Agent를 공개하여 AI의 망각 문제를 해결하기 위해 디자인된 오픈소스 자율 시스템을 출시했습니다. 현재의 AI 환경에서 우리는 '일시적 에이전트'에 익숙해졌는데, 이는 매 채팅 세션마다 인지 클락을 재시작하는 잊어버리기 쉬운 조수입니다. LLMs는 뛌륭한 코더가 되었지만, 진정한 팀원으로 기능하는 데 필요한 지속적인 상태가 부족합니다.
2026년 2월 26일 오전 3시 01분
최근 ETH 취리히 연구에서, AI의 'Context Engineering'이 중요한데 AGENTS.md 파일이 너무 상세해서 코딩 에이전트가 실패하는 것으로 밝혀졌다. 산업 리더들은 AGENTS.md를 코딩 에이전트의 최종 설정 지점으로 손꼽았는데, 이 파일이 복잡한 코드베이스를 안내하는데 있어 중요한 역할을 한다.
2026년 2월 25일 오후 7시 28분
Liquid AI 팀이 발표한 LFM2-24B-A2B는 24억 개의 파라미터를 가진 모델로, 전력 소비 및 메모리 병목 현상의 한계에 부딪히는 산업에서, 파라미터 수보다 아키텍처 효율성에 대한 대화로 전환되고 있다.
2026년 2월 25일 오전 3시 37분
알리바바의 Qwen 3.5 중간 모델 시리즈 출시는 대규모 언어 모델의 발전이 초기에는 성능 향상을 이끌었지만, 이로 인해 상당한 인프라 부담과 한계적인 이득이 도입되었음을 신호한다. 작은 AI 모델이 더 똑똑하다는 점을 강조하며 Qwen 접근 방식의 변화를 시사한다.
2026년 2월 24일 오후 2시 33분
구글 딥마인드 연구팀은 MARL 분야에서 진보를 위해 직관에 의존했던 기존의 방식을 변화시켜, CFR 및 PSRO와 같은 알고리즘을 수동으로 개선하는 대신 의미론적 진화를 적용하여 우수한 알고리즘 수렴을 이룩했다.
2026년 2월 24일 오전 4시 48분
오픈소스 프로젝트인 OpenPlanter는 개인들에게 데이터 추적 권한을 돌려주는 노력으로, 개발자 'Shin Megami Boson'이 만들었으며 재귀 언어 모델 조사 에이전트입니다. 사용자들의 마이크로 감시 요구를 지원하는 것이 목표입니다.
2026년 2월 21일 오후 4시 10분
NVIDIA가 DreamDojo를 발표했다. 이는 44,711시간의 실제 인간 비디오 데이터로 훈련된 오픈소스 로봇 월드 모델로, 기존의 물리 엔진 대신 픽셀에서 직접 로봇 행동의 결과를 '꿈꾼다'.
2026년 2월 20일 오후 3시 30분
NVIDIA가 Dynamo v0.9.0을 출시했다. 이 업데이트는 대규모 모델의 배포와 관리를 간소화하고 GPU가 다중 모달 데이터를 처리하는 방식을 개선했다. 이번 릴리스에서는 NATS와 etcd와 같은 무거운 종속성을 제거하고 있다.
2026년 2월 20일 오전 1시 51분
Zyphra가 EEG 신호에 특화된 380M 파라미터 foundation 모델인 ZUNA를 공개했다. ZUNA는 채널 인필링과 초해상도를 수행하는 마스크된 확산 오토인코더로, Apache-2.0 라이선스 하에 가중치가 포함되어 있다.
2026년 2월 19일 오전 1시 43분

최신뉴스 전체보기

구글 AI, 안드로이드 개발을 위한 LLMs 평가 프레임워크 및 리더보드 ‘안드로이드 벤치’ 공개

구글이 안드로이드 개발 작업에서 Large Language Models (LLMs)의 성능을 측정하기 위한 새로운 리더보드 및 평가 프레임워크인 안드로이드 벤치를 공개했다. 데이터셋, 방법론, 테스트 하네스는 GitHub에서 공개되었으며, 일반 코딩 벤치마크가 캡처하지 못하는 안드로이드 개발 작업에 적합하다.

2026년 3월 6일 오후 2시 53분
YuanLab AI, 강력한 지능과 탁월한 효율성을 위해 만들어진 플래그십 멀티모달 MoE Foundation 모델인 Yuan 3.0 Ultra 공개

YuanLab AI가 오픈소스 Mixture-of-Experts (MoE) 대형 언어 모델인 Yuan 3.0 Ultra를 공개했다. 이 모델은 1조 개의 총 파라미터와 68.8조 개의 활성화된 파라미터를 특징으로 하며, 기업 성능을 최적화하고 사전 훈련 효율성을 높이는 것을 목표로 한다.

2026년 3월 5일 오전 12시 55분
구글, 고성능 AI를 위한 비용 효율적인 Gemini 3.1 Flash-Lite 공개

구글이 Gemini 3.1 Flash-Lite를 공개했다. 고성능 작업에 최적화된 이 모델은 낮은 지연시간과 토큰 당 비용을 중점으로 고안되었다. 현재 Gemini API 및 Vertex AI를 통해 Public Preview로 이용 가능하다.

2026년 3월 3일 오후 1시 28분
구글 AI가 소개한 STATIC: LLM 기반 생성 검색을 위한 948배 빠른 Sparse Matrix 프레임워크

산업용 추천 시스템에서 Large Language Models (LLMs)를 활용한 Generative Retrieval (GR)이 일반적인 임베딩 기반의 검색을 대체하고 있으며, 이에 따라 엄격한 비즈니스 로직을 준수하는 STATIC 프레임워크가 속도 향상을 제공한다.

2026년 3월 1일 오후 4시 47분
구글 딥마인드가 통합 잠재 변수 (UL)를 소개합니다: 확산 사전과 디코더를 사용하여 잠재 변수를 공동으로 규제하는 머신러닝 프레임워크

Generative AI의 발전은 잠재 확산 모델(LDMs)에 많이 의존하고 있습니다. 잠재 공간으로 데이터를 압축함으로써 모델이 효과적으로 확장될 수 있습니다. 그러나 낮은 정보 밀도는 잠재 변수를 학습하기 쉽게 만들지만 재구성 품질을 희생시키는 기본적인 트레이드오프가 존재합니다.

2026년 2월 27일 오후 10시 58분
Perplexity, 새로운 SOTA Qwen3 양방향 임베딩 모델 pplx-embed를 출시

Perplexity사가 대규모 검색 작업에 최적화된 다국어 임베딩 모델 pplx-embed을 출시했다. 웹 규모 데이터의 복잡성과 잡음을 처리하기 위한 이 모델은 전용 임베딩 API에 대한 대안으로 제작되었다. 양방향 어텐션과 확산을 활용한 구조적 혁신이 돋보인다.

2026년 2월 26일 오후 11시 01분
Microsoft Research, 자율형 AI 에이전트를 위한 다중 시계획 작업 관리 도구 CORPGEN 소개

Microsoft의 연구진은 CORPGEN을 소개했는데, 이는 계층적 계획과 메모리를 활용하여 자율형 디지털 직원을 통해 현실적인 조직 업무의 복잡성을 관리하는 데 사용되는 아키텍처에 중립적인 프레임워크이다. 기존의 AI 에이전트는 단일 작업에 대해 평가되지만, 실제 기업 환경에서는 복잡한 종속성을 가진 여러 작업을 동시에 처리해야 한다.

2026년 2월 26일 오후 7시 32분
Nous Research가 ‘Hermes Agent’를 발표하여 멀티레벨 메모리와 전용 원격 터미널 액세스 지원으로 AI 망각문제를 해결합니다

Nous Research 팀이 Hermes Agent를 공개하여 AI의 망각 문제를 해결하기 위해 디자인된 오픈소스 자율 시스템을 출시했습니다. 현재의 AI 환경에서 우리는 ‘일시적 에이전트’에 익숙해졌는데, 이는 매 채팅 세션마다 인지 클락을 재시작하는 잊어버리기 쉬운 조수입니다. LLMs는 뛌륭한 코더가 되었지만, 진정한 팀원으로 기능하는 데 필요한 지속적인 상태가 부족합니다.

2026년 2월 26일 오전 3시 01분
AI 코딩 에이전트가 실패하는 이유: AGENTS.md 파일이 너무 상세하다는 ETH 취리히 연구 증명

최근 ETH 취리히 연구에서, AI의 ‘Context Engineering’이 중요한데 AGENTS.md 파일이 너무 상세해서 코딩 에이전트가 실패하는 것으로 밝혀졌다. 산업 리더들은 AGENTS.md를 코딩 에이전트의 최종 설정 지점으로 손꼽았는데, 이 파일이 복잡한 코드베이스를 안내하는데 있어 중요한 역할을 한다.

2026년 2월 25일 오후 7시 28분
Liquid AI의 새로운 LFM2-24B-A2B 하이브리드 아키텍처는 최신 LLM의 확장 병목 현상을 해결하기 위해 주의와 합성을 결합함

Liquid AI 팀이 발표한 LFM2-24B-A2B는 24억 개의 파라미터를 가진 모델로, 전력 소비 및 메모리 병목 현상의 한계에 부딪히는 산업에서, 파라미터 수보다 아키텍처 효율성에 대한 대화로 전환되고 있다.

2026년 2월 25일 오전 3시 37분
알리바바 Qwen 팀, Qwen 3.5 중간 모델 시리즈 출시: 더 작은 AI 모델이 더 똑똑함을 증명하는 생산 성능 중심

알리바바의 Qwen 3.5 중간 모델 시리즈 출시는 대규모 언어 모델의 발전이 초기에는 성능 향상을 이끌었지만, 이로 인해 상당한 인프라 부담과 한계적인 이득이 도입되었음을 신호한다. 작은 AI 모델이 더 똑똑하다는 점을 강조하며 Qwen 접근 방식의 변화를 시사한다.

2026년 2월 24일 오후 2시 33분
구글 딥마인드 연구원들, 우수한 알고리즘 수렴을 위해 비직관적인 VAD-CFR 및 SHOR-PSRO 변형 생성에 의미론적 진화 적용

구글 딥마인드 연구팀은 MARL 분야에서 진보를 위해 직관에 의존했던 기존의 방식을 변화시켜, CFR 및 PSRO와 같은 알고리즘을 수동으로 개선하는 대신 의미론적 진화를 적용하여 우수한 알고리즘 수렴을 이룩했다.

2026년 2월 24일 오전 4시 48분
팔란티어의 커뮤니티 에디션이 있을까요? 오픈플랜터를 만나보세요: 마이크로 감시용 오픈소스 재귀 인공지능 에이전트

오픈소스 프로젝트인 OpenPlanter는 개인들에게 데이터 추적 권한을 돌려주는 노력으로, 개발자 ‘Shin Megami Boson’이 만들었으며 재귀 언어 모델 조사 에이전트입니다. 사용자들의 마이크로 감시 요구를 지원하는 것이 목표입니다.

2026년 2월 21일 오후 4시 10분
NVIDIA, 44,711시간의 실제 인간 비디오 데이터로 훈련된 오픈소스 로봇 월드 모델 DreamDojo 공개

NVIDIA가 DreamDojo를 발표했다. 이는 44,711시간의 실제 인간 비디오 데이터로 훈련된 오픈소스 로봇 월드 모델로, 기존의 물리 엔진 대신 픽셀에서 직접 로봇 행동의 결과를 ‘꿈꾼다’.

2026년 2월 20일 오후 3시 30분
NVIDIA, Dynamo v0.9.0 출시: FlashIndexer, 다중 모달 지원 및 NATS 및 ETCD 제거를 특징으로 하는 대규모 인프라 개편

NVIDIA가 Dynamo v0.9.0을 출시했다. 이 업데이트는 대규모 모델의 배포와 관리를 간소화하고 GPU가 다중 모달 데이터를 처리하는 방식을 개선했다. 이번 릴리스에서는 NATS와 etcd와 같은 무거운 종속성을 제거하고 있다.

2026년 2월 20일 오전 1시 51분
Zyphra가 EEG 데이터용 380M 파라미터 BCI Foundation 모델인 ZUNA 발표, 비침습적 사고를 텍스트로 발전시킴

Zyphra가 EEG 신호에 특화된 380M 파라미터 foundation 모델인 ZUNA를 공개했다. ZUNA는 채널 인필링과 초해상도를 수행하는 마스크된 확산 오토인코더로, Apache-2.0 라이선스 하에 가중치가 포함되어 있다.

2026년 2월 19일 오전 1시 43분
Tavus가 Phoenix-4를 출시: 실시간 감성 지능과 생성 비디오 AI에 서브-600ms 지연 시간을 제공하는 가우시안 확산 모델

Tavus는 Phoenix-4를 출시하여 인공적인 비디오의 최종 영역인 ‘거친 계곡’을 개선하려고 합니다. Phoenix-4는 인간 상호 작용의 영혼을 부족한 AI 아바타를 보완하기 위해 설계된 새로운 생성 AI 모델입니다.

2026년 2월 18일 오후 6시 12분
구글, AI 안경을 위한 새로운 Spatial UI 프레임워크 ‘Jetpack Compose Glimmer’ 발표

구글이 투명 디스플레이를 위한 인터페이스 구축을 탐구한 결과물인 ‘Jetpack Compose Glimmer’를 소개했다. 이는 픽셀이 아닌 빛을 활용한 디자인 시스템으로, AI 안경을 위해 특별히 개발되었다.

2026년 2월 18일 오전 4시 02분
구글 딥마인드, 미래 경제를 위한 신흥 에이전틱 웹을 안전하게 하는 지능적 AI 위임을 위한 새로운 프레임워크 제안

구글 딥마인드 연구원들은 현재 대부분의 다중 에이전트 시스템이 환경이 변할 때 실패하는 취약한 하드 코딩 휴리스틱에 의존하고 있음을 지적하며, ‘에이전틱 웹’이 확장되려면 에이전트가 단순히 넘어선 더 복잡한 작업을 수행해야 한다고 주장하고 새로운 해결책을 제안했다.

2026년 2월 16일 오전 2시 04분
장기 AI 추론을 위한 자기 조직화 에이전트 메모리 시스템 구축 방법

이 튜토리얼에서는, 에이전트를 위한 자기 조직화 메모리 시스템을 구축하는 방법에 대해 알아본다. 이 시스템은 대화 내용을 단순히 저장하는 것을 넘어 상호작용을 지속적이고 의미 있는 지식 단위로 구조화한다. 추론과 메모리 관리가 명확히 분리되어 있어 정보를 추출, 압축, 정리하는 전용 구성 요소를 허용한다.

2026년 2월 14일 오후 3시 00분
구글 AI가 젠파이(Gemini) 기반으로 구축된 NAI(Natively Adaptive Interfaces)를 소개합니다

구글 리서치가 Natively Adaptive Interfaces (NAI)를 통해 접근성 있는 소프트웨어 구축 방법을 제안했습니다. NAI는 다중 모달 AI 에이전트가 주 사용자 인터페이스가 되어 응용 프로그램을 실시간으로 사용자의 능력과 문맥에 맞게 적응시키는 에이전틱 프레임워크입니다.

2026년 2월 10일 오후 7시 03분
알리바바, Zvec 오픈소스화: SQLite와 유사한 간편함과 고성능을 제공하는 임베디드 벡터 데이터베이스

알리바바의 Tongyi Lab 연구팀이 ‘Zvec’을 발표했다. 이는 엣지 및 장치 내 검색 워크로드를 대상으로 하는 오픈소스 인프로세스 벡터 데이터베이스로, SQLite와 유사한 라이브러리로 작동하여 외부 서비스나 데몬이 필요하지 않다. 검색 증강 생성(RAG)을 위해 설계되었다.

2026년 2월 10일 오전 10시 25분
NVIDIA AI, 분류, 밀집 예측, 세분화 작업에 대한 C-RADIOv4 비전 백본 출시

NVIDIA의 C-RADIOv4는 SigLIP2, DINOv3, SAM3을 하나의 비전 백본으로 통합하여 밀집 또는 세분화 성능을 희생하지 않고 결합하는 방법에 대해 소개합니다. 이 모델은 세 강력한 선생님 모델을 학생 인코더로 결합하여 AM-RADIO 및 RADIOv2.5 라인을 확장하며 계산 비용을 유지하면서 성능을 향상시킵니다.

2026년 2월 6일 오후 7시 31분
Waymo, Waymo World 모델 소개: 자율 주행을 위한 새로운 시뮬레이터 모델, Genie 3 기반

Waymo가 Waymo World 모델을 소개했다. 이는 Genie 3 기반으로 구축된 자율 주행 시뮬레이션을 위한 새로운 생성 모델로, 사실적이고 제어 가능한 다중 센서 주행 장면을 대규모로 제공한다. Waymo는 이미 거의 2억 마일의 완전 자율 주행을 보고하고 있다.

2026년 2월 6일 오후 2시 01분
NVIDIA AI가 발표한 VibeTensor: 코딩 에이전트에 의해 끝에서 끝까지 프로그래밍적으로 구축된 AI 생성 딥러닝 런타임

NVIDIA가 VibeTensor를 공개했는데, 이는 딥러닝을 위한 오픈소스 연구 시스템 소프트웨어 스택이다. VibeTensor는 LLM 기반 코딩 에이전트에 의해 고수준의 인간 안내 아래 생성되었다. 이 시스템은 코딩 에이전트가 Python과 JavaScript API에서 C++ 런타임 구성 요소 및 CUDA 메모리 관리까지 포괄하는 일관된 딥러닝 런타임을 생성할 수 있는지에 대한 구체적인 질문을 제기한다.

2026년 2월 4일 오후 11시 10분
Qwen 팀, 코딩 에이전트 및 로컬 개발을 위해 특별히 설계된 오픈 웨이트 언어 모델인 Qwen3-Coder-Next를 출시

Qwen 팀이 코딩 에이전트와 로컬 개발을 위해 디자인된 오픈 웨이트 언어 모델인 Qwen3-Coder-Next를 출시했다. 모델은 80B의 총 파라미터를 가지고 있지만 각 토큰 당 활성화되는 파라미터는 3B뿐이다.

2026년 2월 3일 오후 3시 47분
Robbyant, LingBot World를 오픈 소스로 공개: 대화형 시뮬레이션과 실제 AI를 위한 실시간 세계 모델

Robbyant은 LingBot-World를 공개했는데, 이는 영상 생성을 상호작용 시뮬레이터로 변환하는 대규모 세계 모델로, 총체 AI, 자율 주행, 게임 등을 위한 환경을 렌더링하며 시각적으로 뛰어나고 반응성이 뛰어난 특징을 갖추고 있다.

2026년 1월 30일 오후 8시 53분
AI2, 감독 학습만 사용한 실용적 리포지토리 수준 자동화 워크플로우용 SERA 출시

AI2가 SERA(Soft Verified Efficient Repository Agents)를 소개했다. SERA는 감독 학습과 합성 경로만 사용하여 훨씬 큰 폐쇄 시스템과 맞추기 위해 개발된 코딩 에이전트 패밀리다. SERA는 AI2의 오픈 코딩 에이전트 시리즈의 첫 번째 릴리스이며, 주요 모델인 SERA-32B는…

2026년 1월 30일 오후 5시 53분
DeepSeek AI, 인쇄물 이해를 위한 레이아웃 인식 OCR을 발표

DeepSeek AI가 DeepSeek-OCR 2를 공개했습니다. 이는 레이아웃을 고려한 문서 이해 시스템으로, 인간이 복잡한 문서를 스캔하는 방식과 유사하게 페이지를 읽을 수 있도록 구조화합니다. 핵심 구성 요소는 DeepEncoder V2로, 2D 페이지를 1D 시퀀스로 변환하는 언어 모델 스타일의 트랜스포머입니다.

2026년 1월 30일 오전 3시 21분
안트 그룹이 LingBot-VLA를 발표, 현실 세계 로봇 조작을 위한 비전 언어 액션 기반 모델

안트 그룹의 LingBot-VLA는 현실 세계에서 실제 로봇 조작을 대상으로 하는 비전 언어 액션 기반 모델이다. 9개의 듀얼 암 로봇을 제어할 수 있는 단일 비전 언어 액션 모델을 구축하는 방법에 대한 연구 결과이며, 약 20,000 시간의 텔레오퍼레이션 양쪽 손 데이터로 학습되었다.

2026년 1월 29일 오후 7시 02분
구글 딥마인드가 알파지놈 공개: 퓨전 트랜스포머와 U-Net을 활용한 통합 시퀀스-펑션 모델을 통해 인간 게놈 해독

구글 딥마인드가 알파지놈을 소개했다. 이는 시퀀스에서 기능으로의 모델링을 위해 디자인된 통합 딥러닝 모델로, 인간 게놈 모델링 방식의 중대한 변화를 나타낸다.

2026년 1월 29일 오전 2시 46분
MBZUAI, K2 Think V2 발표: 수학, 코드, 과학을 위한 완전한 주권을 갖춘 70B 추론 모델

MBZUAI 연구진이 K2 Think V2를 발표했다. 이는 완전한 주권을 갖춘 추론 모델로, 투명한 훈련 파이프라인을 통해 최신 시스템과 경쟁하는 것을 목표로 한다.

2026년 1월 28일 오후 4시 17분
텐센트 훈원, 고성능 LLM 추론 오퍼레이터 라이브러리 HPC-Ops 공개

텐센트 훈원이 HPC-Ops를 공개했다. 이는 대규모 언어 모델 추론 아키텍처 장치를 위한 제작용 오퍼레이터 라이브러리로, Attention, Grouped GEMM, Fused MoE와 같은 핵심 오퍼레이터를 위한 낮은 수준의 CUDA 커널에 초점을 맞추고 있다. HPC-Ops는 기존 추론 스택에 통합할 수 있도록 간결한 C 및 Python API를 통해 이러한 오퍼레이터를 노출시킨다.

2026년 1월 28일 오전 1시 23분
DSGym는 데이터 과학 에이전트를 구축하고 평가하기 위한 재사용 가능한 컨테이너 기반 기본체를 제공합니다

DSGym은 스탠퍼드 대학, Together AI, 더크 대학, 하버드 대학의 연구진들이 소개한 프레임워크로, 1,000개 이상의 데이터 과학 과제를 전문가가 선별한 정답과 함께 평가하고 훈련합니다.

2026년 1월 27일 오후 2시 52분
Clawdbot는 무엇인가? 로컬 퍼스트 에이전트 스택이 대화를 실제 자동화로 바꾸는 방법

Clawdbot은 오픈 소스 개인용 AI 어시스턴트로, 대규모 언어 모델을 Anthropic 및 OpenAI와 연결하여 메시징 앱, 파일, 쉘, 브라우저, 스마트 홈 기기와 연동하면서 조정 계층을 사용자가 제어합니다.

2026년 1월 26일 오전 12시 05분
StepFun AI가 소개한 Step-DeepResearch: 원자적 능력을 중심으로 구축된 비용 효율적인 심층 연구 에이전트 모델

StepFun은 웹 검색을 실제 연구 워크플로우로 변환하는데 목표를 둔 32B 파라미터 엔드 투 엔드 심층 연구 에이전트 Step-DeepResearch를 소개했다. 모델은 Qwen2.5 32B-Base 위에 구축되었으며 장기적인 추론, 도구 사용 및 구조화된 보고를 통한 웹 검색을 연구로 전환한다.

2026년 1월 25일 오후 4시 08분
Qwen 연구진, Qwen3-TTS 공개: 실시간 지연 및 세밀한 음성 제어를 갖춘 오픈 멀티링구얼 TTS 스위트

알리바바 클라우드의 Qwen 팀이 Qwen3-TTS를 오픈소스로 공개했습니다. 이는 음성 클론, 음성 디자인, 고품질 음성 생성이라는 세 가지 핵심 작업을 대상으로 하는 멀티링구얼 텍스트 음성 모델 패밀리입니다. Qwen3-TTS는 12Hz 음성 토크나이저와 2개의 언어 모델 크기(0.6B, 1.7B)를 사용하며, 실시간 세밀한 음성 제어 기능을 제공합니다.

2026년 1월 23일 오전 1시 26분
FlashLabs 연구원들, Chroma 1.0 공개: 개인화 음성 클로닝을 지원하는 4B 실시간 음성 대화 모델

Chroma 1.0은 스피커 식별을 유지하면서 오디오를 입력으로 받아들이고 출력으로 반환하는 실시간 음성-음성 대화 모델이다. 낮은 대기 시간 상호작용과 높은 품질의 개인화된 음성 클로닝을 결합한 최초의 오픈 소스 음성 대화 시스템으로 소개된다.

2026년 1월 22일 오전 11시 22분
Salesforce AI, 미래 광학 흐름 예측 프레임워크 FOFPred 소개

Salesforce AI 연구팀이 FOFPred를 소개했다. FOFPred는 대형 비전 언어 모델과 확산 트랜스포머를 연결하여 제어 및 비디오 생성 환경에서 밀도 높은 움직임 예측을 위한 언어 주도형 광학 흐름 예측 프레임워크이다.

2026년 1월 21일 오후 5시 55분
AutoGluon이 앙상블링과 증류를 통해 제작용 타블러 모델에 현대 AutoML 파이프라인을 가능하게 하는 방법

AutoGluon을 사용하여 현대적인 AutoML 파이프라인을 구축하고 고급 타블러 머신러닝 모델을 생성하는 튜토리얼. 다양한 유형의 데이터셋을 활용하여 앙상블 모델을 훈련하고 성능을 평가하며 실시간 추론을 위해 모델을 최적화하는 방법을 소개.

2026년 1월 21일 오후 5시 07분
Liquid AI, 1.2B 파라미터 추론 모델 ‘LFM2.5-1.2B-Thinking’ 출시: 기기 내 1GB 미만 용량

Liquid AI가 1.2B 파라미터 추론 모델 ‘LFM2.5-1.2B-Thinking’을 출시했다. 최신 폰에서 약 900MB 용량으로 완전히 기기 내에서 실행되며, 구조화된 추론 트레이스, 도구 사용, 수학에 중점을 둔다.

2026년 1월 21일 오후 12시 43분
Zhipu AI, 효율적인 로컬 코딩 및 에이전트용 30B-A3B MoE 모델인 GLM-4.7-Flash 발표

Zhipu AI가 GLM-4.7-Flash를 발표했다. 이 모델은 로컬에서 실행하기에 실용적이며 강력한 코딩 및 추론 성능을 원하는 개발자들을 대상으로 한다. 30B-A3B MoE 모델로, 30B 클래스에서 가장 강력한 모델로 경량 배포를 위해 설계되었다.

2026년 1월 21일 오전 4시 54분
Microsoft Research, OptiMind 출시: 자연어를 솔버용 최적화 모델로 변환하는 20B 파라미터 모델

Microsoft Research가 OptiMind를 출시했다. 이는 자연어로 된 복잡한 의사결정 문제를 최적화 솔버가 실행할 수 있는 수학적 공식으로 변환하는 AI 기반 시스템이다. 이는 전문가 모델러와 수일간의 작업이 필요했던 오퍼레이션 리서치의 병목 현상을 해결한다.

2026년 1월 20일 오후 1시 06분
Vercel, 10년간의 React와 Next.js 최적화 규칙을 갖춘 AI 코딩 에이전트를 위한 패키지 매니저 ‘Agent Skills’ 출시

Vercel이 AI 코딩 에이전트를 위한 패키지 매니저 ‘Agent Skills’를 출시했다. React와 Next.js 성능, 웹 디자인 검토, Vercel에서 배포 가능한 기능을 중점으로 하며, npm과 유사한 명령어로 스킬을 설치할 수 있다.

2026년 1월 19일 오전 12시 43분
NVIDIA, 자연스럽고 풀 더플렉스 대화를 위한 PersonaPlex-7B-v1 발표

NVIDIA의 연구진이 PersonaPlex-7B-v1을 발표했는데, 이는 자연스러운 음성 상호작용을 위한 풀 더플렉스 대화 모델로, 정확한 페르소나 제어를 목표로 한다. ASR→LLM→TTS에서 단일 풀 더플렉스 모델로 진화했다. 기존 음성 어시스턴트는 ASR이 음성을 텍스트로 변환하고, 언어 모델이 텍스트 답변을 생성한 후, 텍스트를 음성으로 변환한다.

2026년 1월 18일 오후 3시 48분
NVIDIA AI가 공개한 KVzap: 최신 기술을 사용한 KV 캐시 가지치기 방법, 손실 거의 없는 2배-4배 압축 제공

NVIDIA가 개발한 KVzap은 트랜스포머 디코더의 캐시 문제를 해결하는 방법으로, 거의 손실이 없는 2배-4배의 데이터 압축을 제공한다.

2026년 1월 16일 오전 6시 12분
DeepSeek AI 연구진, Engram 소개: 희소 LLMs를 위한 조건부 메모리 축

Transformers는 주의와 전문가 혼합을 사용하여 연산을 확장하지만, 지식 조회를 수행할 수 있는 기본 방법이 부족하다. DeepSeek의 새로운 Engram 모듈은 MoE와 함께 작동하는 조건부 메모리 축을 추가하여 이 간극을 정확히 겨냥한다.

2026년 1월 15일 오후 4시 54분
구글 AI가 개발자들을 위한 오픈 메디컬 AI 모델인 MedGemma-1.5를 최신 업데이트

구글 AI 연구팀이 MedGemma-1.5를 발표했다. 이 모델은 의료 영상, 텍스트 및 음성 시스템을 구축하고 지역 워크플로와 규정에 적응하려는 개발자들을 위한 오픈 출발점으로 제공된다.

2026년 1월 14일 오후 4시 30분
Anthropic, 클로드의 일상 업무용 로컬 파일 시스템 에이전트로 Cowork 출시

Anthropic사가 클로드 macOS 데스크톱 앱 내에서 연구 미리보기로 이용 가능한 Cowork를 출시했다. Cowork는 코딩이 필요 없는 작업을 위해 로컬 파일에서 에이전트 워크플로를 실행하는 기능이다. Cowork는 클로드 데스크톱 앱의 전용 모드로 작동하며 파일 시스템 수준에서 실행된다.

2026년 1월 14일 오전 12시 24분
LLM 시대의 AI 관측성 층 이해하기

AI 관측성은 AI 시스템을 이해하고 모니터링하며 고유한 메트릭을 추적하여평가하는 능력을 의미합니다. 대형 언어 모델(LLMs) 및 다른 생성형 AI 응용 프로그램은 확률적이므로 고정된 투명한 실행 경로를 따르지 않습니다.

2026년 1월 13일 오후 11시 37분
스탠포드 연구진, 130가지 이상 질병 예측을 위한 다중 모달 수면 기반 AI 모델인 SleepFM Clinical 개발

스탠포드 의학 연구진이 SleepFM Clinical을 소개했는데, 이는 임상 다중 모달 수면 기반 모델로, 임상 다중모달 다뇨종합검사로부터 학습하고 단 하룻밤의 수면으로 장기 질병 위험을 예측한다.

2026년 1월 9일 오전 12시 22분
TII 아부다비가 Falcon H1R-7B를 출시: 7B 파라미터로 256k 컨텍스트 창을 갖춘 다른 모델들을 능가하는 새로운 추론 모델

TII 아부다비가 Falcon-H1R-7B를 발표했습니다. 이 모델은 7B 파라미터로 수학, 코딩 및 일반 벤치마크에서 많은 14B에서 47B 모델을 능가하면서도 효율적이고 효율적입니다.

2026년 1월 7일 오후 9시 12분
Liquid AI, 실제 장치 에이전트용 컴팩트 AI 모델 패밀리 LFM2.5 출시

Liquid AI가 LFM2.5를 소개했는데, LFM2 아키텍처를 기반으로 한 작은 foundation 모델 세대로, 장치 및 엣지 배포에 초점을 맞추고 있다. LFM2.5-1.2B-Base와 LFM2.5-1.2B-Instruct를 포함하며 일본어, 시각 언어, 음성 언어 변형도 제공한다. Hugging Face에서 오픈 웨이트로 출시되었다.

2026년 1월 7일 오전 1시 41분
MIT의 청사진에서 Prime Intellect의 RLMEnv로: 장기간 LLM 에이전트를 위한 Recursive Language Models (RLMs)

Recursive Language Models는 대규모 언어 모델에서 일반적으로 발생하는 문맥 길이, 정확도 및 비용 사이의 상충 관계를 깨려고 한다. RLM은 모델이 하나의 거대한 프롬프트를 한 번에 읽도록 강요하는 대신, 프롬프트를 외부 환경으로 취급하고 모델이 코드로 어떻게 조사할지 결정한 다음 재귀적으로 호출한다.

2026년 1월 3일 오전 5시 54분
LLMRouter 만나보기: 각 쿼리에 가장 적합한 모델을 동적으로 선택하여 LLM 추론 최적화하는 지능형 라우팅 시스템

LLMRouter는 일리노이스 대학교 어바나 샴페인 캠퍼스의 U Lab에서 개발된 오픈 소스 라우팅 라이브러리로, 각 쿼리에 대해 작업 복잡성, 품질 목표 및 비용을 기반으로 모델을 선택하여 모델 선택을 시스템 문제로 취급합니다.

2025년 12월 30일 오후 5시 52분
Gemma 3 270M에서 FunctionGemma까지, Google AI가 엣지 워크로드를 위한 소형 함수 호출 전문가를 어떻게 만들었는가

구글이 FunctionGemma를 출시했다. Gemma 3 270M 모델을 기반으로 훈련된 이 모델은 함수 호출을 위해 특별히 설계되었고 자연어를 실행 가능한 API 액션으로 매핑하는 엣지 에이전트로 작동한다.

2025년 12월 27일 오전 4시 26분
셀프 조직화 지텔카스텐 지식 그래프 및 수면 합병 메커니즘 구축에 대한 코딩 구현

이 튜토리얼에서는 Agentic AI의 최첨단 기술을 활용하여 인간 뇌처럼 정보를 조직하는 “Zettelkasten” 메모리 시스템을 구축한다. 표준 검색 방법을 넘어 에이전트가 입력을 원자적 사실로 자율적으로 분해하고 의미론적으로 연결하는 동적 지식 그래프를 구축한다.

2025년 12월 26일 오후 2시 33분
구글 헬스 AI가 MedASR을 공개: 임상 사전작성을 위한 콘포머 기반 의료 음성 대본 모델

구글 헬스 AI 팀이 MedASR을 공개했다. MedASR은 임상 사전작성과 의사-환자 대화를 대상으로 한 오픈 가중치 의료 음성 대본 모델로, 현대 AI 워크플로에 직접 통합될 수 있도록 설계되었다. MedASR은 Conformer 아키텍처를 기반으로 한 음성 대본 모델이다.

2025년 12월 24일 오후 1시 10분
구글 딥마인드 연구원들, Gemma 3 모델을 위한 풀 스택 해석성 스위트 Gemma Scope 2 공개

구글 딥마인드 연구원들이 Gemma Scope 2를 소개했다. 이는 Gemma 3 언어 모델이 270M에서 27B 파라미터에 이르는 모든 레이어에서 정보를 처리하고 표현하는 방법을 노출하는 해석성 도구 모음이다. 주요 목표는 AI 안전 및 정렬 팀들이 모델 동작을 내부 기능으로 역추적할 수 있는 실용적인 방법을 제공하는 것이다.

2025년 12월 23일 오후 1시 39분
NVIDIA AI가 Nemotron 3를 발표: 긴 문맥을 위한 하이브리드 Mamba Transformer MoE 스택

NVIDIA가 Nemotron 3 패밀리를 발표했는데, 이는 agentic AI를 위한 완전한 스택으로, 모델 가중치, 데이터셋 및 강화 학습 도구를 포함한다. 이 패밀리는 Nano, Super, Ultra 세 가지 크기로 나뉘어 있으며, 긴 문맥 추론과 추론 비용에 엄격한 제어가 필요한 다중 에이전트 시스템을 대상으로 한다.

2025년 12월 21일 오전 5시 34분
Kombu를 사용하여 고성능 분산 작업 라우팅 시스템 구축하는 방법

이 튜토리얼에서는 Kombu를 사용하여 이벤트 중심의 워크플로우를 구축하는 방법에 대해 설명합니다. 메시징을 핵심 아키텍처 기능으로 취급하여 교환, 라우팅 키, 백그라운드 워커, 동시 생산자의 설정을 단계별로 안내하며 실제 분산 시스템을 관찰할 수 있습니다.

2025년 12월 20일 오전 3시 32분
구글, SigLIP 및 128K 컨텍스트를 통해 다중모달 입력을 사용하는 T5Gemma 2: 인코더 디코더 모델 소개

구글이 T5Gemma 2를 발표했다. Gemma 3 사전 훈련 가중치를 인코더-디코더 레이아웃으로 적응시킨 후, UL2 목적으로 사전 훈련을 계속했다. 개발자들을 위해 사전 훈련된 상태로 제공되며 특정 작업을 위해 추가 훈련할 수 있도록 의도되었다.

2025년 12월 19일 오후 10시 12분
CopilotKit v1.50가 새로운 useAgent Hook을 통해 AG-UI 에이전트를 직접 앱으로 가져옵니다

CopilotKit은 AI 동료 및 앱 내 에이전트를 직접 구축하기 위한 오픈 소스 프레임워크입니다. 팀들은 에이전트 그래프를 강력한 사용자 인터페이스로 변환하기 위해 여전히 사용자 정의 코드를 작성해야 했는데, CopilotKit은 이를 해결합니다.

2025년 12월 12일 오전 4시 07분
머신 러닝의 양극화: Marktechpost의 최신 ML 글로벌 영향 보고서, ML 도구 원산지와 연구 채택 사이의 지리적 불균형 밝혀

Marktechpost의 ML 글로벌 영향 보고서에 따르면, ML 도구의 원산지와 연구 채택 사이에 지리적 불균형이 있음을 밝혀냄. 125개국에서 발표된 5,000여편의 논문을 분석한 결과, 특정 연구 영역에서의 불균형을 보여줌.

2025년 12월 12일 오전 2시 56분
Mistral AI, Devstral 2 코딩 모델 및 Mistral Vibe CLI 출시

Mistral AI가 소프트웨어 엔지니어링 에이전트를 위한 다음 세대 코딩 모델인 Devstral 2 및 터미널 또는 Agent Communication Protocol을 지원하는 IDE 내에서 실행되는 오픈 소스 명령줄 코딩 도우미인 Mistral Vibe CLI를 소개했습니다.

2025년 12월 10일 오후 2시 19분
Apple 연구자들, 16배 – 128배 시멘틱 문서 압축을 위한 Continuous Latent Reasoning 프레임워크 CLaRa 발표

Apple과 에든버러 대학의 연구팀이 CLaRa를 발표했다. CLaRa는 연속 잠재 추론을 사용하여 시멘틱 문서를 압축하는 기능을 제공한다.

2025년 12월 6일 오전 5시 20분
NVIDIA와 Mistral AI, GB200 NVL72 GPU 시스템에서 Mistral 3 패밀리를 위한 10배 빠른 추론 속도 제공

NVIDIA와 Mistral AI의 전략적 협력 확대로 Mistral 3 패밀리의 새로운 모델 출시와 함께 추론 속도가 10배 향상되었다. 이는 하드웨어 가속화와 오픈 소스 모델 아키텍처가 만나 성능 기준을 재정의한 중대한 순간이다.

2025년 12월 3일 오전 11시 26분
구글 딥마인드 연구진, LLM 에이전트의 경험 재사용을 위한 Evo-Memory 벤치마크 및 ReMem 프레임워크 소개

대형 언어 모델 에이전트들은 모든 것을 저장하기 시작했지만, 테스트 시 경험을 통해 정책을 개선할 수 있을까? 일리노이 대학과 구글 딥마인드의 연구진은 Evo-Memory를 제안하며 이 문제에 대처한다. Evo-Memory는 경험 재사용을 위한 스트리밍 벤치마크 및 에이전트 프레임워크를 평가한다.

2025년 12월 3일 오전 7시 01분
DeepSeek 연구자들, 장문맥 추론과 에이전트 워크로드를 위한 DeepSeek-V3.2 및 DeepSeek-V3.2-Speciale 소개

DeepSeek 연구팀이 DeepSeek-V3.2 및 DeepSeek-V3.2-Speciale을 소개했다. 이 모델들은 에이전트를 위한 고품질 추론, 장문맥, 에이전트 워크플로우를 지향하며 열린 가중치와 제품 API를 갖췄다.

2025년 12월 2일 오전 9시 53분
MiniMax-M2: 상호 작용적 사고에 대한 에이전틱 코딩 워크플로에 대한 기술적 탐구

MiniMax-M2는 AI 코딩 환경을 혁신하며, 고성능이 높은 비용이나 레이턴시로 이어지는 문제를 해결한다. 이 기사는 MiniMax-M2에 대한 기술적 개요를 제공한다.

2025년 12월 2일 오전 2시 23분
DeepSeek AI, DeepSeekMath-V2 발표: 2024년 Putnam 대회에서 118/120점 획득한 오픈 웨이트 수학 모델

DeepSeek AI가 공개 가중치 대규모 언어 모델인 DeepSeekMath-V2를 발표했다. 이 모델은 자연어 정리를 최적화하고 자가 검증을 통해 자신의 추론이 올바른지 확인하면서 복잡한 올림피아드 수학 문제를 해결할 수 있다.

2025년 11월 28일 오후 6시 35분
OceanBase, Seekdb 릴리스: 멀티모델 RAG와 AI 에이전트를 위한 오픈소스 AI 네이티브 하이브리드 검색 데이터베이스

OceanBase가 AI를 위해 고안된 오픈소스 데이터베이스인 seekdb를 출시했다. seekdb는 다양한 데이터 모델과 AI 에이전트를 위한 하이브리드 검색 기능을 제공하며, Apache 2.0 라이센스로 제공된다.

2025년 11월 27일 오후 4시 44분
텐센트 훈유안, HunyuanOCR 공개: 1B 파라미터 엔드 투 엔드 OCR 전문가 VLM

텐센트 훈유안이 OCR 및 문서 이해를 위해 특화된 1B 파라미터 비전 언어 모델인 HunyuanOCR을 공개했다. 이 모델은 멀티모달 아키텍처를 기반으로 하며, 스포팅, 파싱, 정보 추출, 시각적 질문 응답 및 텍스트 이미지 번역을 단일 엔드 투 엔드 파이프라인을 통해 실행한다.

2025년 11월 27일 오전 4시 07분
Allen Institute for AI (AI2)가 Dolma 3 및 Dolci 스택에서 구축된 오픈 소스 7B 및 32B LLM 패밀리인 Olmo 3를 소개합니다

Allen Institute for AI (AI2)가 오픈 소스로 출시한 Olmo 3는 전체 ‘모델 플로우’를 노출하는데, 원시 데이터 및 코드부터 중간 체크포인트 및 배포 준비 모델까지 포함하고 있습니다. Olmo 3은 7B 및 32B 파라미터 모델을 갖춘 밀도 변환기 스위트입니다.

2025년 11월 21일 오후 12시 07분
Meta AI, 이미지와 비디오에서 프롬프트 가능한 개념 세분화를 위한 Segment Anything Model 3 (SAM 3) 발표

Meta AI 팀이 Meta Segment Anything Model 3 또는 SAM 3을 공개했다. SAM 3은 간단한 프롬프트를 사용하여 대규모 이미지 및 비디오 컬렉션에서 모든 개념의 인스턴스를 신뢰성 있게 찾고 세분화하고 추적하는 데 사용되는 통합 기본 모델이다.

2025년 11월 21일 오전 4시 53분
Uni-MoE-2.0-Omni: 텍스트, 이미지, 오디오 및 비디오 이해를 위한 오픈 Qwen2.5-7B 기반 Omnimodal MoE

Uni-MoE-2.0-Omni은 텍스트, 이미지, 오디오, 비디오를 신뢰성 있게 이해하는 오픈 모델로, 하비른 공과대학의 연구진이 소개했다. 이 시스템은 언어 중심의 다중 모달 추론을 위해 Lychee의 Uni-MoE 라인을 발전시킨 것으로, 효율적으로 운영된다.

2025년 11월 18일 오후 3시 56분
MBZUAI 연구자들이 PAN을 소개: 상호작용 가능한 장기 시뮬레이션을 위한 일반적인 세계 모델

MBZUAI의 연구진이 PAN이라는 새로운 모델을 소개했다. 이 모델은 시간이 지남에 따라 도착하는 작업에 따라 지속되는 내부 세계 상태를 유지하지 않는 대부분의 텍스트에서 비디오 모델과는 달리, 상호작용 가능한 일반적인 세계 모델로 작용하도록 설계되었다.

2025년 11월 15일 오후 12시 13분
JAX, Flax, 및 Optax를 사용하여 잔여 연결, Self-Attention, 적응적 최적화를 활용한 고급 아키텍처 구축 및 훈련하는 코딩 구현

이 튜토리얼에서는 JAX, Flax, 및 Optax를 사용하여 효율적이고 모듈화된 방식으로 고급 신경망을 구축하고 훈련하는 방법을 탐구합니다. 잔여 연결 및 Self-Attention 메커니즘을 통합한 심층 아키텍처를 설계한 후 학습률 스케줄링과 같은 정교한 최적화 전략을 구현합니다.

2025년 11월 11일 오전 2시 16분
Moonshot AI, Kimi CLI를 구동하는 LLM 추상화 계층인 Kosong 출시

Moonshot AI의 Kosong은 에이전트 애플리케이션을 위한 LLM 추상화 계층으로, 메시지 구조, 비동기 도구 조정, 플러그인형 채팅을 통합해 유지보수 가능한 스택을 제공한다.

2025년 11월 10일 오후 6시 47분
Gelato-30B-A3B: GUI 컴퓨터 사용 작업을 위한 최첨단 그라운딩 모델, GTA1-32B와 같은 컴퓨터 그라운딩 모델을 능가

ML Foundations 연구팀이 소개한 Gelato-30B-A3B는 그래픽 사용자 인터페이스를 위한 최첨단 그라운딩 모델로, AI 에이전트에게 명확한 화면 요소를 찾아 클릭하도록 가르치는 것에 대한 문제를 해결한다.

2025년 11월 10일 오후 4시 30분
Kosmos를 만나보세요: 데이터 주도적 발견을 자동화하는 AI 과학자

Edison Scientific이 만든 Kosmos는 데이터세트와 자연어 목표를 받아들여 반복적인 데이터 분석, 문헌 검색, 가설 생성을 수행하고 결과를 완전히 인용된 과학 보고서로 합성하는 자율 발견 시스템이다.

2025년 11월 10일 오전 2시 35분
다른치 메모리, 메타-러닝, 경험 재생으로 지속적으로 적응하는 신경 메모리 에이전트를 구축하는 코딩 구현

이 튜토리얼에서는 신경 메모리 에이전트가 과거 경험을 잊지 않고 계속 학습하는 방법을 탐구합니다. 우리는 경험 재생과 메타-러닝을 통합한 메모리 보강 신경망을 설계하여 새로운 작업에 빠르게 적응하면서 이전 지식을 유지하는 방법을 보여줍니다. PyTorch에서 이 방법을 구현함으로써 콘텐츠 기반 메모리를 어떻게 활용하는지를 시연합니다.

2025년 11월 9일 오후 9시 14분
AI 인터뷰 시리즈 #1: LLM에서 사용되는 몇 가지 LLM 텍스트 생성 전략 설명

LLM은 한 번에 완전한 답변을 생성하는 것이 아니라 한 번에 한 단어(또는 토큰)씩 응답을 구축합니다. 각 단계에서 모델은 지금까지 쓰여진 모든 것을 기반으로 다음 토큰이 될 확률을 예측합니다. 하지만 확률만 알아서는 충분하지 않습니다.

2025년 11월 9일 오후 4시 42분
StepFun AI, 새로운 오픈소스 3B LLM 등급 오디오 편집 모델 Step-Audio-EditX 출시, 표현력과 반복적인 오디오 편집에서 뛰어남

StepFun AI가 공개한 Step-Audio-EditX는 3B 파라미터 LLM 기반 오디오 모델로, 표현력 있는 음성 편집을 파형 수준 신호 처리 작업이 아닌 토큰 수준 텍스트 작업으로 변환시킴. 개발자들이 제어 가능한 TTS에 관심을 갖는 이유에 대해 설명.

2025년 11월 9일 오전 11시 51분
Nested Learning: 연속 학습을 위한 새로운 기계 학습 접근 방식, 모델을 중첩 최적화 문제로 보고 장기적인 컨텍스트 처리 향상

구글 연구자들이 소개한 Nested Learning은 모델을 하나의 외부 루프로 훈련된 단일 네트워크가 아닌 작은 중첩 최적화 문제의 모음으로 처리하는 기계 학습 접근 방식으로, 이전에 학습한 내용을 잊지 않고 새로운 정보를 계속 학습할 수 있는 AI 시스템을 구축하는 방법을 모색한다.

2025년 11월 8일 오후 4시 05분
구글 AI가 ADK Go를 공개: 강력한 AI 에이전트 구축을 위해 Go 개발자에게 역량을 부여하는 새로운 오픈소스 툴킷

구글이 Go용 에이전트 개발 킷인 ADK Go를 출시했다. Go 개발자들은 기존의 Python과 Java를 지원하는 프레임워크로 AI 에이전트를 구축할 수 있게 되었으며, 익숙한 Go 도구 체인 내에서 모든 것을 유지할 수 있다.

2025년 11월 7일 오후 5시 08분
구글 AI가 DS STAR를 소개: 엔드 투 엔드 분석을 계획, 코딩, 검증하는 멀티 에이전트 데이터 과학 시스템

구글 연구원들이 DS STAR(Data Science Agent via Iterative Planning and Verification)를 소개했다. 이는 엔드 투 엔드 데이터 과학 질문을 실행 가능한 Python 코드로 변환하는 멀티 에이전트 프레임워크이다.

2025년 11월 6일 오후 5시 03분
CMU 연구진, 프로액티브 및 개인화된 LLM 에이전트를 훈련시키기 위해 PPP와 UserVille 소개

CMU 연구진은 프로액티브 및 개인화된 LLM 에이전트를 훈련시키기 위해 PPP와 UserVille을 소개했다. 기존 LLM 에이전트들은 과제 성공을 극대화하기 위해 조정되어 있지만 사용자에게 언제 질문할지, 상호작용 선호도를 어떻게 존중할지 신중하게 이유를 생각하지 않는다. 이에 대한 해결책을 모색하고 있다.

2025년 11월 6일 오전 4시 49분
OpenAI, 인도어 언어를 위한 문화 인식 벤치마크 ‘IndQA’ 발표

OpenAI가 인도어 언어와 문화를 실제 상황에서 얼마나 이해하는지 테스트하는 벤치마크 ‘IndQA’를 발표했다. 이는 AI 모델이 인도어 언어의 문화적 영역에 관한 질문을 얼마나 잘 이해하고 추론하는지를 평가한다. OpenAI는 전 세계 인구의 약 80%가 인도어 언어를 사용한다고 밝혔다.

2025년 11월 5일 오후 12시 37분
구글 AI, 아부지파와 탈옥 스타일 프롬프트에서 안전한 언어 모델을 위한 일관성 훈련 소개

구글 AI가 일관성 훈련을 도입하여 언어 모델이 아부지파 프롬프트와 탈옥 스타일 공격에 저항하면서 능력을 유지하는 방법. 대형 언어 모델은 종종 칭찬이나 롤플레이로 둘러싸인 동일한 작업에 대해 안전하게 응답한 뒤 행동을 바꿀 수 있다. DeepMind 연구원들은 이를 위해 간단한 훈련 렌즈에서 일관성 훈련을 제안한다.

2025년 11월 5일 오전 10시 32분
2025년 코딩을 위한 상위 7개 대형 언어 모델 LLMs/시스템 비교

2025년, 주요 모델은 실제 GitHub 문제를 해결하고 다중 저장소 백엔드를 리팩터링하며 테스트를 작성하고 긴 컨텍스트 창 위에서 에이전트로 실행해야 합니다. 팀들에게 중요한 질문은 “코딩이 가능한가”가 아니라 어떤 모델이 어떤 제약 조건에 적합한가입니다.

2025년 11월 4일 오전 4시 48분
대규모 언어 모델 간의 KV-Cache 퓨전을 통한 캐시 간 직접 의미적 통신인 ‘캐시-투-캐시(C2C)’

대규모 언어 모델이 텍스트 토큰을 보내지 않고 협업할 수 있는지 연구팀이 증명했다. 캐시-투-캐시(C2C)는 대규모 언어 모델이 KV-Cache를 통해 정보를 교환하는 새로운 통신 패러다임이다.

2025년 11월 4일 오전 3시 32분
AI-ready API를 만드는 방법은?

Postman이 AI-ready API를 구축하기 위한 포괄적인 체크리스트와 개발자 가이드를 발표했는데, 가장 간단한 진실을 강조했다: 가장 강력한 AI 모델조차도 받는 데이터만큼 좋다. 엔드포인트가 일관성 없거나 명확하지 않거나 신뢰할 수 없으면 모델은 나쁜 입력을 수정하는 데 시간을 낭비한다.

2025년 11월 2일 오후 7시 42분
LongCat-Flash-Omni: 560B 매개변수를 갖고 27B 활성화된 SOTA 오픈소스 옴니 모달 모델, 실시간 오디오-비주얼 상호작용에서 뛰어남

Meituan의 LongCat 팀이 LongCat Flash Omni를 발표했다. 이 모델은 5600억 개 매개변수와 토큰 당 약 27억 개 활성화를 갖춘 오픈소스 옴니 모달 모델로, 텍스트, 이미지, 비디오, 오디오를 실시간으로 듣고 보고 읽고 응답할 수 있는 효율적인 단일 모델을 설계하는 방법이다.

2025년 11월 2일 오전 10시 44분
기업 AI 벤치마킹 프레임워크 코딩 구현: 실제 업무 과제에서 규칙 기반 LLM 및 하이브리드 에이전트 AI 시스템 평가

이 튜토리얼에서는 다양한 종류의 에이전트 AI 시스템을 실제 기업 소프트웨어 과제에서 평가하기 위한 포괄적인 벤치마킹 프레임워크를 개발한다. 데이터 변환, API 통합, 워크플로 자동화, 성능 최적화 등 다양한 도전 과제를 설계하고, 규칙 기반, LLM 기반, 하이브리드 에이전트를 포함한 다양한 에이전트가 이러한 작업들에서 어떻게 수행되는지 평가한다.

2025년 11월 1일 오후 11시 03분
DeepAgent: 단일 추론 프로세스 내에서 자율 사고, 도구 발견 및 작업 실행을 수행하는 깊은 추론 AI 에이전트

DeepAgent는 사전 정의된 Reason, Act, Observe 루프를 실행하는 대부분의 에이전트 프레임워크와는 달리, 에이전트는 프롬프트에 주입된 도구만 사용할 수 있습니다. 이는 작은 작업에는 작동하지만, 도구 세트가 크거나 작업이 길거나, 추론 중에 전략을 변경해야 하는 경우 실패합니다.

2025년 11월 1일 오후 6시 01분
Anthropics의 새로운 연구, Claude가 주입된 개념을 감지할 수 있지만 제어된 층에서만 가능

Anthropics의 새 연구는 대형 언어 모델인 Claude가 자체 내부 상태를 인지하는지 아니면 훈련 데이터에서 반복하는지 구별하는 방법을 살펴봅니다. 현재 Claude 모델이 자신의 능력에 대해 이야기하는 것 이상을 할 수 있는지 살펴보며, 주입된 개념을 감지할 수 있는지에 대해 질문을 제기합니다.

2025년 11월 1일 오전 5시 10분
OpenAI, ‘gpt-oss-safeguard’의 연구 미리보기 공개: 안전 분류 작업을 위한 두 개의 오픈 웨이트 추론 모델

OpenAI가 gpt-oss-safeguard의 연구 미리보기를 공개했습니다. 두 개의 오픈 웨이트 안전 추론 모델은 사용자가 추론 시 사용자 정의 안전 정책을 적용할 수 있도록 합니다. 모델은 gpt-oss에서 파인 튜닝된 gpt-oss-safeguard-120b와 gpt-oss-safeguard-20b 두 가지 크기로 제공되며 Apache 2.0 라이선스로 배포되었으며 Hugging Face에서 로컬 사용을 위해 제공됩니다.

2025년 10월 31일 오전 4시 08분
Ant Group, 각 활성화가 추론 능력을 향상시키는 원칙에 따라 구축된 추론 중심 MoE 언어 모델 시리즈인 Ling 2.0 출시

Ant Group의 Inclusion AI 팀이 Ling 2.0을 출시했다. 이 모델은 각 토큰의 계산을 거의 바꾸지 않으면서 용량이 증가하는 언어 모델로, 추론 능력을 향상시키는 원리에 기반한다.

2025년 10월 30일 오후 4시 39분
Liquid AI, LFM2-ColBERT-350M 출시: 다국어 및 교차언어 RAG에 늦은 상호작용 검색 기능 제공하는 새로운 소형 모델

Liquid AI사가 LFM2-ColBERT-350M을 출시했다. 이 모델은 다국어 및 교차언어 검색을 위한 소형 late interaction retriever로, 한 언어로 문서를 색인하고 다른 언어로 쿼리를 작성해도 높은 정확도로 검색 결과를 반환한다.

2025년 10월 29일 오전 2시 32분