
대규모 언어 모델(Large Language Models, LLMs)을 대규모로 제공하는 것은 키-값(Key-Value, KV) 캐시 관리로 인해 엄청난 공학적 도전이다. NVIDIA 연구진은 KVTC(KV Transform Coding)를 소개하여 효율적인 LLM 서빙을 위해 키-값 캐시를 20배로 압축했다.

대규모 언어 모델(Large Language Models, LLMs)을 대규모로 제공하는 것은 키-값(Key-Value, KV) 캐시 관리로 인해 엄청난 공학적 도전이다. NVIDIA 연구진은 KVTC(KV Transform Coding)를 소개하여 효율적인 LLM 서빙을 위해 키-값 캐시를 20배로 압축했다.
구글 AI는 Gemini 2.5 Computer Use를 소개했는데, 라이브 브라우저에서 실제 UI 작업을 계획하고 실행하는 특수한 변형이다. 사용자가 브라우저 작업을 위임할 수 있게 해주며 공개 미리 보기로 제공된다.
구글 AI 연구팀이 ‘TimesFM-ICF’라는 시계열 예측을 위한 인-컨텍스트 파인튜닝(ICF)을 소개했다. 이는 명령어에서 직접 제공된 여러 관련 시리즈를 활용하도록 TimesFM에 가르치는 연속된 사전 학습 레시피이다. 결과적으로, 이는 몇 가지 샷 예측기로 변환되어 OOD 벤치마크에서 기본 TimesFM 대비 +6.8% 정확도를 제공한다.
StepFun AI 팀이 Apache 2.0 라이선스로 공개한 Step-Audio 2 Mini는 8B 파라미터의 음성 대 음성 대형 오디오 언어 모델로, 표현력이 풍부하고 현실적이며 실시간 오디오 상호 작용을 제공합니다. GPT-4o-Audio와 같은 상용 시스템을 능가하는 최첨단 성능을 달성했습니다.
PyVision은 인식과 논리적 추론을 사용해 시각 정보를 해석하는 인공지능 모델을 도와주는 프레임워크로, 의료 진단, 시각 수학, 상징적 퍼즐 및 이미지 기반 질문 응답 등 여러 응용 분야에 활용될 수 있습니다. 객체 인식뿐만 아니라 동적 적응, 추상화 및 문맥 추론 능력을 요구합니다.
Qwen은 새로운 Mixture-of-Experts 아키텍처와 포괄적인 에이전트 코딩 기능을 갖춘 Qwen3-Coder를 발표했다. 이 모델은 오픈 소스 코딩 모델의 새 기준을 제시하며 대규모 자율 개발자 지원의 가능성을 재정의한다.

인공지능이 크게 발전해왔고 대형 언어 모델의 등장으로 성장의 주요 이정표를 찍었다. 최신 트렌드를 따라가는 한 가지 방법은 독서다. 2025년에 읽을 인공지능 도서를 소개한다.

비전-언어 모델(VLMs)은 다중 모달 AI 시스템의 기초 구성 요소로, 시각 환경을 이해하고 다중 모달 콘텐츠를 추론하며 디지털과 물리적 세계와 상호 작용할 수 있게 함. MiMo-VL-7B는 일반 시각 이해와 다중 모달 추론을 강화하기 위한 강력한 모델로, 연구진은 새로운 아키텍처 설계와 교육 방법론에 대한 연구를 통해 분야에서의 신속한 발전을 이끌고 있음.

확산 모델은 고품질 이미지 생성에서 성공을 거두었으며, 이제는 다양한 데이터 유형 처리의 기초로 탐구되고 있습니다. 이 능력은 텍스트와 이미지와 같은 이산 데이터와 연속 데이터를 포함한 멀티모달 작업에 유망한 확산 모델을 만듭니다.

Anthropic이 새로운 언어 모델인 클로드 오퍼스 4와 클로드 소넷 4를 출시했다. 이 업데이트는 클로드 모델 패밀리의 기술적 세련성을 대폭 향상시켰는데, 특히 구조화된 추론, 소프트웨어 엔지니어링 및 자율 에이전트 행동과 관련된 영역에서 주목할만한 발전을 이루었다.

조지아텍과 스탠포드 대학 연구진이 MLE 작업의 자동화를 탐구하고, AI 에이전트를 활용하여 엔드 투 엔드 워크플로우를 효율적으로 조율하는 데 어려움을 겪는 과제를 처리하는 것을 연구했다.
Anthropic사가 Claude Code를 사용한 코딩 에이전트 개발을 위한 상세한 가이드를 발표했다. Claude Code는 개발자 중심의 명령줄 인터페이스로, Claude 언어 모델을 일상적인 프로그래밍 작업에 통합하는 데 사용된다.