
Zhipu AI 연구진은 ‘Glyph’를 발표했다. 긴 텍스트를 이미지로 렌더링하고 VLM을 사용하여 128K 컨텍스트를 1백만 토큰 워크로드로 확장하는 AI 프레임워크로, 3-4배의 토큰 압축을 달성함.

Zhipu AI 연구진은 ‘Glyph’를 발표했다. 긴 텍스트를 이미지로 렌더링하고 VLM을 사용하여 128K 컨텍스트를 1백만 토큰 워크로드로 확장하는 AI 프레임워크로, 3-4배의 토큰 압축을 달성함.

Pyversity는 결과의 다양성을 향상시키기 위해 설계된 빠르고 가벼운 Python 라이브러리이다. 검색 시스템에서 자주 유사한 항목을 반환하는 문제를 해결하기 위해 Pyversity는 결과를 효율적으로 재랭킹하여 중복성이 적은 항목을 노출시킨다. Maximal Marginal Relevance를 포함한 인기 있는 다양화 전략에 대한 명확하고 통일된 API를 제공한다.
이 튜토리얼에서는 Bokeh를 사용하여 완전히 대화형이고 시각적으로 매력적인 데이터 시각화 대시보드를 만드는 방법을 안내합니다. 원시 데이터를 통찰력있는 플롯으로 변환한 다음 링크된 브러싱, 색상 그라데이션, 드롭다운 및 슬라이더를 통한 실시간 필터 기능과 같은 기능으로 향상시킵니다. 진행하면서 사용자 정의 JavaScript로 대시보드에 생명을 불어넣습니다.
이 튜토리얼에서 우리는 단순한 질문 응답을 넘어선 고급 에이전트 검색-증강 생성(RAG) 시스템을 구축한다. 이 시스템은 올바른 지식 소스로 쿼리를 지능적으로 라우팅하고, 답변 품질을 평가하기 위해 자가 점검을 수행하며, 향상된 정확도를 위해 응답을 반복적으로 개선한다. FAISS, SentenceTransformers 등의 오픈 소스 도구를 사용하여 전체 시스템을 구현한다.

‘kvcached’는 공유 GPU에서 LLM 서빙을 위해 가상화된 탄력있는 KV 캐시를 가능하게 하는 머신러닝 라이브러리입니다. 기존에는 모델당 큰 정적 KV 캐시 영역을 미리 예약하여 GPU 메모리를 낭비했지만, kvcached를 사용하면 이를 최적화할 수 있습니다.

대형 언어 모델(Large Language Models, LLMs)은 여러 매개변수를 제공하여 행동을 세밀하게 조정하고 응답 생성 방식을 제어할 수 있습니다. 이 튜토리얼에서는 max_completion_tokens, temperature, top_p, presence_penalty 등 일반적으로 사용되는 몇 가지 매개변수를 살펴봅니다.
이 튜토리얼에서는 Stable-Baselines3를 사용하여 강화 학습의 고급 응용 프로그램을 탐색합니다. 완전히 기능하는 사용자 지정 거래 환경을 설계하고, PPO 및 A2C와 같은 여러 알고리즘을 통합하며, 성능 추적을 위해 자체 훈련 콜백을 개발합니다. 에이전트 성능을 훈련, 평가 및 시각화하여 알고리즘 효율성, 학습 곡선 및 의사 결정을 비교합니다.

Anthropic, Thinking Machines Lab, Constellation의 연구팀은 모델 사양을 스트레스 테스트하여 최신 모델이 동일한 사양 하에 서로 다른 행동 프로필을 나타내는지 확인하는 방법을 제시했다.
이 튜토리얼에서는 로컬 오픈웨이트 모델을 사용하여 추론, 계획 및 가상 작업을 수행할 수 있는 고급 컴퓨터 사용 에이전트를 처음부터 구축합니다. 미니어처 시뮬레이션 데스크톱을 만들고 도구 인터페이스를 갖추며 환경을 분석하고 클릭 또는 타이핑과 같은 작업을 결정하고 실행할 수 있는 지능적인 에이전트를 설계합니다.
Google, OpenAI 및 Anthropic이 ‘에이전틱’ 능력을 컴퓨터 사용 제어, 도구/기능 호출, 오케스트레이션, 지배 및 기업 패키징 영역에서 어떻게 제품화하는지 분석합니다. 에이전트 플랫폼은 이제 모델뿐만 아니라 경쟁 우위를 정의합니다.

Liquid AI가 이미지 텍스트를 텍스트로 변환하는 작업을 위한 3B 파라미터 비전 언어 모델인 LFM2-VL-3B를 출시했습니다. 450M 및 1.6B 변형을 넘어 LFM2-VL 패밀리를 확장했으며, 정확도를 높이면서 LFM2 아키텍처의 속도 프로필을 유지합니다.
LitServe를 사용하여 기계 학습 모델을 최소한의 노력으로 API로 배포하는 강력하고 가벼운 서빙 프레임워크를 탐구하는 튜토리얼. 텍스트 생성, 배치, 스트리밍, 멀티 태스크 처리, 캐싱 등의 실제 기능을 보여주는 여러 엔드포인트를 로컬에서 실행하여 외부 API에 의존하지 않는다.

Salesforce AI 연구팀이 WALT(웹 에이전트가 배우는 도구) 프레임워크를 소개했다. 이 프레임워크는 웹사이트의 잠재적 기능을 재사용 가능한 호출 가능한 도구로 역공학화한다. 이를 통해 브라우저 자동화를 클릭 체인이 아닌 호출 가능한 도구 중심으로 재구성하며, 에이전트는 검색, 필터링, 정렬, 댓글 작성, 목록 생성과 같은 작업을 호출한다.
구글 연구팀이 FLAME을 제안했는데, 이는 강력한 오픈 어휘 탐지기를 기반으로 한 단일 단계의 액티브 러닝 전략으로, 훈련할 수 있는 작은 정교화기를 추가하여 가장 정보가 풍부한 샘플을 선택하고 모델 전문화를 빠르게 만드는 방법이다.
Apple 연구자들이 소개한 UltraCUA는 기존 컴퓨터 사용 에이전트의 한계를 극복하는 모델로, 저수준 GUI 동작을 고수준 프로그램 호출과 결합하여 보다 효율적으로 작업을 수행할 수 있게 해준다.
이 튜토리얼에서는 uAgents 프레임워크를 사용하여 작은 기능의 다중 에이전트 시스템을 구축하는 방법을 탐구합니다. 디렉토리, 판매자 및 구매자 세 가지 에이전트를 설정하여 실제 마켓플레이스 상호 작용을 시뮬레이션하도록 잘 정의된 메시지 프로토콜을 통해 통신합니다.
Anthrogen은 Odyssey를 소개했는데, 이는 시퀀스 및 구조 생성, 단백질 편집, 조건부 설계를 위한 단백질 언어 모델로 1.2B에서 102B 파라미터의 범위를 갖추고 있다. 이 모델을 실제 단백질 설계 작업을 위한 전방향, 멀티모달 모델로 소개하며 API가 조기 액세스 중이라고 밝혔다.
PokeeResearch-7B는 7B 파라미터 딥 리서치 에이전트로, 쿼리를 분해하고 검색 및 읽기 호출을 실행하며 후보 답변을 확인한 후 여러 리서치 스레드를 최종 응답으로 합성하는 기능을 제공한다. 에이전트는 연구 및 검증 루프를 실행한다.
본 튜토리얼에서는 Colab에서 손쉽게 실행되는 강력한 기업용 AI 어시스턴트를 구축하는 방법을 살펴봅니다. FAISS를 사용하여 문서 검색 및 FLAN-T5를 사용하여 텍스트 생성을 위해 검색 보강 생성 (RAG)을 통합하는 것으로 시작하며, 기업 정책인 데이터 마스킹, 접근 제한 등을 포함시킵니다.
VISTA는 추론 중에 텍스트에서 비디오 생성을 개선하는 다중 에이전트 프레임워크로, 구조화된 프롬프트를 장면으로 계획하고 최고의 후보를 선택하기 위해 페어와이즈 토너먼트를 실행하며 시각, 음향, 문맥에 걸쳐 특화된 심사위원을 활용하고 깊은 사고 프롬프팅 에이전트로 프롬프트를 다시 작성합니다.
OpenAI가 ChatGPT Atlas를 출시했는데, 이는 내장된 ChatGPT를 기반으로 한 브라우저로, 내비게이션, 검색 및 페이지 지원 기능을 제공한다. Windows, iOS 및 Android 빌드는 곧 출시될 예정이다.
이 튜토리얼에서는 LangChain, AutoGen 및 Hugging Face를 결합하여 유료 API 없이 실행되는 완전한 프레임워크를 구축하여 Agentic AI의 본질에 대해 탐구합니다. 가벼운 오픈 소스 파이프라인을 설정한 다음 구조화된 추론, 다단계 워크플로우 및 협력적인 에이전트 상호작용을 진행합니다.
구글 연구팀과 UC Santa Cruz의 연구자들이 암 세포의 유전적 변이를 식별하는 AI 모델 ‘DeepSomatic’을 발표했다. Children’s Mercy와의 연구에서, 다른 도구에서 놓친 소아 백혈병 세포의 10가지 변이를 찾아내었다. DeepSomatic은 암 유전체를 위한 체세포 소규모 변이 콜러로, Illumina 단독 독립적으로 작동한다.
DeepSeek-AI가 3B DeepSeek-OCR을 출시했다. 이는 텍스트를 작은 집합의 시각 토큰으로 압축한 뒤 언어 모델로 해당 토큰을 디코딩하는 OCR 및 문서 구문 분석 Vision-Language Model(VLM) 시스템이다. 이미지는 텍스트의 간략한 표현을 갖고 있어 디코더의 시퀀스 길이를 줄인다.
AI 분야의 풍경이 확장되고 있다. 최강의 LLMs(대형 언어 모델) 중 많은 것들이 클라우드에 주로 위치하고 있지만, 이제 강력한 새로운 패러다임이 등장하고 있다. 개인의 프라이버시 문제와 업로드 파일 수나 로딩 기간 제한에 대한 우려도 존재한다.
DeepAgents 라이브러리는 계획을 세우고 시간에 걸쳐 작업을 관리할 수 있는 능력이 없는 기본 대형 언어 모델(Large Language Model, LLM) 에이전트를 극복하기 위해 설계되었습니다. 이 라이브러리는 “깊이” 있게 실행될 수 있도록 설계되어 있습니다.
컨텍스트는 중요하지만 제한적인 자원임을 강조하는 안토픽의 효과적인 컨텍스트 엔지니어링 가이드 출시. 에이전트의 품질은 모델 자체보다는 컨텍스트의 구조화와 관리에 더 의존함. 올바른 컨텍스트로 구성된 약한 LLM도 잘 수행할 수 있음.
MCP를 활용하여 현대 AI 시스템에서의 독특한 도전 과제 중 하나인 AI 모델과 외부 데이터 또는 도구 간 실시간 상호 작용을 가능하게 하는 방법을 살펴봄. 전통적인 모델은 훈련 데이터에만 제한되지만 MCP를 통해 외부 자원 및 도구와의 실시간 상호 작용이 가능해짐.
스탠포드, EPFL, UNC의 연구진은 약한 메타 에이전트가 강한 실행 모델을 부르는 코드 워크플로를 설계하고 개선하는 새로운 강화 학습 프레임워크인 Weak-for-Strong Harnessing, W4S를 소개했다. 이 메타 에이전트는 강한 모델을 세밀하게 조정하는 것이 아니라 조정하는 방법을 학습한다. W4S는 워크플로 디자인을 다중 턴으로 형식화한다.
Microsoft Research는 BitNet Distillation을 제안하여 기존의 완전 정밀한 LLM을 특정 작업을 위해 1.58비트의 BitNet 학생으로 변환하고, 정확도를 FP16 교사에 가깝게 유지하면서 CPU 효율성을 향상시킵니다. 이 방법은 SubLN 기반의 구조적 개선, 지속적인 사전 훈련 및 로짓 및 멀티 헤드 어텐션 관계로부터의 이중 신호 증류를 결합합니다.
Kong이 Volcano를 오픈소스로 공개했습니다. 이는 TypeScript SDK로, LLM 고찰 및 실제 활동을 통해 여러 LLM 제공업체 간에 다단계 에이전트 워크플로를 구성하며 MCP 도구 사용이 가능합니다.
AutoCode는 LLM이 경쟁 프로그래밍 문제를 만들고 검증할 수 있는 새로운 AI 프레임워크로, UCSD, NYU, University of Washington, 등 다수의 연구진이 개발했다. 이 프레임워크는 인간의 문제 제작자의 작업 흐름을 본떠 LLM이 문제를 생성하고 검증할 수 있게 한다.
강화 학습 RL 후 훈련은 이제 추론 중심 LLMs에 대한 주요 수단이지만, 사전 훈련과 달리 예측 가능한 스케일링 규칙이 없었습니다. Meta, UT Austin, UCL, Berkeley, Harvard 등의 연구진이 시그모이드 스케일링 곡선을 도입하여 이 문제를 해결했습니다.
이 튜토리얼에서는 도구 문서를 표준화된 호출 인터페이스로 변환하고 중앙 시스템에 등록한 후 자동화된 파이프라인의 일부로 실행하는 효율적인 프레임워크를 구축하는 방법을 보여줍니다.
바이두의 PaddlePaddle 팀이 PaddleOCR-VL을 출시했습니다. 이 모델은 다국어 문서를 Markdown/JSON으로 변환하는데 사용되며, 텍스트, 표, 수식, 차트, 필기체 등을 구문 분석하는 데 적합합니다.
구글 AI 팀이 C2S-Scale 27B 모델을 발표했다. 이 모델은 270억 개의 매개변수를 갖춘 단일 세포 분석을 위한 모델로, 단일 세포 RNA-seq(scRNA-seq) 프로필을 ‘셀 문장’으로 형식화하여 언어 모델이 세포 상태를 자연스럽게 분석할 수 있게 했다.
Qualifire AI가 Rogue를 공개했는데, 이는 AI 에이전트의 성능을 평가하는 파이썬 프레임워크로, 기존 QA 방법론의 한계를 극복하고 개발팀이 믿고 릴리스를 관리할 수 있도록 도와준다.
이 튜토리얼에서는 고전적인 암호화의 강도와 적응적 인텔리전스를 결합한 AI-파워드 암호화 에이전트 시스템을 구축한다. RSA 및 AES를 사용한 하이브리드 암호화, 디지털 서명 생성, 메시지 패턴의 이상 감지, 키 회전 권장 등이 가능한 에이전트를 설계한다.
Qualifire AI가 Rogue를 오픈소스화했습니다. 이 프레임워크는 AI 에이전트를 평가하기 위해 설계되었으며 프로토콜 정확한 대화, 명시적 정책 확인, 기계 판독 가능한 증거를 제공하여 릴리스를 자신 있게 관리할 수 있습니다.
NVIDIA 연구진은 MIT, HKU, Tsinghua과 협력하여 오픈소스 QeRL(Quantization-enhanced Reinforcement Learning)을 소개했다. 이 프레임워크는 4비트 FP4로 강화 학습(Reinforcement Learning) 후 훈련을 밀어넣는다.
이 튜토리얼에서는 제한된 컨텍스트를 지능적으로 관리하여 복잡한 장기 과제를 효율적으로 해결하는 컨텍스트-폴딩 LLM 에이전트를 구축하는 방법을 탐구합니다. 큰 과제를 작은 하위 과제로 분해하고 필요할 때 추론 또는 계산을 수행한 다음 각 완료된 하위 궤적을 간결한 요약으로 접어 넣는 방식으로 에이전트를 설계합니다.
Anthropic사가 Claude Haiku 4.5를 출시했다. Claude Sonnet 4와 유사한 코딩 성능을 제공하면서도 비용은 1/3, 속도는 2배 이상 빠르다. 이 모델은 Anthropic의 API 및 아마존 Bedrock, 구글 클라우드 Vertex AI 파트너 카탈로그를 통해 즉시 이용 가능하며, 가격은 $1/MTok 입력이다.
Meta Superintelligence Labs가 제안한 ‘Early Experience’는 보상 없이 에이전트를 훈련하는 새로운 방법으로, 언어 에이전트의 정책 학습을 개선하며 모방 학습을 능가하는 것으로 나타났습니다.
알리바바의 Qwen 팀이 밀도 높은 Qwen3-VL 4B/8B 모델을 FP8로 축소한 Instruct와 Thinking 두 가지 프로필로 출시했다. VRAM을 적게 사용하면서도 256K→1M 컨텍스트와 전체 능력을 유지한다.
안드레이 카르파시가 nanochat을 공개했다. 이는 하나의 멀티 GPU 노드에서 실행 가능한 ChatGPT 스타일 스택을 구현한 경량 코드베이스로, 토크나이저 훈련부터 웹 UI 추론까지를 지원한다. 단일 스크립트 “스피드런”을 제공하여 토큰화, 베이스 사전 훈련, 채팅/다중 선택/도구 사용 데이터에 대한 중간 훈련, 지도된 세부 튜닝(SFT), 선택적 강화 학습을 실행한다.
이 튜토리얼에서는 파이썬의 강력한 테스트 프레임워크 중 하나인 PyTest의 고급 기능을 탐구합니다. 픽스처, 마커, 플러그인, 매개변수화 및 사용자 정의 구성을 보여주는 완전한 미니 프로젝트를 처음부터 구축합니다. PyTest가 단순한 테스트 러너에서 현실 세계의 견고하고 확장 가능한 시스템으로 어떻게 진화하는지에 초점을 맞춥니다.
NVIDIA AI가 강화 학습 사전 학습(RLP)을 소개했습니다. 이는 후속 학습이 아닌 사전 학습 단계에서 강화 학습을 적용하는 교육 목표입니다. 강화 학습을 다음 토큰 예측 전에 샘플링된 작업으로 취급하고 정보 획득에 대한 보상으로 보상합니다.
LLM 출력을 조정하는 것은 주로 디코딩 문제이다. 몇 가지 샘플링 컨트롤로 모델의 다음 토큰 분포를 형성하며, 맥스 토큰, 온도, 상위 p/핵, 상위 k, 빈도 및 존재 패널티 등을 조절할 수 있다.
ServiceNow의 연구팀이 DRBench를 공개했다. 이는 공개 웹과 기업 내부 데이터를 종합적으로 활용해 보고서 작성을 요구하는 기업과제에 대한 “심층 연구” 에이전트를 평가하기 위한 벤치마크 및 실행 환경이다. DRBench는 기업 스타일의 다양한 워크플로우를 구현하여 에이전트가 파일, 이메일, 채팅 로그, 클라우드 저장소를 검색, 필터링 및 속성을 할 수 있도록 한다.
Ivy는 다양한 프레임워크에서 머신러닝 개발을 통합하는 능력을 탐구하는 튜토리얼이다. NumPy, PyTorch, TensorFlow, JAX에서 매끄럽게 실행되는 프레임워크에 중립적인 신경망을 작성하고 코드 변환, 통합 API, Ivy 컨테이너 및 그래프 추적과 같은 고급 기능을 살펴본다.
Meta AI가 Agents Research Environments (ARE)와 Gaia2를 소개했는데, ARE는 에이전트 작업을 만들고 실행하기 위한 모듈화된 시뮬레이션 스택이고, Gaia2는 GAIA의 후속 벤치마크로 동적인, 쓰기가능한 환경에서 에이전트를 평가한다. ARE은 응용 프로그램, 환경, 이벤트, 알림 및 시나리오에 대한 추상화를 제공하며, Gaia2는 ARE 상에서 실행되며 탐색 및 실행 이외의 능력에 초점을 맞춘다.
마이크로소프트 AI가 처음으로 개발한 이미지 생성 모델인 MAI-Image-1이 선보였다. 이 모델은 2025년 10월 13일 기준으로 LMArena 텍스트-이미지 리더보드 Top-10에 데뷔했다. 모델은 커뮤니티 피드백을 수집하기 위해 공개적으로 테스트 중이며, 마이크로소프트 AI 팀에 따르면 곧 공개될 예정이다.
LLM 애플리케이션을 평가하는 것은 중요하지만 종종 간과된다. 적절한 평가 없이 시스템의 검색기가 효과적인지, LLM의 답변이 출처에 근거한지(또는 환각인지), 그리고 컨텍스트 크기가 최적인지 확인하는 것은 거의 불가능하다.
SwiReasoning은 추론 LLM이 다음 토큰 분포의 엔트로피 추세를 기반으로 블록 단위 신뢰도를 추정하여 잠재 공간에서 생각할지 명시적 사고 체인을 쓸지 결정할 수 있는 디코딩 시간 프레임워크다. 이 방법은 훈련 없이 모델에 대해 Pareto-우수한 정확도/효율성 트레이드오프를 목표로 하며, 수학 및 STEM 벤치마크에서 +1.5%~2.8% 평균 정확도 향상을 보여준다.
구글 AI 연구팀이 음성 검색 분야에 Speech-to-Retrieval (S2R)를 도입하여 음성 쿼리를 텍스트로 변환하지 않고 바로 임베딩에 매핑하고 정보를 검색하는 혁신적인 방법을 소개했다. S2R은 클래식한 연쇄 모델링 접근 방식의 오류 전파를 타겟팅하는 구조적이고 철학적인 변화를 목표로 한다.
이 튜토리얼에서는 파이썬을 사용하여 실제로 AI 에이전트를 안전하게 보호하는 방법을 탐구합니다. 데이터 및 도구와 상호 작용할 때 안전 규칙을 준수하는 지능적이고 책임감 있는 에이전트를 구축하는 데 초점을 맞춥니다. 입력 살균, 프롬프트 주입 탐지, 개인 식별 정보 비식별화, URL 허용 목록, 속도 제한 등 여러 보호층을 구현합니다.
AI 에이전트가 간단한 챗봇을 넘어 발전함에 따라, 더 강력하고 적응 가능하며 지능적인 디자인 패턴이 등장했습니다. 이러한 에이전트 디자인 패턴은 실제 세계 환경에서 복잡한 문제를 해결하기 위해 에이전트가 어떻게 생각하고 행동하며 협업하는지를 정의합니다.
Sentient AI가 고성능의 다중 에이전트 시스템을 구축하기 위한 오픈 소스 메타 에이전트 프레임워크 ROMA를 공개했다. ROMA는 복잡한 목표를 하위 작업으로 분해하고 하위 노드로 전달하여 솔루션을 집계하는 계층적 작업 트리로 에이전트 워크플로우를 구조화한다.
이 자습서에서는 Lightly AI 프레임워크를 사용하여 자기 지도 학습의 힘을 탐구합니다. 레이블 없이 의미 있는 이미지 표현을 학습하는 SimCLR 모델을 구축한 다음 UMAP와 t-SNE을 사용하여 임베딩을 생성하고 시각화합니다. 데이터를 지능적으로 정리하기 위한 코어셋 선택 기술로 진입하고 액티브 러닝 워크플로를 시뮬레이션합니다.
스탠포드 대학의 연구진과 ETH 취리히, Google Research, Amazon과의 협업으로 새로운 시계열 언어 모델인 OpenTSLM이 소개되었다. 이 모델은 현재의 LLMs의 한계를 극복하여 의료 분석에 혁신을 가져오고 있다.
Liquid AI가 온디바이스 실행을 위해 만들어진 소형 Mixture-of-Experts 모델인 LFM2-8B-A1B를 출시했다. 클라우드 배치 서빙용이 아닌 이 모델은 폰에 최적화되어 있어 메모리, 지연 및 에너지 예산을 엄격하게 고려하며 작동한다.
Meta Superintelligence Labs의 MetaEmbed는 다중모달 검색을 위한 후기 상호작용 레시피로, 서빙 시간에 학습 가능한 메타 토큰의 수를 선택함으로써 정확도, 지연 시간 및 인덱스 크기를 조정할 수 있게 합니다.
스탠포드 대학교, SambaNova Systems, UC 버클리에서 연구진이 소개한 ACE 프레임워크는 LLM 성능을 향상시키는데 모델 가중치를 업데이트하는 대신 입력 컨텍스트를 편집하고 확장함으로써 작동합니다. 컨텍스트는 Generator, Reflector, Curator 세 가지 역할에 의해 유지되며 간결성 편향을 피하기 위해 작은 델타 항목이 점진적으로 병합됩니다.
구글은 Model Context Protocol (MCP) 서버를 오픈소스로 공개했는데, 이를 통해 에이전틱 및 LLM 애플리케이션이 Google Ads API에 대한 읽기 전용 액세스를 얻을 수 있다. Python으로 구현된 googleads/google-ads-mcp 레포지토리는 GAQL 쿼리를 통한 광고 계정 검색 및 고객 리소스 열거를 지원한다.
컴퓨터 사용 에이전트는 수정되지 않은 소프트웨어에서 사용자처럼 작동하는 VLM 주도 UI 에이전트이다. OSWorld의 기준선은 12.24% (인간 72.36%)에서 시작해, Claude Sonnet 4.5는 현재 61.4%를 보고한다. Gemini 2.5 컴퓨터 사용은 여러 웹 벤치마크에서 선두를 달리고 있지만 아직 OS에 최적화되지 않았다. 다음 단계는 OS 수준의 강건성, 하위 초 반응 루프 등에 중점을 두고 있다.
Skala는 Kohn-Sham 밀도 기능 이론(DFT)을 위한 딥러닝 교환-상관 기능으로, 반 하이브리드 수준 정확도를 반 공간 비용에서 달성한다. W4-17에서 MAE는 약 1.06 kcal/mol(단일 참조 하위집합에서 0.85), WTMAD-2는 약 3.89 kcal/mol이다. 주요 분자화학에 적합하며 D3(BJ) 분산 보정을 사용한다.
삼성 SAIT가 발표한 Tiny Recursive Model (TRM)은 2층 구조의 약 7백만 파라미터 재귀 추론기로, ARC-AGI-1에서 44.6-45%의 테스트 정확도와 ARC-AGI-2에서 7.8-8%의 결과를 보여 더 큰 언어 모델인 DeepSeek-R1, o3-mini-high 등을 능가했다.
Apple의 새로운 연구는 중간 학습이 강화 학습 후 후속 학습을 하기 전에 무엇을 해야 하는지 공식화하고 RA3 (Reasoning as Action Abstractions)를 소개합니다. RA3는 전문가의 흔적으로부터 시간적으로 일관된 잠재적 행동을 학습하고 그에 대해 미세 조정합니다. 중간 학습은 (1) 최적의 행동 부분 공간으로 가지치기하고 (2) 줄여야 함을 보여줍니다.
AgentFlow는 명시적 메모리와 도구 세트에 의해 조정되는 네 가지 모듈 – Planner, Executor, Verifier, Generator – 을 갖춘 훈련 가능한 에이전트 프레임워크이다. Planner는 Flow-GRPO라는 새로운 온-폴리시 방법을 통해 최적화되며 트라젝토리 수준의 결과 보상을 모든 턴에 방송하고 KL 정규화 및 그룹 정규화된 어드밴티지를 적용하는 토큰 수준의 PPO 스타일 업데이트를 수행한다.
Anthropic이 Petri를 출시했습니다. 이는 AI 요소들을 활용하여 대상 모델의 행동을 다양한 시나리오에서 테스트하는 오픈소스 프레임워크로, 실제적이고 다중 턴 및 도구 사용 환경에서 경계 LLMs를 감사하는 방법을 자동화합니다.
MCP, 함수 호출, OpenAPI 도구의 비교표를 통해 각각의 특징과 사용 시기를 알아볼 수 있습니다.
구글 AI는 Gemini 2.5 Computer Use를 소개했는데, 라이브 브라우저에서 실제 UI 작업을 계획하고 실행하는 특수한 변형이다. 사용자가 브라우저 작업을 위임할 수 있게 해주며 공개 미리 보기로 제공된다.
메타 AI가 OpenZL을 공개했다. 이는 형식 인식 그래프 압축기를 훈련시키고 유니버설 디코더에 자체 설명 그래프만 보내어 압축 비율과 처리량을 얼마나 회복할 수 있는지 탐구한 오픈 소스 프레임워크이다.
XGBoost의 분석적 능력과 LangChain의 대화형 지능을 결합하여, 합성 데이터셋 생성부터 XGBoost 모델 학습, 성능 평가, 주요 인사이트 시각화까지 가능한 파이프라인을 구축하는 튜토리얼. 대화형 AI가 원활하게 상호작용할 수 있는 방법을 보여줌.
구글 딥마인드가 소개한 CodeMender는 실제 취약점에 대해 수정 사항을 생성, 유효성을 검증하고 상류로 보내는 AI 에이전트로, 보안 취약점을 자동으로 보완할 수 있게 함.
이 튜토리얼에서는 AI가 한계에 도달했을 때 숙련된 인간이 원할하게 대신하는 고객 서비스 자동화의 중요한 구성 요소인 인간 인계를 구현할 것이다. AI 파워된 보험 에이전트를 위한 인간 인계 시스템을 Parlant를 사용하여 구현하고, Streamlit 기반의 인터페이스를 만드는 방법을 배울 수 있다.
OpenAI가 AgentKit을 출시했다. 시각적인 에이전트 빌더, 임베드 가능한 ChatKit UI 및 확장된 Evals를 포장하여 제품 에이전트를 출하하기 위한 단일 워크플로우를 제공한다. 에이전트 빌더(beta)와 기타 기능이 포함되어 있다.
상하이교통대학교 및 SII Generative AI Research Lab (GAIR)의 연구진은 LIMI (“Less Is More for Agency”)라는 감독 세부 조정 방법을 제안하며, 기본 모델을 78개의 샘플을 사용하여 능숙한 소프트웨어/연구 에이전트로 변환합니다.
StreamTensor은 PyTorch LLM 그래프를 AMD의 Alveo U55C FPGA에서 스트림 스케줄된 데이터플로우 가속기로 변환하는 컴파일러이다. 이 시스템은 순환 텐서(“itensor”) 유형을 도입하여 타일/순서를 인코딩한다.
Salesforce AI Research가 CoDA-1.7B를 발표했다. 이는 양방향 컨텍스트를 사용하여 전체 시퀀스를 정제하고, 왼쪽에서 오른쪽으로 다음 토큰 예측이 아닌 병렬로 여러 토큰을 업데이트하는 코드용 확산 기반 언어 모델이다.
이 가이드는 신뢰할 수 있고 적응 가능한 AI 에이전트를 디자인하기 위한 방법론에 중점을 두며 명확한 경계, 효과적인 행동 및 안전한 상호작용을 만드는 방법을 제공합니다.
ASR과 WER만으로는 부족하며, 최신 상호작용형 음성 에이전트를 위한 강력한 평가는 작업 성공률, 침입 행동 및 대기시간, 소음 하에서의 환각을 측정해야 함. VoiceBench는 ASR, 안전성, 지시 따르기 외에도 일반 지식, 지시 따르기, 안전성 및 환경/내용 변화에 대한 견고성을 측정하는 다면적 음성 상호작용 벤치마크를 제공함.
Brno 대학과 존스 홉킨스 대학 연구진이 제안한 USE-DDP는 실제 소음이 있는 녹음만을 학습하고 짝지어진 데이터를 본 적이 없어도 말과 소음을 깔끔하게 분리할 수 있는 이중 스트림 인코더-디코더 구조이다.
이 코딩 구현에서는 텍스트 시퀀스에서 연속적인 수치 값을 직접 예측하는 회귀 언어 모델(RLM)을 구축한다. 자연어 설명 안에 숨겨진 양적 관계를 학습하는 트랜스포머 기반 아키텍처를 훈련하는데 초점을 맞춘다. 합성 텍스트-숫자 데이터 생성부터 시작해서 효율적으로 토큰화한다.
Google Cloud AI Research과 MIT, 하버드, Google DeepMind의 협력자들이 TUMIX (도구 사용 혼합)를 소개했다. 이는 이질적인 에이전트 스타일(텍스트, 코드, 검색, 가이드된 변형)을 앙상블하는 테스트 시간 프레임워크이다.
코넬과 구글의 연구진은 코드 문자열에서 직접 숫자 결과를 예측하는 통합 회귀 언어 모델(RLM)을 소개했습니다. 이 모델은 GPU 커널 지연, 프로그램 메모리 사용량, 심지어 신경망 정확도와 지연까지 손수 조작된 특성 없이 예측합니다. T5-Gemma에서 초기화된 300M 파라미터 인코더-디코더는 단일 텍스트-숫자 디코더를 사용하여 이질적 작업과 언어 간 강력한 순위 상관관계를 달성합니다.
이 튜토리얼에서는 Darts 라이브러리와 가벼운 HuggingFace 모델을 결합하여 시계열 예측을 자율적으로 처리하는 고급 에이전틱 AI 시스템을 구축한다. 데이터의 패턴을 분석한 후 적절한 예측 모델을 선택하고 예측을 생성하는 주기적 작업을 수행하는 에이전트를 설계한다.
AWS가 Amazon Bedrock AgentCore를 위한 오픈소스 Model Context Protocol (MCP) 서버를 출시했는데, 이는 에이전트 IDE의 자연어 프롬프트에서 AgentCore Runtime에 배포 가능한 에이전트로의 직접 경로를 제공한다. 이 패키지는 일반적인 다단계 통합 작업을 대화형 명령으로 압축하는 데 사용된다.
마이크로소프트가 공개한 ‘마이크로소프트 에이전트 프레임워크’는 오픈소스 SDK와 런타임으로, AutoGen과 Semantic Kernel의 핵심 아이디어를 통합하여 팀이 프로덕션급 AI 에이전트 및 다중 에이전트 워크플로를 구축, 배포 및 관찰할 수 있도록 도와줍니다. Python과 .NET용으로 제공되며 직접 통합됩니다.
Neuphonic이 NeuTTS Air를 공개했는데, 이는 748M 파라미터(큐윈2 아키텍처)를 갖춘 오픈소스 텍스트 음성 변환 모델로, 클라우드 의존성 없이 CPU에서 실시간으로 실행될 수 있다. Apache-2.0 라이선스 하에 제공되며, 러너블 데모와 함께 제공된다.
Thinking Machines사가 Tinker를 출시했다. Tinker는 연구원과 엔지니어들이 로컬에서 학습 루프를 작성하고 플랫폼이 관리되는 분산 GPU 클러스터에서 실행할 수 있는 파이썬 API이다. 데이터, 목표 및 최적화 단계의 완전한 제어를 유지하면서 스케줄링, 장애 허용 및 다중 노드 조율을 자동화한다.
WhisperX를 활용한 음성 AI 파이프라인의 고급 구현 방법을 안내하는 튜토리얼. 전사, 정렬, 단어별 타임스탬프에 대해 자세히 살펴보며 환경 설정, 오디오 로드 및 전처리, 전사에서 정렬 및 분석까지의 전체 파이프라인 실행과 메모리 효율성 및 배치 처리 지원에 대해 다룸.
IBM은 Granite 4.0을 출시했는데, 이는 모노리딕 트랜스포머 대신 하이브리드 Mamba-2/Transformer 스택을 사용하여 서빙 메모리를 줄이고 품질을 유지한다. 다양한 사이즈의 모델들이 제공되며, 이들은 Apache-2.0로 공개되었다.
ServiceNow AI 연구소가 Apriel-1.5-15B-Thinker를 공개했다. 이 모델은 강화 학습이나 선호도 최적화 없이 데이터 중심 중간 학습 레시피로 훈련된 150억 개의 오픈 가중치 다중 모달 추론 모델로, 단일 GPU 예산에서 SOTA 대비 8배의 비용 절감으로 인공 분석 지능 지수 52를 달성한다.
Liquid AI가 LFM2-Audio-1.5B를 출시했다. 이 모델은 음성과 텍스트를 이해하고 생성하는 작고 효율적인 오디오-언어 기반 모델로, 자원이 제한된 기기에서 실시간 음성 비서를 위해 설계되었다. 새로운 점은 오디오 I/O를 분리한 통합된 백본을 갖춘 것이다.
MLPerf 추론은 하드웨어, 런타임 및 서빙 스택으로 구성된 완전한 시스템이 정해진 지연 시간과 정확도 제약 조건 하에 사전 훈련된 모델을 얼마나 빠르게 실행하는지 측정합니다. Datacenter 및 Edge 스위트에 대한 결과는 LoadGen에 의해 생성된 표준화된 요청 패턴(“시나리오”)으로 보고되며, 이는 아키텍처 중립성과 재현성을 보장합니다.
모델 콘텍스트 프로토콜(MCP)은 AI 클라이언트가 서버에 연결하는 방식을 형식화하는 오픈 JSON-RPC 기반 표준이다. MCP는 에이전트/도구 상호작용을 명시적이고 감사 가능하게 만들어 보안 작업에 가치를 제공한다.
구글 AI가 제안한 ReasoningBank는 LLM 에이전트가 자체 상호 작용 추적을 재사용 가능한 고수준 추론 전략으로 변환하여 미래 결정을 안내하고 에이전트가 자가진화하는 프레임워크를 소개합니다.
이 튜토리얼에서는 에이전트 검색 보조 생성 (RAG) 시스템의 구현을 안내합니다. 문서를 검색하는 것 이상의 작업을 수행하도록 설계되어 있어 에이전트가 검색이 필요한 때를 적극적으로 결정하고, 최적의 검색 전략을 선택하며, 문맥을 인식하여 응답을 종합합니다.
Zhipu AI가 GLM-4.6을 출시했다. 이 모델은 에이전틱 워크플로, 장기 맥락 추론, 실용적 코딩 작업에 초점을 맞추고 있으며, 입력 창을 20만 토큰으로 확장하고 12만 8천 토큰의 최대 출력을 제공한다. 이번 업데이트는 실용적 작업에서 효율적인 토큰 사용을 목표로 하며 로컬 배포를 위한 오픈 가중치도 함께 제공된다.