2026년 3월 7일 토요일
오늘의 신문
2026년 3월 7일 토요일 오늘의 신문
YuanLab AI가 오픈소스 Mixture-of-Experts (MoE) 대형 언어 모델인 Yuan 3.0 Ultra를 공개했다. 이 모델은 1조 개의 총 파라미터와 68.8조 개의 활성화된 파라미터를 특징으로 하며, 기업 성능을 최적화하고 사전 훈련 효율성을 높이는 것을 목표로 한다.
2026년 3월 5일 오전 12시 55분
기업은 애플리케이션에 안전한 임베드 챗을 구현하는 것이 어려운데, 이를 해결하기 위해 Quick Suite Embedding SDK를 사용한 챗 에이전트 임베드 솔루션을 제공한다.
2026년 3월 4일 오후 4시 20분AWS Blog
구글이 Gemini 3.1 Flash-Lite를 공개했다. 고성능 작업에 최적화된 이 모델은 낮은 지연시간과 토큰 당 비용을 중점으로 고안되었다. 현재 Gemini API 및 Vertex AI를 통해 Public Preview로 이용 가능하다.
2026년 3월 3일 오후 1시 28분
이 글에서는 Amazon Nova Canvas에서 제공하는 가상 시착 기능을 탐구하며, 빠르게 시작할 수 있는 샘플 코드와 최상의 결과를 얻는 데 도움이 되는 팁을 제공합니다.
2026년 3월 3일 오전 11시 23분AWS Blog
AWS China Applied Science팀이 어려운 VOC 분류 작업에 Nova Forge를 평가한 결과와 오픈 소스 모델과의 벤치마킹 결과를 공유합니다.
2026년 3월 2일 오후 2시 32분AWS Blog
NullClaw는 Raw Zig로 완전한 스택 AI 에이전트 프레임워크를 구현하여 Python이나 Go와 같은 고수준 관리 언어에 의존하는 기존의 프레임워크와는 달리 런타임, 가상 머신, 가비지 컬렉터를 통해 상당한 오버헤드를 제거하고 있다.
2026년 3월 2일 오후 2시 12분
산업용 추천 시스템에서 Large Language Models (LLMs)를 활용한 Generative Retrieval (GR)이 일반적인 임베딩 기반의 검색을 대체하고 있으며, 이에 따라 엄격한 비즈니스 로직을 준수하는 STATIC 프레임워크가 속도 향상을 제공한다.
2026년 3월 1일 오후 4시 47분
이 튜토리얼에서는 LangGraph와 Pydantic을 활용한 고급 멀티 에이전트 통신 시스템을 구축한다. 공유 상태를 통해 에이전트들이 직접 호출하는 대신 통신할 수 있는 엄격한 ACP 스타일의 메시지 스키마를 정의하여 모듈화, 추적성, 그리고 생산용 오케스트레이션을 가능하게 한다. 세 가지 특수화된 에이전트를 구현한다.
2026년 3월 1일 오후 2시 20분
Generative AI의 발전은 잠재 확산 모델(LDMs)에 많이 의존하고 있습니다. 잠재 공간으로 데이터를 압축함으로써 모델이 효과적으로 확장될 수 있습니다. 그러나 낮은 정보 밀도는 잠재 변수를 학습하기 쉽게 만들지만 재구성 품질을 희생시키는 기본적인 트레이드오프가 존재합니다.
2026년 2월 27일 오후 10시 58분
본 튜토리얼에서는 오픈 소스 instruct 모델을 활용하여 계층적 플래너 에이전트를 구축한다. 이 구조화된 다중 에이전트 아키텍처에는 플래너 에이전트, 실행자 에이전트 및 집계자 에이전트가 포함되어 있으며 각 구성 요소가 복잡한 작업을 해결하는 데 특화된 역할을 수행한다. 플래너 에이전트를 사용하여 고수준 목표를 실행 가능한 단계로 분해한다.
2026년 2월 27일 오후 9시 18분
Perplexity사가 대규모 검색 작업에 최적화된 다국어 임베딩 모델 pplx-embed을 출시했다. 웹 규모 데이터의 복잡성과 잡음을 처리하기 위한 이 모델은 전용 임베딩 API에 대한 대안으로 제작되었다. 양방향 어텐션과 확산을 활용한 구조적 혁신이 돋보인다.
2026년 2월 26일 오후 11시 01분
Microsoft의 연구진은 CORPGEN을 소개했는데, 이는 계층적 계획과 메모리를 활용하여 자율형 디지털 직원을 통해 현실적인 조직 업무의 복잡성을 관리하는 데 사용되는 아키텍처에 중립적인 프레임워크이다. 기존의 AI 에이전트는 단일 작업에 대해 평가되지만, 실제 기업 환경에서는 복잡한 종속성을 가진 여러 작업을 동시에 처리해야 한다.
2026년 2월 26일 오후 7시 32분
이 게시물에서는 Amazon Nova 모델을 위한 강화 Fein-Tuning (RFT)을 탐구하며, 이는 모방이 아닌 평가를 통해 학습하는 강력한 맞춤 기술일 수 있습니다. RFT의 작동 방식, 감독형 Fein-Tuning 대비 사용 시기, 코드 생성부터 고객 서비스에 이르기까지의 실제 응용 사례, 완전 관리형 Amazon Bedrock에서 Nova Forge로의 다양한 구현 옵션 등을 다룰 것입니다. 또한 데이터 준비, 보상 함수 설계에 대한 실용적인 지침과 최적 결과 달성을 위한 모범 사례에 대한 실용적인 지침을 제공합니다.
2026년 2월 26일 오후 12시 48분AWS Blog
Nous Research 팀이 Hermes Agent를 공개하여 AI의 망각 문제를 해결하기 위해 디자인된 오픈소스 자율 시스템을 출시했습니다. 현재의 AI 환경에서 우리는 '일시적 에이전트'에 익숙해졌는데, 이는 매 채팅 세션마다 인지 클락을 재시작하는 잊어버리기 쉬운 조수입니다. LLMs는 뛌륭한 코더가 되었지만, 진정한 팀원으로 기능하는 데 필요한 지속적인 상태가 부족합니다.
2026년 2월 26일 오전 3시 01분
Tailscale과 LM Studio가 LM Link를 소개했다. 이는 개인 GPU 하드웨어 자산에 암호화된 포인트 투 포인트 액세스를 제공하며, AI 개발자들에게 생산성을 높여준다.
2026년 2월 25일 오후 11시 29분
최근 ETH 취리히 연구에서, AI의 'Context Engineering'이 중요한데 AGENTS.md 파일이 너무 상세해서 코딩 에이전트가 실패하는 것으로 밝혀졌다. 산업 리더들은 AGENTS.md를 코딩 에이전트의 최종 설정 지점으로 손꼽았는데, 이 파일이 복잡한 코드베이스를 안내하는데 있어 중요한 역할을 한다.
2026년 2월 25일 오후 7시 28분

최신뉴스 전체보기

YuanLab AI, 강력한 지능과 탁월한 효율성을 위해 만들어진 플래그십 멀티모달 MoE Foundation 모델인 Yuan 3.0 Ultra 공개

YuanLab AI가 오픈소스 Mixture-of-Experts (MoE) 대형 언어 모델인 Yuan 3.0 Ultra를 공개했다. 이 모델은 1조 개의 총 파라미터와 68.8조 개의 활성화된 파라미터를 특징으로 하며, 기업 성능을 최적화하고 사전 훈련 효율성을 높이는 것을 목표로 한다.

2026년 3월 5일 오전 12시 55분
기업 애플리케이션에 Amazon Quick Suite 챗 에이전트 임베드하기

기업은 애플리케이션에 안전한 임베드 챗을 구현하는 것이 어려운데, 이를 해결하기 위해 Quick Suite Embedding SDK를 사용한 챗 에이전트 임베드 솔루션을 제공한다.

2026년 3월 4일 오후 4시 20분AWS Blog
구글, 고성능 AI를 위한 비용 효율적인 Gemini 3.1 Flash-Lite 공개

구글이 Gemini 3.1 Flash-Lite를 공개했다. 고성능 작업에 최적화된 이 모델은 낮은 지연시간과 토큰 당 비용을 중점으로 고안되었다. 현재 Gemini API 및 Vertex AI를 통해 Public Preview로 이용 가능하다.

2026년 3월 3일 오후 1시 28분
Amazon Nova를 활용한 확장 가능한 가상 시착 솔루션 구축: 파트 1

이 글에서는 Amazon Nova Canvas에서 제공하는 가상 시착 기능을 탐구하며, 빠르게 시작할 수 있는 샘플 코드와 최상의 결과를 얻는 데 도움이 되는 팁을 제공합니다.

2026년 3월 3일 오전 11시 23분AWS Blog
특화된 AI 구축: 높은 지능 유지하는 Nova Forge 데이터 혼합

AWS China Applied Science팀이 어려운 VOC 분류 작업에 Nova Forge를 평가한 결과와 오픈 소스 모델과의 벤치마킹 결과를 공유합니다.

2026년 3월 2일 오후 2시 32분AWS Blog
NullClaw 만나보기: 1MB RAM에서 실행되며 2밀리초에 부팅되는 678KB Zig AI 에이전트 프레임워크

NullClaw는 Raw Zig로 완전한 스택 AI 에이전트 프레임워크를 구현하여 Python이나 Go와 같은 고수준 관리 언어에 의존하는 기존의 프레임워크와는 달리 런타임, 가상 머신, 가비지 컬렉터를 통해 상당한 오버헤드를 제거하고 있다.

2026년 3월 2일 오후 2시 12분
구글 AI가 소개한 STATIC: LLM 기반 생성 검색을 위한 948배 빠른 Sparse Matrix 프레임워크

산업용 추천 시스템에서 Large Language Models (LLMs)를 활용한 Generative Retrieval (GR)이 일반적인 임베딩 기반의 검색을 대체하고 있으며, 이에 따라 엄격한 비즈니스 로직을 준수하는 STATIC 프레임워크가 속도 향상을 제공한다.

2026년 3월 1일 오후 4시 47분
LangGraph 구조화된 메시지 버스, ACP 로깅, 그리고 지속적인 공유 상태 아키텍처를 활용한 생산용 멀티 에이전트 통신 시스템 설계 방법

이 튜토리얼에서는 LangGraph와 Pydantic을 활용한 고급 멀티 에이전트 통신 시스템을 구축한다. 공유 상태를 통해 에이전트들이 직접 호출하는 대신 통신할 수 있는 엄격한 ACP 스타일의 메시지 스키마를 정의하여 모듈화, 추적성, 그리고 생산용 오케스트레이션을 가능하게 한다. 세 가지 특수화된 에이전트를 구현한다.

2026년 3월 1일 오후 2시 20분
구글 딥마인드가 통합 잠재 변수 (UL)를 소개합니다: 확산 사전과 디코더를 사용하여 잠재 변수를 공동으로 규제하는 머신러닝 프레임워크

Generative AI의 발전은 잠재 확산 모델(LDMs)에 많이 의존하고 있습니다. 잠재 공간으로 데이터를 압축함으로써 모델이 효과적으로 확장될 수 있습니다. 그러나 낮은 정보 밀도는 잠재 변수를 학습하기 쉽게 만들지만 재구성 품질을 희생시키는 기본적인 트레이드오프가 존재합니다.

2026년 2월 27일 오후 10시 58분
오픈 소스 LLM을 활용한 계층적 플래너 AI 에이전트 구축의 코딩 구현

본 튜토리얼에서는 오픈 소스 instruct 모델을 활용하여 계층적 플래너 에이전트를 구축한다. 이 구조화된 다중 에이전트 아키텍처에는 플래너 에이전트, 실행자 에이전트 및 집계자 에이전트가 포함되어 있으며 각 구성 요소가 복잡한 작업을 해결하는 데 특화된 역할을 수행한다. 플래너 에이전트를 사용하여 고수준 목표를 실행 가능한 단계로 분해한다.

2026년 2월 27일 오후 9시 18분
Perplexity, 새로운 SOTA Qwen3 양방향 임베딩 모델 pplx-embed를 출시

Perplexity사가 대규모 검색 작업에 최적화된 다국어 임베딩 모델 pplx-embed을 출시했다. 웹 규모 데이터의 복잡성과 잡음을 처리하기 위한 이 모델은 전용 임베딩 API에 대한 대안으로 제작되었다. 양방향 어텐션과 확산을 활용한 구조적 혁신이 돋보인다.

2026년 2월 26일 오후 11시 01분
Microsoft Research, 자율형 AI 에이전트를 위한 다중 시계획 작업 관리 도구 CORPGEN 소개

Microsoft의 연구진은 CORPGEN을 소개했는데, 이는 계층적 계획과 메모리를 활용하여 자율형 디지털 직원을 통해 현실적인 조직 업무의 복잡성을 관리하는 데 사용되는 아키텍처에 중립적인 프레임워크이다. 기존의 AI 에이전트는 단일 작업에 대해 평가되지만, 실제 기업 환경에서는 복잡한 종속성을 가진 여러 작업을 동시에 처리해야 한다.

2026년 2월 26일 오후 7시 32분
Amazon Nova를 위한 강화 Fein-Tuning: 피드백을 통한 AI 가르치기

이 게시물에서는 Amazon Nova 모델을 위한 강화 Fein-Tuning (RFT)을 탐구하며, 이는 모방이 아닌 평가를 통해 학습하는 강력한 맞춤 기술일 수 있습니다. RFT의 작동 방식, 감독형 Fein-Tuning 대비 사용 시기, 코드 생성부터 고객 서비스에 이르기까지의 실제 응용 사례, 완전 관리형 Amazon Bedrock에서 Nova Forge로의 다양한 구현 옵션 등을 다룰 것입니다. 또한 데이터 준비, 보상 함수 설계에 대한 실용적인 지침과 최적 결과 달성을 위한 모범 사례에 대한 실용적인 지침을 제공합니다.

2026년 2월 26일 오후 12시 48분AWS Blog
Nous Research가 ‘Hermes Agent’를 발표하여 멀티레벨 메모리와 전용 원격 터미널 액세스 지원으로 AI 망각문제를 해결합니다

Nous Research 팀이 Hermes Agent를 공개하여 AI의 망각 문제를 해결하기 위해 디자인된 오픈소스 자율 시스템을 출시했습니다. 현재의 AI 환경에서 우리는 ‘일시적 에이전트’에 익숙해졌는데, 이는 매 채팅 세션마다 인지 클락을 재시작하는 잊어버리기 쉬운 조수입니다. LLMs는 뛌륭한 코더가 되었지만, 진정한 팀원으로 기능하는 데 필요한 지속적인 상태가 부족합니다.

2026년 2월 26일 오전 3시 01분
Tailscale 및 LM Studio, 개인 GPU 하드웨어 자산에 대한 암호화된 포인트 투 포인트 액세스인 ‘LM Link’를 소개

Tailscale과 LM Studio가 LM Link를 소개했다. 이는 개인 GPU 하드웨어 자산에 암호화된 포인트 투 포인트 액세스를 제공하며, AI 개발자들에게 생산성을 높여준다.

2026년 2월 25일 오후 11시 29분
AI 코딩 에이전트가 실패하는 이유: AGENTS.md 파일이 너무 상세하다는 ETH 취리히 연구 증명

최근 ETH 취리히 연구에서, AI의 ‘Context Engineering’이 중요한데 AGENTS.md 파일이 너무 상세해서 코딩 에이전트가 실패하는 것으로 밝혀졌다. 산업 리더들은 AGENTS.md를 코딩 에이전트의 최종 설정 지점으로 손꼽았는데, 이 파일이 복잡한 코드베이스를 안내하는데 있어 중요한 역할을 한다.

2026년 2월 25일 오후 7시 28분
Liquid AI의 새로운 LFM2-24B-A2B 하이브리드 아키텍처는 최신 LLM의 확장 병목 현상을 해결하기 위해 주의와 합성을 결합함

Liquid AI 팀이 발표한 LFM2-24B-A2B는 24억 개의 파라미터를 가진 모델로, 전력 소비 및 메모리 병목 현상의 한계에 부딪히는 산업에서, 파라미터 수보다 아키텍처 효율성에 대한 대화로 전환되고 있다.

2026년 2월 25일 오전 3시 37분
Asyncio를 이용한 실용적인 바이잔틴 장애 허용 시뮬레이션 코딩 구현과 악의적 노드, 지연 분석

이 튜토리얼에서는 asyncio를 사용하여 Practical Byzantine Fault Tolerance (PBFT) 시뮬레이터를 구현한다. 비동기 메시지 패싱, 구성 가능한 지연 및 프로토콜에서 의도적으로 벗어나는 바이잔틴 노드를 모델링하여 PBFT가 적대적 상황에서 합의를 달성하는 방법을 탐색한다.

2026년 2월 24일 오후 6시 12분
알리바바 Qwen 팀, Qwen 3.5 중간 모델 시리즈 출시: 더 작은 AI 모델이 더 똑똑함을 증명하는 생산 성능 중심

알리바바의 Qwen 3.5 중간 모델 시리즈 출시는 대규모 언어 모델의 발전이 초기에는 성능 향상을 이끌었지만, 이로 인해 상당한 인프라 부담과 한계적인 이득이 도입되었음을 신호한다. 작은 AI 모델이 더 똑똑하다는 점을 강조하며 Qwen 접근 방식의 변화를 시사한다.

2026년 2월 24일 오후 2시 33분
Amazon SageMaker 학습 작업에서 veRL과 Ray를 사용하여 CodeFu-7B 훈련하기

이 게시물에서는 Amazon SageMaker 학습 작업에서 veRL과 Ray를 사용하여 경쟁 프로그래밍을 위한 특수화된 70억 개 파라미터 모델인 CodeFu-7B를 훈련하는 방법을 보여줍니다. 이를 통해 데이터 준비, 분산 훈련 설정 및 종합적인 관측성을 다루며, 이 통합된 방법이 복잡한 강화 학습 훈련 작업에 대해 계산 규모와 개발자 경험을 모두 제공하는 방법을 소개합니다.

2026년 2월 24일 오전 10시 46분AWS Blog
LLMs를 사용하여 AWS에서 Dottxt 아웃라인으로 구조화된 출력 생성하기

Dottxt의 아웃라인 프레임워크를 활용하여 AWS Marketplace를 통해 Amazon SageMaker에서 구조화된 출력을 구현하는 방법을 탐구합니다.

2026년 2월 24일 오전 10시 42분AWS Blog
Amazon Bedrock가 중동 지역(UAE 및 바레인)을 위한 Anthropic의 Claude 모델을 위한 글로벌 교차 지역 추론 소개

Amazon Bedrock가 중동 지역 고객을 위해 Anthropic의 Claude Opus 4.6, Claude Sonnet 4.6, Claude Opus 4.5, Claude Sonnet 4.5 및 Claude Haiku 4.5를 제공한다. 글로벌 교차 지역 추론의 주요 이점과 실제 사용 사례, 생성 AI 애플리케이션을 구축하는 데 도움이 되는 코드 예제에 대해 안내한다.

2026년 2월 24일 오전 10시 33분AWS Blog
구글 딥마인드 연구원들, 우수한 알고리즘 수렴을 위해 비직관적인 VAD-CFR 및 SHOR-PSRO 변형 생성에 의미론적 진화 적용

구글 딥마인드 연구팀은 MARL 분야에서 진보를 위해 직관에 의존했던 기존의 방식을 변화시켜, CFR 및 PSRO와 같은 알고리즘을 수동으로 개선하는 대신 의미론적 진화를 적용하여 우수한 알고리즘 수렴을 이룩했다.

2026년 2월 24일 오전 4시 48분
RAG vs. Context Stuffing: 선택적 검색이 모든 데이터를 프롬프트에 넣는 것보다 더 효율적이고 신뢰할 수 있는 이유

최근의 언어 모델은 대규모 문맥 창으로 한 번에 처리할 수 있는 정보량을 크게 증가시켰다. 수십만 개 또는 수백만 개의 토큰을 처리할 수 있는 모델들이 등장함에 따라 검색 보완 생성(RAG)은 더 이상 필요하지 않다고 가정하기 쉽지만, 선택적 검색이 모든 데이터를 프롬프트에 넣는 것보다 더 효율적이고 신뢰할 수 있다.

2026년 2월 24일 오전 3시 07분
손라이가 아마존 세이지메이커 인공지능을 활용하여 정밀의학 임상시험 가속화하는 방법

손라이는 생명과학 AI 기업으로, 아마존과 협력하여 아마존 세이지메이커 AI를 활용한 견고한 MLOps 프레임워크를 구축하여 규제 환경에서 필요한 추적성과 재현성을 유지하면서 이러한 도전 과제를 해결하는 방법을 살펴봅니다.

2026년 2월 23일 오후 12시 31분AWS Blog
Hexagon이 Amazon SageMaker HyperPod를 활용하여 AI 모델 생산 가속화

Hexagon은 Amazon Web Services와 협력하여 Amazon SageMaker HyperPod의 모델 훈련 인프라를 사용하여 최첨단 세그멘테이션 모델의 사전 훈련을 통해 AI 모델 생산을 확장했다.

2026년 2월 23일 오후 12시 29분AWS Blog
팔란티어의 커뮤니티 에디션이 있을까요? 오픈플랜터를 만나보세요: 마이크로 감시용 오픈소스 재귀 인공지능 에이전트

오픈소스 프로젝트인 OpenPlanter는 개인들에게 데이터 추적 권한을 돌려주는 노력으로, 개발자 ‘Shin Megami Boson’이 만들었으며 재귀 언어 모델 조사 에이전트입니다. 사용자들의 마이크로 감시 요구를 지원하는 것이 목표입니다.

2026년 2월 21일 오후 4시 10분
NVIDIA, 44,711시간의 실제 인간 비디오 데이터로 훈련된 오픈소스 로봇 월드 모델 DreamDojo 공개

NVIDIA가 DreamDojo를 발표했다. 이는 44,711시간의 실제 인간 비디오 데이터로 훈련된 오픈소스 로봇 월드 모델로, 기존의 물리 엔진 대신 픽셀에서 직접 로봇 행동의 결과를 ‘꿈꾼다’.

2026년 2월 20일 오후 3시 30분
Amazon Quick 에이전트와 외부 도구를 Model Context Protocol (MCP)를 사용하여 통합하기

Amazon Quick과 통합하기 위한 MCP 서버 구축 및 검증 방법에 대한 여섯 단계 체크리스트를 소개하고, MCP 클라이언트 동작과 제약 조건에 대해 설명하는 Amazon Quick 사용자 가이드를 활용하는 “How to” 가이드입니다.

2026년 2월 20일 오전 11시 26분AWS Blog
NVIDIA, Dynamo v0.9.0 출시: FlashIndexer, 다중 모달 지원 및 NATS 및 ETCD 제거를 특징으로 하는 대규모 인프라 개편

NVIDIA가 Dynamo v0.9.0을 출시했다. 이 업데이트는 대규모 모델의 배포와 관리를 간소화하고 GPU가 다중 모달 데이터를 처리하는 방식을 개선했다. 이번 릴리스에서는 NATS와 etcd와 같은 무거운 종속성을 제거하고 있다.

2026년 2월 20일 오전 1시 51분
Amazon Bedrock AgentCore로 통합 지능 구축하기

이 글에서는 실제 고객 에이전트 및 지식 엔진 (CAKE)의 구현을 통해 Amazon Bedrock AgentCore를 사용하여 통합 지능 시스템을 구축하는 방법을 보여줍니다.

2026년 2월 18일 오후 6시 54분AWS Blog
Tavus가 Phoenix-4를 출시: 실시간 감성 지능과 생성 비디오 AI에 서브-600ms 지연 시간을 제공하는 가우시안 확산 모델

Tavus는 Phoenix-4를 출시하여 인공적인 비디오의 최종 영역인 ‘거친 계곡’을 개선하려고 합니다. Phoenix-4는 인간 상호 작용의 영혼을 부족한 AI 아바타를 보완하기 위해 설계된 새로운 생성 AI 모델입니다.

2026년 2월 18일 오후 6시 12분
구글 딥마인드, Lyria 3 출시: 포함된 가사와 보컬이 담긴 사용자 지정 트랙으로 사진과 텍스트를 변환하는 고급 음악 생성 AI 모델

구글 딥마인드가 음악 분야에서도 창의적 AI의 한계를 넓혔다. Lyria 3은 사진과 텍스트를 이용해 사용자 맞춤 트랙을 생성하는 고급 음악 생성 모델로, 복잡한 오디오 파형과 창의적 의도를 다루는데 큰 전환점을 제공한다.

2026년 2월 18일 오후 3시 10분
구글, AI 안경을 위한 새로운 Spatial UI 프레임워크 ‘Jetpack Compose Glimmer’ 발표

구글이 투명 디스플레이를 위한 인터페이스 구축을 탐구한 결과물인 ‘Jetpack Compose Glimmer’를 소개했다. 이는 픽셀이 아닌 빛을 활용한 디자인 시스템으로, AI 안경을 위해 특별히 개발되었다.

2026년 2월 18일 오전 4시 02분
Cohere가 Tiny Aya를 출시: 70개 언어를 지원하고 폰에서도 로컬로 실행되는 3B-파라미터 소형 언어 모델

Cohere AI Labs가 Tiny Aya를 발표했습니다. Tiny Aya는 70개 언어를 지원하며 3.35B-파라미터 아키텍처를 사용하여 최신 번역 및 생성 기능을 제공합니다. 이 릴리스에는 Tiny Aya Base(사전 훈련), Tiny Aya Global(균형 조정된 지시) 등 5가지 모델이 포함되어 있습니다.

2026년 2월 18일 오전 1시 33분
구글 딥마인드, 미래 경제를 위한 신흥 에이전틱 웹을 안전하게 하는 지능적 AI 위임을 위한 새로운 프레임워크 제안

구글 딥마인드 연구원들은 현재 대부분의 다중 에이전트 시스템이 환경이 변할 때 실패하는 취약한 하드 코딩 휴리스틱에 의존하고 있음을 지적하며, ‘에이전틱 웹’이 확장되려면 에이전트가 단순히 넘어선 더 복잡한 작업을 수행해야 한다고 주장하고 새로운 해결책을 제안했다.

2026년 2월 16일 오전 2시 04분
상태 기반 튜터 에이전트 설계를 위한 코딩 구현: 장기 기억, 의미 기억 및 적응 연습 생성

이 튜토리얼에서는 단기적인 채팅 상호작용을 넘어 지속적으로 학습하는 완전한 상태 기반 개인 튜터 에이전트를 구축한다. 사용자 선호도를 유지하고 학습의 약한 영역을 추적하며 응답 시 필요한 과거 콘텍스트만 선택적으로 회상하도록 시스템을 설계한다. 견고한 저장, 의미 검색 및 적응적 프롬프팅을 결합함으로써 우리는 어떻게 상태 기반 튜터 에이전트를 설계하는지 보여준다.

2026년 2월 16일 오전 1시 02분
Moonshot AI, Kimi.com에 5,000개 커뮤니티 스킬과 40GB 클라우드 스토리지를 갖춘 Kimi Claw 공식 출시

Moonshot AI가 OpenClaw 프레임워크의 기능을 브라우저로 직접 제공하기 시작했다. 새로운 Kimi Claw는 kimi.com에서 네이티브로 제공되며 개발자와 데이터 과학자에게 지속적인 24/7 AI 에이전트 환경을 제공한다. 이 업데이트로 프로젝트가 로컬 설정에서 클라우드 네이티브 강자로 이동했다.

2026년 2월 15일 오후 3시 33분
‘Kani-TTS-2’ 만나보세요: 3GB VRAM에서 실행되는 400M 파라미터 오픈 소스 텍스트 음성 변환 모델

nineninesix.ai 팀이 출시한 ‘Kani-TTS-2’는 효율성을 중시하는 새로운 오픈 소스 음성 생성 모델로, 작은 용량으로 고품질 음성 합성을 제공하며 음성 복제 기능을 지원한다.

2026년 2월 15일 오전 3시 17분
장기 AI 추론을 위한 자기 조직화 에이전트 메모리 시스템 구축 방법

이 튜토리얼에서는, 에이전트를 위한 자기 조직화 메모리 시스템을 구축하는 방법에 대해 알아본다. 이 시스템은 대화 내용을 단순히 저장하는 것을 넘어 상호작용을 지속적이고 의미 있는 지식 단위로 구조화한다. 추론과 메모리 관리가 명확히 분리되어 있어 정보를 추출, 압축, 정리하는 전용 구성 요소를 허용한다.

2026년 2월 14일 오후 3시 00분
Amazon Bedrock AgentCore 브라우저에서 프록시, 프로필 및 확장 기능을 사용하여 AI 에이전트 브라우징 사용자 정의

Amazon Bedrock AgentCore 브라우저에서 프록시 구성, 브라우저 프로필 및 브라우저 확장 기능 세 가지 새로운 기능을 소개했습니다. 이러한 기능을 통해 AI 에이전트가 웹과 상호 작용하는 방식을 세밀하게 제어할 수 있습니다. 구성 예와 실용적인 사용 사례를 통해 각 기능을 살펴보고 시작하는 데 도움이 되는 내용입니다.

2026년 2월 13일 오후 5시 57분AWS Blog
Kyutai가 Hibiki-Zero를 발표: GRPO 강화 학습을 사용한 A3B 매개 변수 동시 음성 대 음성 번역 모델, 어떤 단어 수준의 정렬 된 데이터도 필요하지 않음

Kyutai가 Hibiki-Zero를 발표했다. 이 모델은 동시 음성 대 음성 및 음성 대 텍스트 번역을 위한 새로운 시스템이다. 이 모델은 실시간으로 원본 음성을 대상 언어로 번역하며, 과거 모델과 달리 학습에 단어 수준의 정렬 된 데이터가 필요하지 않다.

2026년 2월 13일 오후 1시 05분
Amazon Bedrock 쓰로틀링 및 서비스 가용성 마스터하기: 포괄적인 가이드

이 포스트는 Amazon Bedrock을 사용할 때 응용 프로그램 신뢰성과 사용자 경험을 향상시킬 수 있는 강력한 오류 처리 전략을 구현하는 방법을 보여줍니다. 이 포스트에서는 이러한 오류에 대한 응용 프로그램의 성능 최적화 전략에 대해 깊이 파헤칩니다.

2026년 2월 11일 오전 10시 52분AWS Blog
구글 AI가 젠파이(Gemini) 기반으로 구축된 NAI(Natively Adaptive Interfaces)를 소개합니다

구글 리서치가 Natively Adaptive Interfaces (NAI)를 통해 접근성 있는 소프트웨어 구축 방법을 제안했습니다. NAI는 다중 모달 AI 에이전트가 주 사용자 인터페이스가 되어 응용 프로그램을 실시간으로 사용자의 능력과 문맥에 맞게 적응시키는 에이전틱 프레임워크입니다.

2026년 2월 10일 오후 7시 03분
아마존이 새로운 충족 센터를 위한 운영 준비 테스트 자동화를 위해 아마존 노바 모델을 활용하는 방법

아마존은 아마존 노바 모델을 활용하여 AI 기반 이미지 인식 솔루션을 구현하여 모듈 구성 요소의 감지 및 유효성 검사를 자동화하고 수동 확인 작업을 크게 줄이고 정확성을 향상시킵니다.

2026년 2월 10일 오후 1시 34분AWS Blog
알리바바, Zvec 오픈소스화: SQLite와 유사한 간편함과 고성능을 제공하는 임베디드 벡터 데이터베이스

알리바바의 Tongyi Lab 연구팀이 ‘Zvec’을 발표했다. 이는 엣지 및 장치 내 검색 워크로드를 대상으로 하는 오픈소스 인프로세스 벡터 데이터베이스로, SQLite와 유사한 라이브러리로 작동하여 외부 서비스나 데몬이 필요하지 않다. 검색 증강 생성(RAG)을 위해 설계되었다.

2026년 2월 10일 오전 10시 25분
자동 추론 검사 문구 다시 쓰기 챗봇 참조 구현

이 블로그 포스트는 자동 추론 검사 문구 다시 쓰기 챗봇의 구현 아키텍처에 대해 자세히 다룹니다.

2026년 2월 9일 오후 2시 34분AWS Blog
Amazon Bedrock AgentCore용 풀 스택 스타터 템플릿으로 에이전트 애플리케이션 개발 가속화

이 글에서는 Amazon Web Services (AWS) 계정에 Fullstack AgentCore Solution Template (FAST)를 배포하는 방법과 해당 아키텍처를 이해하는 방법, 그리고 요구 사항에 맞게 확장하는 방법을 알 수 있습니다. FAST를 사용하면 인증, 인프라 구성 (IaC), 배포 파이프라인 및 서비스 통합을 처리하면서 자체 에이전트를 구축하는 방법을 배울 수 있습니다.

2026년 2월 9일 오전 11시 40분AWS Blog
에이전트 간 협업: 다중 에이전트 시스템을 위한 Amazon Nova 2 Lite 및 Amazon Nova Act 활용

이 게시물은 Amazon Bedrock에서의 에이전트 간 협업이 어떻게 실제로 작동하는지 살펴보며, 계획을 위해 Amazon Nova 2 Lite를 사용하고 브라우저 상호작용을 위해 Amazon Nova Act를 사용하여 취약한 단일 에이전트 설정을 예측 가능한 다중 에이전트 시스템으로 변환하는 방법을 안내합니다.

2026년 2월 9일 오전 11시 00분AWS Blog
NVIDIA AI, 분류, 밀집 예측, 세분화 작업에 대한 C-RADIOv4 비전 백본 출시

NVIDIA의 C-RADIOv4는 SigLIP2, DINOv3, SAM3을 하나의 비전 백본으로 통합하여 밀집 또는 세분화 성능을 희생하지 않고 결합하는 방법에 대해 소개합니다. 이 모델은 세 강력한 선생님 모델을 학생 인코더로 결합하여 AM-RADIO 및 RADIOv2.5 라인을 확장하며 계산 비용을 유지하면서 성능을 향상시킵니다.

2026년 2월 6일 오후 7시 31분
Amazon Bedrock에서의 구조화된 출력: 스키마 호환 AI 응답

Amazon Bedrock의 구조화된 출력 기능은 제한된 디코딩을 통해 기반 모델로부터 스키마 호환성을 갖춘 검증된 JSON 응답을 얻는 방식을 근본적으로 변화시킵니다. 이 기사에서는 전통적인 JSON 생성의 어려움과 구조화된 출력이 이를 해결하는 방법을 탐구합니다.

2026년 2월 6일 오후 3시 12분AWS Blog
Waymo, Waymo World 모델 소개: 자율 주행을 위한 새로운 시뮬레이터 모델, Genie 3 기반

Waymo가 Waymo World 모델을 소개했다. 이는 Genie 3 기반으로 구축된 자율 주행 시뮬레이션을 위한 새로운 생성 모델로, 사실적이고 제어 가능한 다중 센서 주행 장면을 대규모로 제공한다. Waymo는 이미 거의 2억 마일의 완전 자율 주행을 보고하고 있다.

2026년 2월 6일 오후 2시 01분
Anthropic, 1백만 개의 콘텍스트, 에이전틱 코딩, 적응적 추론 제어 및 확장된 안전 도구 기능을 갖춘 Claude Opus 4.6 출시

Anthropic사는 Claude Opus 4.6을 출시했다. 이 모델은 장기적인 콘텍스트 추론, 에이전트식 코딩 및 고가치 지식 작업에 중점을 둔 최신 모델이다. 이 모델은 클로드 API 및 주요 클라우드 제공업체에서 이용 가능하다.

2026년 2월 5일 오후 5시 34분
Amazon Nova 다중 모달 임베딩 실용 가이드

Amazon Nova 다중 모달 임베딩을 미디어 자산 검색 시스템, 제품 발견 경험, 문서 검색 애플리케이션에 구성하고 사용하는 방법에 대해 배울 수 있습니다.

2026년 2월 5일 오후 3시 35분AWS Blog
구글, 액티브 이미지 이해를 위해 Gemini 3 플래시에 에이전틱 비전 소개

구글의 Gemini 3 플래시에서 새로운 에이전틱 비전 기능인 Agentic Vision이 소개되었습니다. 기존의 이미지 처리 모델들과는 달리 이 기능은 이미지 이해를 더 활발하게 수행하며 시각적 기반의 액티브 루프로 작동합니다.

2026년 2월 4일 오후 3시 16분
오프라인에서 보수적인 Q-Learning을 사용하여 안전 중요한 강화 학습 에이전트를 훈련시키는 코딩 구현

이 튜토리얼에서는 고정된 오프라인 데이터로만 학습하는 안전 중요한 강화 학습 파이프라인을 구축한다. 사용자 정책에서 행동 데이터셋을 생성하고, d3rlpy를 사용하여 행동 복제 기준선과 보수적인 Q-Learning 에이전트를 모두 훈련시킨다.

2026년 2월 3일 오후 11시 49분
케이티 스피바코브스키가 2026 카첼러 쉽 수상

MIT 학부생인 케이티 스피바코브스키는 올가을 영국 캠브리지 대학에서 석사 학위를 취득할 예정이다.

2026년 2월 3일 오후 5시 25분MIT News
Qwen 팀, 코딩 에이전트 및 로컬 개발을 위해 특별히 설계된 오픈 웨이트 언어 모델인 Qwen3-Coder-Next를 출시

Qwen 팀이 코딩 에이전트와 로컬 개발을 위해 디자인된 오픈 웨이트 언어 모델인 Qwen3-Coder-Next를 출시했다. 모델은 80B의 총 파라미터를 가지고 있지만 각 토큰 당 활성화되는 파라미터는 3B뿐이다.

2026년 2월 3일 오후 3시 47분
Amazon Quick Suite 사용자 지정 액션 커넥터를 사용하여 OpenAPI 사양을 이용해 텍스트 파일을 Google Drive에 업로드하는 방법

이 포스트에서는 Amazon API Gateway와 AWS Lambda를 사용하여 Google Drive를 Amazon Quick Suite 사용자 지정 커넥터와 통합하여 안전한 파일 업로드 솔루션을 구축하는 방법을 보여줍니다.

2026년 2월 3일 오후 2시 14분AWS Blog
기업에서의 AI 에이전트: Amazon Bedrock AgentCore의 모범 사례

이 게시물은 Amazon Bedrock AgentCore를 사용하여 기업 AI 에이전트를 구축하는 아홉 가지 필수적인 모범 사례를 탐색합니다. 초기 범위 설정부터 조직 확장까지, 규모에 맞게 AI 에이전트를 만들고 배포하며 관리하기 위해 필요한 서비스를 제공하는 AgentCore에 대해 실용적인 지침을 다룹니다.

2026년 2월 3일 오후 1시 44분AWS Blog
분산 피더레이티드 러닝의 코딩과 실험 분석: 고시 프로토콜과 차별화된 프라이버시

이 튜토리얼에서는 전통적인 중앙 집계 서버가 제거되고 완전히 분산된 P2P 고시 메커니즘으로 대체될 때 페더레이티드 러닝이 어떻게 작동하는지 탐색한다. 중앙화된 FedAvg와 분산된 Gossip 페더레이티드 러닝을 구현하고 로컬 모델 업데이트에 보정된 노이즈를 주입하여 클라이언트 측 차별화된 프라이버시를 소개한다. 제어된 실험을 통해 결과를 분석한다.

2026년 2월 1일 오후 8시 14분
Robbyant, LingBot World를 오픈 소스로 공개: 대화형 시뮬레이션과 실제 AI를 위한 실시간 세계 모델

Robbyant은 LingBot-World를 공개했는데, 이는 영상 생성을 상호작용 시뮬레이터로 변환하는 대규모 세계 모델로, 총체 AI, 자율 주행, 게임 등을 위한 환경을 렌더링하며 시각적으로 뛰어나고 반응성이 뛰어난 특징을 갖추고 있다.

2026년 1월 30일 오후 8시 53분
AI2, 감독 학습만 사용한 실용적 리포지토리 수준 자동화 워크플로우용 SERA 출시

AI2가 SERA(Soft Verified Efficient Repository Agents)를 소개했다. SERA는 감독 학습과 합성 경로만 사용하여 훨씬 큰 폐쇄 시스템과 맞추기 위해 개발된 코딩 에이전트 패밀리다. SERA는 AI2의 오픈 코딩 에이전트 시리즈의 첫 번째 릴리스이며, 주요 모델인 SERA-32B는…

2026년 1월 30일 오후 5시 53분
PyKEEN을 사용한 지식 그래프 임베딩의 학습, 최적화, 평가 및 해석에 대한 코딩 구현

이 튜토리얼에서는 PyKEEN을 사용하여 지식 그래프 임베딩에 대한 고급 워크플로우를 살펴보며 현대적인 임베딩 모델이 어떻게 실제로 훈련, 평가, 최적화 및 해석되는지를 탐색합니다. 실제 지식 그래프 데이터셋의 구조를 이해한 후 여러 임베딩 모델을 체계적으로 훈련하고 비교하며 하이퍼파라미터를 조정하고 분석합니다.

2026년 1월 30일 오후 4시 18분
Amazon SageMaker AI 프로젝트를 사용하여 Amazon S3 기반 템플릿으로 ModelOps 단순화하기

Amazon S3 기반 템플릿을 활용하여 ModelOps 워크플로우를 간소화하는 방법과, Service Catalog 접근 방식과 비교한 주요 이점을 살펴보며, GitHub 및 GitHub Actions과 통합된 사용자 정의 ModelOps 솔루션을 생성하는 방법을 시연하여 팀이 완전히 기능하는 ML 환경을 원 클릭으로 프로비저닝하는 방법을 보여줍니다.

2026년 1월 30일 오후 12시 18분AWS Blog
DeepSeek AI, 인쇄물 이해를 위한 레이아웃 인식 OCR을 발표

DeepSeek AI가 DeepSeek-OCR 2를 공개했습니다. 이는 레이아웃을 고려한 문서 이해 시스템으로, 인간이 복잡한 문서를 스캔하는 방식과 유사하게 페이지를 읽을 수 있도록 구조화합니다. 핵심 구성 요소는 DeepEncoder V2로, 2D 페이지를 1D 시퀀스로 변환하는 언어 모델 스타일의 트랜스포머입니다.

2026년 1월 30일 오전 3시 21분
Kornia를 활용한 미분 가능한 컴퓨터 비전의 코딩 심층 탐구: 기하 최적화, LoFTR 매칭, GPU 증강 활용

PyTorch를 이용해 현대적이고 미분 가능한 컴퓨터 비전을 구축하는 방법을 보여주는 Kornia 튜토리얼을 구현하고, GPU 가속화된 동기화된 이미지, 마스크, 키포인트 증강 파이프라인을 구축한 후 그래디언트 하강을 통해 직접 호모그래피를 최적화하는 미분 가능한 기하와 LoFTR을 통한 특징 매칭을 소개합니다.

2026년 1월 30일 오전 2시 24분
안트 그룹이 LingBot-VLA를 발표, 현실 세계 로봇 조작을 위한 비전 언어 액션 기반 모델

안트 그룹의 LingBot-VLA는 현실 세계에서 실제 로봇 조작을 대상으로 하는 비전 언어 액션 기반 모델이다. 9개의 듀얼 암 로봇을 제어할 수 있는 단일 비전 언어 액션 모델을 구축하는 방법에 대한 연구 결과이며, 약 20,000 시간의 텔레오퍼레이션 양쪽 손 데이터로 학습되었다.

2026년 1월 29일 오후 7시 02분
구글 딥마인드가 알파지놈 공개: 퓨전 트랜스포머와 U-Net을 활용한 통합 시퀀스-펑션 모델을 통해 인간 게놈 해독

구글 딥마인드가 알파지놈을 소개했다. 이는 시퀀스에서 기능으로의 모델링을 위해 디자인된 통합 딥러닝 모델로, 인간 게놈 모델링 방식의 중대한 변화를 나타낸다.

2026년 1월 29일 오전 2시 46분
MBZUAI, K2 Think V2 발표: 수학, 코드, 과학을 위한 완전한 주권을 갖춘 70B 추론 모델

MBZUAI 연구진이 K2 Think V2를 발표했다. 이는 완전한 주권을 갖춘 추론 모델로, 투명한 훈련 파이프라인을 통해 최신 시스템과 경쟁하는 것을 목표로 한다.

2026년 1월 28일 오후 4시 17분
텐센트 훈원, 고성능 LLM 추론 오퍼레이터 라이브러리 HPC-Ops 공개

텐센트 훈원이 HPC-Ops를 공개했다. 이는 대규모 언어 모델 추론 아키텍처 장치를 위한 제작용 오퍼레이터 라이브러리로, Attention, Grouped GEMM, Fused MoE와 같은 핵심 오퍼레이터를 위한 낮은 수준의 CUDA 커널에 초점을 맞추고 있다. HPC-Ops는 기존 추론 스택에 통합할 수 있도록 간결한 C 및 Python API를 통해 이러한 오퍼레이터를 노출시킨다.

2026년 1월 28일 오전 1시 23분
DSGym는 데이터 과학 에이전트를 구축하고 평가하기 위한 재사용 가능한 컨테이너 기반 기본체를 제공합니다

DSGym은 스탠퍼드 대학, Together AI, 더크 대학, 하버드 대학의 연구진들이 소개한 프레임워크로, 1,000개 이상의 데이터 과학 과제를 전문가가 선별한 정답과 함께 평가하고 훈련합니다.

2026년 1월 27일 오후 2시 52분
Amazon Quick Suite와 Bedrock AgentCore를 활용한 지능형 계약 관리 솔루션 구축하기

이 블로그 포스트는 Amazon Quick Suite를 기본 계약 관리 솔루션으로 사용하고 고급 다중 에이전트 기능을 갖춘 Amazon Bedrock AgentCore를 추가한 지능형 계약 관리 솔루션을 구축하는 방법을 소개합니다.

2026년 1월 27일 오전 11시 28분AWS Blog
Haystack로 구동되는 멀티 에이전트 시스템이 사건을 감지하고 메트릭 및 로그를 조사하며 생산용 사건 리뷰를 완성하는 방법

이 튜토리얼에서는 Haystack이 고급, 에이전트형 AI 시스템을 구축하는 방법을 보여줍니다. 완전히 실행 가능한 상태에서 장난감 예제를 훨씬 뛰어넘는 시스템을 설계하는 방법을 설명하며, 오케스트레이션, 상태 기반 의사 결정, 도구 실행 및 구조화된 제어 흐름을 강조하는 일관된, 끝까지 완성된 설정에 초점을 맞춥니다.

2026년 1월 26일 오후 9시 59분
AWS AppSync 이벤트를 활용한 서버리스 AI 게이트웨이 아키텍처 구축

이 포스트에서는 AppSync 이벤트를 사용하여 능력있고 서버리스 AI 게이트웨이 아키텍처의 기반을 구축하는 방법에 대해 설명합니다. AWS 서비스와의 통합 방법을 탐색하여 AI 게이트웨이 아키텍처에서 제공되는 기능을 포괄적으로 다룹니다. 또한 샘플 코드로 여러분의 계정에서 시작할 수 있도록 안내합니다.

2026년 1월 26일 오후 12시 20분AWS Blog
StepFun AI가 소개한 Step-DeepResearch: 원자적 능력을 중심으로 구축된 비용 효율적인 심층 연구 에이전트 모델

StepFun은 웹 검색을 실제 연구 워크플로우로 변환하는데 목표를 둔 32B 파라미터 엔드 투 엔드 심층 연구 에이전트 Step-DeepResearch를 소개했다. 모델은 Qwen2.5 32B-Base 위에 구축되었으며 장기적인 추론, 도구 사용 및 구조화된 보고를 통한 웹 검색을 연구로 전환한다.

2026년 1월 25일 오후 4시 08분
기계 학습과 의미 임베딩이 CVE 취약점을 원시 CVSS 점수 이상으로 재정렬하는 방법

이 튜토리얼에서는 정적 CVSS 점수 이상의 취약점을 우선순위를 지정하기 위해 의미 이해와 기계 학습을 사용하는 AI 보조 취약점 스캐너를 구축합니다. 취약점 설명을 풍부한 언어적 자산으로 취급하고 현대적인 문장 변환기를 사용하여 그것들을 임베딩하며 이러한 표현을 구조 메타데이터와 결합하여 데이터 주도형 우선순위 점수를 생성합니다.

2026년 1월 24일 오전 12시 43분
토큰, 지연 및 도구 호출 예산 제약 조건 하에서 AI 에이전트가 무엇을 선택하는 방법?

이 튜토리얼에서는 토큰 사용, 지연 및 도구 호출 예산과 같은 실제 제약 조건에 대해 결과 품질을 균형 있게 고려하는 비용 인식적인 계획 에이전트를 구축한다. 에이전트는 여러 후보 작업을 생성하고 예상 비용과 이익을 평가한 후, 엄격한 예산 내에서 가치를 극대화하는 실행 계획을 선택하도록 설계된다.

2026년 1월 23일 오후 4시 30분
Qwen 연구진, Qwen3-TTS 공개: 실시간 지연 및 세밀한 음성 제어를 갖춘 오픈 멀티링구얼 TTS 스위트

알리바바 클라우드의 Qwen 팀이 Qwen3-TTS를 오픈소스로 공개했습니다. 이는 음성 클론, 음성 디자인, 고품질 음성 생성이라는 세 가지 핵심 작업을 대상으로 하는 멀티링구얼 텍스트 음성 모델 패밀리입니다. Qwen3-TTS는 12Hz 음성 토크나이저와 2개의 언어 모델 크기(0.6B, 1.7B)를 사용하며, 실시간 세밀한 음성 제어 기능을 제공합니다.

2026년 1월 23일 오전 1시 26분
FlashLabs 연구원들, Chroma 1.0 공개: 개인화 음성 클로닝을 지원하는 4B 실시간 음성 대화 모델

Chroma 1.0은 스피커 식별을 유지하면서 오디오를 입력으로 받아들이고 출력으로 반환하는 실시간 음성-음성 대화 모델이다. 낮은 대기 시간 상호작용과 높은 품질의 개인화된 음성 클로닝을 결합한 최초의 오픈 소스 음성 대화 시스템으로 소개된다.

2026년 1월 22일 오전 11시 22분
톰슨 로이터가 아마존 베드락 엔진코어로 에이전틱 플랫폼 엔지니어링 허브 구축하는 방법

톰슨 로이터의 플랫폼 엔지니어링팀이 수동 시스템에서 자동화된 에이전틱 시스템으로 전환하여 운영 생산성을 향상시키는 방법에 대해 설명합니다.

2026년 1월 22일 오전 6시 39분AWS Blog
Strands 에이전트를 사용하여 Meta의 Llama 4 및 Amazon Bedrock으로 다중 에이전트 솔루션 만들기

본문에서는 Strands 에이전트, Meta의 Llama 4 모델 및 Amazon Bedrock을 사용하여 다중 에이전트 비디오 처리 워크플로우를 구축하는 방법을 탐구하며, 전문화된 AI 에이전트들이 협력하여 비디오 콘텐츠를 자동으로 분석하고 이해하는 방법을 살펴봅니다. 이 솔루션을 소개하기 위해 Amazon SageMaker AI를 사용하여 코드를 안내할 것입니다.

2026년 1월 22일 오전 2시 47분AWS Blog
Salesforce AI, 미래 광학 흐름 예측 프레임워크 FOFPred 소개

Salesforce AI 연구팀이 FOFPred를 소개했다. FOFPred는 대형 비전 언어 모델과 확산 트랜스포머를 연결하여 제어 및 비디오 생성 환경에서 밀도 높은 움직임 예측을 위한 언어 주도형 광학 흐름 예측 프레임워크이다.

2026년 1월 21일 오후 5시 55분
AutoGluon이 앙상블링과 증류를 통해 제작용 타블러 모델에 현대 AutoML 파이프라인을 가능하게 하는 방법

AutoGluon을 사용하여 현대적인 AutoML 파이프라인을 구축하고 고급 타블러 머신러닝 모델을 생성하는 튜토리얼. 다양한 유형의 데이터셋을 활용하여 앙상블 모델을 훈련하고 성능을 평가하며 실시간 추론을 위해 모델을 최적화하는 방법을 소개.

2026년 1월 21일 오후 5시 07분
Liquid AI, 1.2B 파라미터 추론 모델 ‘LFM2.5-1.2B-Thinking’ 출시: 기기 내 1GB 미만 용량

Liquid AI가 1.2B 파라미터 추론 모델 ‘LFM2.5-1.2B-Thinking’을 출시했다. 최신 폰에서 약 900MB 용량으로 완전히 기기 내에서 실행되며, 구조화된 추론 트레이스, 도구 사용, 수학에 중점을 둔다.

2026년 1월 21일 오후 12시 43분
Zhipu AI, 효율적인 로컬 코딩 및 에이전트용 30B-A3B MoE 모델인 GLM-4.7-Flash 발표

Zhipu AI가 GLM-4.7-Flash를 발표했다. 이 모델은 로컬에서 실행하기에 실용적이며 강력한 코딩 및 추론 성능을 원하는 개발자들을 대상으로 한다. 30B-A3B MoE 모델로, 30B 클래스에서 가장 강력한 모델로 경량 배포를 위해 설계되었다.

2026년 1월 21일 오전 4시 54분
Amazon Bedrock 지식 베이스를 위한 다중 모달 검색 소개

이 포스트에서는 다중 모달 RAG 애플리케이션을 구축하는 방법을 안내합니다. 다중 모달 지식 베이스의 작동 방식, 콘텐츠 유형에 따라 적절한 처리 전략을 선택하는 방법, 콘솔 및 코드 예제를 사용하여 다중 모달 검색을 구성하고 구현하는 방법에 대해 배웁니다.

2026년 1월 21일 오전 3시 22분AWS Blog
End-to-End Latency Budgets, Incremental ASR, LLM Streaming, 및 실시간 TTS로 완전한 스트리밍 음성 에이전트 디자인하는 방법

이 튜토리얼에서는 현대적인 저지연 대화 시스템이 실시간으로 작동하는 방식을 모방하는 완전한 스트리밍 음성 에이전트를 구축합니다. 청크화된 오디오 입력 및 스트리밍 음성 인식부터 점진적 언어 모델 추론 및 스트리밍된 텍스트 음성 출력까지의 파이프라인을 시뮬레이션하며 각 단계에서 명시적으로 지연 시간을 추적합니다.

2026년 1월 20일 오후 1시 24분
Microsoft Research, OptiMind 출시: 자연어를 솔버용 최적화 모델로 변환하는 20B 파라미터 모델

Microsoft Research가 OptiMind를 출시했다. 이는 자연어로 된 복잡한 의사결정 문제를 최적화 솔버가 실행할 수 있는 수학적 공식으로 변환하는 AI 기반 시스템이다. 이는 전문가 모델러와 수일간의 작업이 필요했던 오퍼레이션 리서치의 병목 현상을 해결한다.

2026년 1월 20일 오후 1시 06분
Vercel, 10년간의 React와 Next.js 최적화 규칙을 갖춘 AI 코딩 에이전트를 위한 패키지 매니저 ‘Agent Skills’ 출시

Vercel이 AI 코딩 에이전트를 위한 패키지 매니저 ‘Agent Skills’를 출시했다. React와 Next.js 성능, 웹 디자인 검토, Vercel에서 배포 가능한 기능을 중점으로 하며, npm과 유사한 명령어로 스킬을 설치할 수 있다.

2026년 1월 19일 오전 12시 43분
NVIDIA, 자연스럽고 풀 더플렉스 대화를 위한 PersonaPlex-7B-v1 발표

NVIDIA의 연구진이 PersonaPlex-7B-v1을 발표했는데, 이는 자연스러운 음성 상호작용을 위한 풀 더플렉스 대화 모델로, 정확한 페르소나 제어를 목표로 한다. ASR→LLM→TTS에서 단일 풀 더플렉스 모델로 진화했다. 기존 음성 어시스턴트는 ASR이 음성을 텍스트로 변환하고, 언어 모델이 텍스트 답변을 생성한 후, 텍스트를 음성으로 변환한다.

2026년 1월 18일 오후 3시 48분
NVIDIA AI가 공개한 KVzap: 최신 기술을 사용한 KV 캐시 가지치기 방법, 손실 거의 없는 2배-4배 압축 제공

NVIDIA가 개발한 KVzap은 트랜스포머 디코더의 캐시 문제를 해결하는 방법으로, 거의 손실이 없는 2배-4배의 데이터 압축을 제공한다.

2026년 1월 16일 오전 6시 12분
아마존 베드락 가드레일로 생성적 AI 애플리케이션 안전하게 보호하기

아마존 베드락 가드레일을 활용하여 사용자 정의 다중 공급업체 생성적 AI 게이트웨이에 중앙 집중식 보호장치를 추가하여 이러한 도전 과제를 해결하는 방법을 소개합니다.

2026년 1월 16일 오전 12시 50분AWS Blog
Amazon Nova 다중 모달 임베딩을 활용한 창의적 자산 발견 확장

Amazon Nova 다중 모달 임베딩을 사용하여 특정 비디오 세그먼트를 검색하는 방법과, 170개의 게임 창작 자산 라이브러리에 대한 테스트에서 96.7%의 검색 성공률과 73.3%의 고정밀 검색률을 달성한 실제 사례를 살펴봅니다. 이 모델은 최소한의 성능 하락으로 여러 언어 간 강력한 크로스-언어 기능을 보여줍니다.

2026년 1월 16일 오전 12시 45분AWS Blog
DeepSeek AI 연구진, Engram 소개: 희소 LLMs를 위한 조건부 메모리 축

Transformers는 주의와 전문가 혼합을 사용하여 연산을 확장하지만, 지식 조회를 수행할 수 있는 기본 방법이 부족하다. DeepSeek의 새로운 Engram 모듈은 MoE와 함께 작동하는 조건부 메모리 축을 추가하여 이 간극을 정확히 겨냥한다.

2026년 1월 15일 오후 4시 54분
AutoScout24가 Amazon Bedrock을 활용하여 AI 에이전트 개발을 표준화하는 Bot Factory 구축

AutoScout24는 표준화된 AI 개발 프레임워크를 구축하여 안전하고 확장 가능한 AI 에이전트를 신속하게 배포할 수 있었습니다.

2026년 1월 15일 오전 6시 24분AWS Blog
Amazon SageMaker AI 모델 맞춤화 및 대규모 학습 기능으로 AI 개발 혁신

새로운 서버리스 모델 맞춤화 기능, 탄력적 학습, 체크포인트 없는 학습, 서버리스 MLflow가 결합되어 AI 개발 기간을 몇 달에서 몇 일로 단축시키는 방법을 탐구합니다.

2026년 1월 15일 오전 6시 13분AWS Blog
구글 AI가 개발자들을 위한 오픈 메디컬 AI 모델인 MedGemma-1.5를 최신 업데이트

구글 AI 연구팀이 MedGemma-1.5를 발표했다. 이 모델은 의료 영상, 텍스트 및 음성 시스템을 구축하고 지역 워크플로와 규정에 적응하려는 개발자들을 위한 오픈 출발점으로 제공된다.

2026년 1월 14일 오후 4시 30분
LLM 시대의 AI 관측성 층 이해하기

AI 관측성은 AI 시스템을 이해하고 모니터링하며 고유한 메트릭을 추적하여평가하는 능력을 의미합니다. 대형 언어 모델(LLMs) 및 다른 생성형 AI 응용 프로그램은 확률적이므로 고정된 투명한 실행 경로를 따르지 않습니다.

2026년 1월 13일 오후 11시 37분
Amazon Nova 다중 모달 임베딩을 활용한 Crossmodal 검색

Amazon Nova 다중 모달 임베딩은 전자 상거래 사례를 통해 Crossmodal 검색의 도전을 해결하는 방법을 탐색합니다. 전통적인 방법의 기술적 한계를 살펴보고 Amazon Nova 다중 모달 임베딩이 텍스트, 이미지 및 기타 모달 간의 검색을 가능하게 하는 방법을 시연합니다. 임베딩 생성, 쿼리 처리 및 성능 측정을 통해 Crossmodal 검색 시스템을 구현하는 방법을 알 수 있습니다.

2026년 1월 10일 오전 9시 06분AWS Blog