2026년 3월 8일 일요일
오늘의 신문
2026년 3월 8일 일요일 오늘의 신문
YuanLab AI가 오픈소스 Mixture-of-Experts (MoE) 대형 언어 모델인 Yuan 3.0 Ultra를 공개했다. 이 모델은 1조 개의 총 파라미터와 68.8조 개의 활성화된 파라미터를 특징으로 하며, 기업 성능을 최적화하고 사전 훈련 효율성을 높이는 것을 목표로 한다.
2026년 3월 5일 오전 12시 55분
기업은 애플리케이션에 안전한 임베드 챗을 구현하는 것이 어려운데, 이를 해결하기 위해 Quick Suite Embedding SDK를 사용한 챗 에이전트 임베드 솔루션을 제공한다.
2026년 3월 4일 오후 4시 20분AWS Blog
구글이 Gemini 3.1 Flash-Lite를 공개했다. 고성능 작업에 최적화된 이 모델은 낮은 지연시간과 토큰 당 비용을 중점으로 고안되었다. 현재 Gemini API 및 Vertex AI를 통해 Public Preview로 이용 가능하다.
2026년 3월 3일 오후 1시 28분
이 글에서는 Amazon Nova Canvas에서 제공하는 가상 시착 기능을 탐구하며, 빠르게 시작할 수 있는 샘플 코드와 최상의 결과를 얻는 데 도움이 되는 팁을 제공합니다.
2026년 3월 3일 오전 11시 23분AWS Blog
AWS China Applied Science팀이 어려운 VOC 분류 작업에 Nova Forge를 평가한 결과와 오픈 소스 모델과의 벤치마킹 결과를 공유합니다.
2026년 3월 2일 오후 2시 32분AWS Blog
NullClaw는 Raw Zig로 완전한 스택 AI 에이전트 프레임워크를 구현하여 Python이나 Go와 같은 고수준 관리 언어에 의존하는 기존의 프레임워크와는 달리 런타임, 가상 머신, 가비지 컬렉터를 통해 상당한 오버헤드를 제거하고 있다.
2026년 3월 2일 오후 2시 12분
산업용 추천 시스템에서 Large Language Models (LLMs)를 활용한 Generative Retrieval (GR)이 일반적인 임베딩 기반의 검색을 대체하고 있으며, 이에 따라 엄격한 비즈니스 로직을 준수하는 STATIC 프레임워크가 속도 향상을 제공한다.
2026년 3월 1일 오후 4시 47분
이 튜토리얼에서는 LangGraph와 Pydantic을 활용한 고급 멀티 에이전트 통신 시스템을 구축한다. 공유 상태를 통해 에이전트들이 직접 호출하는 대신 통신할 수 있는 엄격한 ACP 스타일의 메시지 스키마를 정의하여 모듈화, 추적성, 그리고 생산용 오케스트레이션을 가능하게 한다. 세 가지 특수화된 에이전트를 구현한다.
2026년 3월 1일 오후 2시 20분
Generative AI의 발전은 잠재 확산 모델(LDMs)에 많이 의존하고 있습니다. 잠재 공간으로 데이터를 압축함으로써 모델이 효과적으로 확장될 수 있습니다. 그러나 낮은 정보 밀도는 잠재 변수를 학습하기 쉽게 만들지만 재구성 품질을 희생시키는 기본적인 트레이드오프가 존재합니다.
2026년 2월 27일 오후 10시 58분
본 튜토리얼에서는 오픈 소스 instruct 모델을 활용하여 계층적 플래너 에이전트를 구축한다. 이 구조화된 다중 에이전트 아키텍처에는 플래너 에이전트, 실행자 에이전트 및 집계자 에이전트가 포함되어 있으며 각 구성 요소가 복잡한 작업을 해결하는 데 특화된 역할을 수행한다. 플래너 에이전트를 사용하여 고수준 목표를 실행 가능한 단계로 분해한다.
2026년 2월 27일 오후 9시 18분
Perplexity사가 대규모 검색 작업에 최적화된 다국어 임베딩 모델 pplx-embed을 출시했다. 웹 규모 데이터의 복잡성과 잡음을 처리하기 위한 이 모델은 전용 임베딩 API에 대한 대안으로 제작되었다. 양방향 어텐션과 확산을 활용한 구조적 혁신이 돋보인다.
2026년 2월 26일 오후 11시 01분
Microsoft의 연구진은 CORPGEN을 소개했는데, 이는 계층적 계획과 메모리를 활용하여 자율형 디지털 직원을 통해 현실적인 조직 업무의 복잡성을 관리하는 데 사용되는 아키텍처에 중립적인 프레임워크이다. 기존의 AI 에이전트는 단일 작업에 대해 평가되지만, 실제 기업 환경에서는 복잡한 종속성을 가진 여러 작업을 동시에 처리해야 한다.
2026년 2월 26일 오후 7시 32분
이 게시물에서는 Amazon Nova 모델을 위한 강화 Fein-Tuning (RFT)을 탐구하며, 이는 모방이 아닌 평가를 통해 학습하는 강력한 맞춤 기술일 수 있습니다. RFT의 작동 방식, 감독형 Fein-Tuning 대비 사용 시기, 코드 생성부터 고객 서비스에 이르기까지의 실제 응용 사례, 완전 관리형 Amazon Bedrock에서 Nova Forge로의 다양한 구현 옵션 등을 다룰 것입니다. 또한 데이터 준비, 보상 함수 설계에 대한 실용적인 지침과 최적 결과 달성을 위한 모범 사례에 대한 실용적인 지침을 제공합니다.
2026년 2월 26일 오후 12시 48분AWS Blog
Nous Research 팀이 Hermes Agent를 공개하여 AI의 망각 문제를 해결하기 위해 디자인된 오픈소스 자율 시스템을 출시했습니다. 현재의 AI 환경에서 우리는 '일시적 에이전트'에 익숙해졌는데, 이는 매 채팅 세션마다 인지 클락을 재시작하는 잊어버리기 쉬운 조수입니다. LLMs는 뛌륭한 코더가 되었지만, 진정한 팀원으로 기능하는 데 필요한 지속적인 상태가 부족합니다.
2026년 2월 26일 오전 3시 01분
Tailscale과 LM Studio가 LM Link를 소개했다. 이는 개인 GPU 하드웨어 자산에 암호화된 포인트 투 포인트 액세스를 제공하며, AI 개발자들에게 생산성을 높여준다.
2026년 2월 25일 오후 11시 29분
최근 ETH 취리히 연구에서, AI의 'Context Engineering'이 중요한데 AGENTS.md 파일이 너무 상세해서 코딩 에이전트가 실패하는 것으로 밝혀졌다. 산업 리더들은 AGENTS.md를 코딩 에이전트의 최종 설정 지점으로 손꼽았는데, 이 파일이 복잡한 코드베이스를 안내하는데 있어 중요한 역할을 한다.
2026년 2월 25일 오후 7시 28분

최신뉴스 전체보기

구글 AI, 엣지 배포용으로 만들어진 소형 다중 모달 모델 ‘Gemma 3n’ 출시

구글이 엣지 디바이스에 대규모 다중 모달 AI 기능을 제공하기 위해 디자인된 Gemma 3n을 소개했다. 이 모델은 텍스트, 이미지, 오디오, 비디오를 클라우드 컴퓨팅에 의존하지 않고 장치 내에서 처리하고 이해할 수 있다.

2025년 6월 27일 오전 1시 56분
Amazon Bedrock Guardrails에서 새로운 안전장치 계층을 활용해 책임감 있는 AI 맞춤 설정하기

이 포스트에서는 Amazon Bedrock Guardrails에서 제공하는 새로운 안전장치 계층을 소개하고, 이점 및 사용 사례를 설명하며, AI 애플리케이션에서 이를 구현하고 평가하는 방법에 대한 지침을 제공합니다.

2025년 6월 26일 오후 6시 41분AWS Blog
MIT와 NUS 연구진, 장기적 대화 에이전트를 위한 메모리 효율적인 프레임워크 MEM1 소개

MIT와 NUS 연구진은 메모리 사용량이 폭발하는 문제 해결을 위해 장기적인 대화 에이전트를 위한 메모리 효율적인 프레임워크 MEM1을 소개했다. 기존 시스템의 문제점을 보완하여 성능 향상과 더 나은 추론을 이끌어냈다.

2025년 6월 26일 오전 3시 17분
LLM 추론 트레이스에서의 개인정보 위험을 밝힌 새로운 AI 연구

새로운 AI 연구에 따르면, 개인 LLM 에이전트를 통해 민감한 사용자 데이터에 접근하는 LLM은 상황에 맞는 개인정보 이해 능력과 특정 사용자 정보를 공유할 적절성을 판단하는 능력에 대한 우려를 불러일으킨다. 대형 추론 모델은 작동하는 동안 도전을 제기한다.

2025년 6월 25일 오후 4시 16분
바이트댄스 연구원들, 6조 토큰으로 학습된 모델 중심의 코드 LLM ‘시드 코더’ 소개

바이트댄스 연구원들이 6조 토큰으로 학습된 모델 중심의 코드 LLM인 ‘시드 코더’를 소개했다. 코드 데이터는 LLM 학습에 중요하며 코딩 작업뿐만 아니라 더 넓은 추론 능력에도 도움을 준다. 오픈소스 모델들은 수작업 필터링과 전문가가 제작한 규칙에 의존하는 반면, 바이트댄스의 접근 방식은 시간이 많이 소요되고 편향적이며 여러 언어에 걸쳐 확장하기 어렵다.

2025년 6월 25일 오전 4시 17분
새로운 SageMaker AI Generative AI 도구로 LLM 훈련과 평가 강화하기

SageMaker AI 고객을 위해 텍스트 랭킹 및 질의응답 UI 템플릿을 소개합니다. SageMaker에서 이러한 템플릿을 설정하여 대규모 언어 모델 훈련을 위한 고품질 데이터셋을 만드는 방법에 대해 안내합니다.

2025년 6월 24일 오후 7시 44분AWS Blog
BAAI, OmniGen2 출시: 멀티모달 AI를 위한 통합 디퓨전 및 트랜스포머 모델

BAAI가 OmniGen2를 소개했는데, 이는 텍스트에서 이미지 생성, 이미지 편집, 주제 중심 생성을 하나의 트랜스포머 프레임워크 내에서 통합하는 차세대 오픈소스 멀티모달 생성 모델이다. 텍스트와 이미지 생성의 모델링을 분리하고 반사적 훈련 메커니즘을 통합하며 특별히 설계된 기능을 구현함으로써 혁신을 이루었다.

2025년 6월 24일 오후 7시 21분
바이트댄스 연구원들, 프로토리즈닝 소개: 논리 기반 프로토타입을 통한 LLM 일반화 향상

바이트댄스 연구자들이 프로토리즈닝을 소개했는데, 이는 LLM(대규모 언어 모델)의 일반화를 논리 기반 프로토타입을 통해 향상시키는 것이다. 최근 LRM의 교차 도메인 추론이 중요한데, 특히 Long CoT 기술을 사용해 훈련된 모델들은 다양한 도메인에서 인상적인 일반화를 보여준다.

2025년 6월 24일 오후 5시 37분
중국 과학원의 새로운 LLM인 Stream-Omni, Cross-Modal 실시간 AI용

중국 과학원이 개발한 Stream-Omni은 텍스트, 비전, 음성 모달리티에서 우수한 성능을 보이며 시각 정보에 기반한 음성 상호작용을 지원하는 omni-modal LMMs의 한계를 극복하기 위한 기술이다.

2025년 6월 24일 오후 5시 16분
NewDay, 90% 이상 정확도를 자랑하는 생성 모델 기반 고객 서비스 에이전트 어시스트 구축

NewDay는 4백만 명의 고객에게 신용 책임성을 제공하고 자체 기술 시스템을 통해 우수한 고객 경험을 제공함. NewDay의 연락 센터는 연간 250만 통화를 처리하며, 90% 이상의 정확도로 작동하는 생성 모델 기반 고객 서비스 에이전트 어시스트를 구축함.

2025년 6월 24일 오전 11시 22분AWS Blog
CMU 연구진, 확장 가능한 웹 에이전트 훈련을 위한 그래프 기반 프레임워크 ‘Go-Browse’ 소개

CMU 연구진이 웹 환경을 위한 디지털 에이전트들이 동적 웹 인터페이스에 어려움을 겪는 이유와 이를 극복하기 위해 그래프 기반 프레임워크 ‘Go-Browse’를 소개했다. 이 프레임워크는 확장 가능한 웹 에이전트 훈련을 위해 개발되었으며, 웹 페이지 탐색, 클릭, 양식 제출 등의 작업을 자동화한다.

2025년 6월 24일 오전 3시 47분
Sakana AI, 소규모 강화 학습을 사용하여 LLM에서 추론 효율적으로 축소하는 Reinforcement-Learned Teachers (RLTs) 소개

Sakana AI가 강화 학습을 활용한 새로운 프레임워크 RLTs를 소개했다. 이는 효율성과 재사용성에 중점을 둔 언어 모델의 추론을 위한 방법이다. 기존 강화 학습 방법은 희소 보상 신호와 높은 계산 요구로 인해 문제가 있었지만, RLTs는 최적화된 교사 역할을 하는 작은 모델을 훈련시켜 선생님-학생 패러다임을 재정의한다.

2025년 6월 23일 오후 5시 33분
Amazon Nova 및 Amazon Bedrock 데이터 자동화로 적극적인 멀티모달 AI 어시스턴트 구축하기

이 게시물에서는 RAG(검색 증강 생성), 멀티툴 오케스트레이션, LangGraph를 통한 조건부 라우팅과 같은 적극적인 워크플로 패턴이 어떻게 인공지능 및 기계 학습(AI/ML) 개발자와 기업 아키텍트가 채택하고 확장할 수 있는 엔드 투 엔드 솔루션을 가능하게 하는지를 보여줍니다. 재정 관리 AI 어시스턴트의 예제를 통해, 수입 통화(오디오) 및 프레젠테이션 슬라이드(이미지)를 분석하고 관련 재정 데이터 피드와 함께 양적 연구 및 근거 있는 재정 상담을 제공할 수 있는 방법을 안내합니다.

2025년 6월 23일 오후 1시 36분AWS Blog
DeepSeek 연구원들이 ‘nano-vLLM’이라는 개인 프로젝트를 오픈소스로 공개: 처음부터 구축된 가벼운 vLLM 구현

DeepSeek 연구자들이 ‘nano-vLLM’을 공개했다. 이는 가벼우면서도 효율적인 vLLM(가상 대형 언어 모델) 엔진의 최소주의적이고 효율적인 구현으로, 간결하고 읽기 쉬운 코드베이스에 고성능 추론 파이프라인의 본질을 응축시켰다.

2025년 6월 22일 오전 3시 26분
텍사스 에이엠 대학 연구진, 고속 유동 시뮬레이션을 위한 ‘ShockCast’라는 두 단계 머신러닝 방법 소개

텍사스 에이엠 대학 연구진이 고속 유동 시뮬레이션을 위한 ‘ShockCast’라는 머신러닝 방법을 소개했다. ‘ShockCast’는 신경망 시간 재메싱과 함께 고속 유동을 시뮬레이션하기 위해 고안되었으며, 충격파와 팽창팬과 관련된 빠른 변화로 인해 고속 유체 유동 모델링에 독특한 도전점이 있다.

2025년 6월 22일 오전 1시 43분
Mistral AI, Mistral Small 3.2 출시: AI 통합을 위한 강화된 명령 따르기, 반복 감소 및 강화된 함수 호출

Mistral AI가 Mistral Small 3.2를 출시했다. 이 버전은 반복적인 오류 최소화, 강화된 강인성, 사용자 상호작용 향상을 위해 설계되었으며 AI 모델이 더욱 복잡한 계산 작업에 필수적해지는 가운데, 실제 시나리오에 매끄럽게 통합될 수 있도록 지속적으로 업그레이드되고 있다.

2025년 6월 21일 오후 5시 31분
Flow 매칭 모델에서의 일반화는 근사로부터 나온다, 확률성이 아닌

Deep generative models의 일반화 능력과 기작을 이해하는 것이 어려운데, generative models이 실제로 일반화를 하는지 여부에 대한 이해가 중요하다. Flow matching 모델에서의 일반화는 근사에서 나오며 확률성과는 무관하다.

2025년 6월 21일 오후 2시 19분
메타 AI 연구자들, 언어 모델링 벤치마크에서 토큰 기반 트랜스포머를 능가하는 확장 가능한 바이트 수준 자기회귀 U-Net 모델 소개

언어 모델링은 자연어 처리에서 중요한 역할을 하며, 기계가 인간 언어와 유사한 텍스트를 예측하고 생성할 수 있게 합니다. 최근 대규모 트랜스포머 시스템으로 발전한 모델들 중 하나인 확장 가능한 바이트 수준 자기회귀 U-Net 모델이 토큰 기반 트랜스포머를 능가하는 것으로 나타났다.

2025년 6월 21일 오전 2시 43분
Amazon SageMaker HyperPod 및 Amazon SageMaker Studio를 활용하여 foundation 모델 학습 및 추론 가속화

SageMaker HyperPod 및 SageMaker Studio를 사용하여 데이터 과학자들의 개발 경험을 향상시키고 가속화하는 방법에 대해 설명합니다. SageMaker Studio의 IDE 및 도구와 Amazon EKS를 통한 SageMaker HyperPod의 확장성 및 내구성을 결합하여 중앙 집중식 시스템의 설정을 단순화합니다. AWS 서비스가 제공하는 거버넌스 및 보안 기능을 활용합니다.

2025년 6월 19일 오후 3시 26분AWS Blog
MiniMax AI가 MiniMax-M1을 공개: 장기 문맥 및 강화 학습을 위한 456B 파라미터 하이브리드 모델

AI 모델의 장기 문맥 추론 도전, AI가 현실 세계와 소프트웨어 개발 환경에서 더 많은 책임을 맡을 때, 연구자들은 장기 문맥과 강화 학습에 적합한 아키텍처를 찾고 있다.

2025년 6월 19일 오후 1시 40분
ReVisual-R1: 장기적이고 정확하며 심사숙고한 추론을 이루는 오픈 소스 7B 멀티모달 대형 언어 모델 (MLLMs)

최근 텍스트 기반 언어 모델의 발전으로 RL이 강력한 추론 기술 개발에 도움이 되는 것을 입증했다. 이에 영감을 받아 연구자들은 시각적 및 텍스트 입력 간 추론 능력을 향상시키기 위해 동일한 RL 기술을 MLLMs에 적용하려고 시도해왔지만 성공하지 못했다.

2025년 6월 19일 오전 2시 54분
HtFLlib: 이질적 페더레이티드 러닝 방법을 평가하기 위한 통합 벤치마킹 라이브러리

AI 연구 기관들은 고유한 요구 사항에 맞는 이질적 모델을 개발하지만, 훈련 중 데이터 부족 문제에 직면한다. 기존 페더레이티드 러닝은 동질적 모델 협업만 지원하므로, 고객이 고유한 요구 사항에 맞는 모델 아키텍처를 개발할 때 문제가 발생한다.

2025년 6월 18일 오후 9시 54분
작은 언어 모델(SLMs)이 기계학습 AI의 효율성, 비용, 실용적 배치 재정의할 준비가 되어있다

작은 언어 모델(SLMs)이 인간과 유사한 능력과 대화 기술로 널리 존경받지만, 기계학습 AI 시스템의 성장으로 인해 반복적이고 전문화된 작업에 점점 더 활용되고 있다. 주요 IT 기업의 절반 이상이 이미 AI 에이전트를 사용하고 있으며, 상당한 자금과 예상된 투자를 받고 있다.

2025년 6월 18일 오후 1시 27분
제너레이티브 AI로 위협 모델링 가속화

제너레이티브 AI가 취약성 식별을 자동화하고 포괄적인 공격 시나리오를 생성하며 맥락을 제공하는 방식으로 위협 모델링을 혁신할 수 있는 방법을 탐구합니다.

2025년 6월 18일 오후 12시 05분AWS Blog
인공 신경망 오토인코더의 내부 작동을 드러내는 잠재 벡터 필드의 중요성

오토인코더와 잠재 공간은 고차원 데이터의 압축 표현을 학습하는 데 사용되는데, 이들은 데이터를 저차원 잠재 공간으로 투영하고 다시 원래 형태로 재구성하는 인코더-디코더 구조를 사용한다. 이 논문에서는 잠재 벡터 필드가 신경 오토인코더의 내부 작동을 어떻게 드러내는지에 대해 설명한다.

2025년 6월 18일 오전 4시 37분
AREAL: 대규모 추론 모델 학습 가속화를 위한 완전 비동기 강화 학습

대규모 추론 모델 학습을 가속화하기 위해 완전 비동기 강화 학습을 사용하는 AREAL 소개. 대규모 추론 모델은 수학 및 코딩과 같은 복잡한 문제에 대한 성능을 향상시키기 위해 최종 답변을 제공하기 전에 중간 “사고” 단계를 생성한다.

2025년 6월 18일 오전 4시 16분
Fine-Tuning에서 Prompt Engineering으로: 효율적인 트랜스포머 적응을 위한 이론과 실제

Self-attention을 이용한 대규모 트랜스포머 모델의 섬세한 조정 도전, 효율적인 트랜스포머 적응을 위한 이론과 실제에 대한 내용 소개.

2025년 6월 17일 오후 9시 14분
혁신적인 금융 서비스 리더가 올바른 AI 솔루션을 찾다: Robinhood와 Amazon Nova

Robinhood는 생성 모델 AI와 Amazon Nova를 사용하여 금융을 민주화하고 실시간 시장 통찰력을 제공한다.

2025년 6월 17일 오전 10시 58분AWS Blog
EPFL 연구진, LLMs에서 평생 학습 모델 편집을 위한 확장 가능한 프레임워크 MEMOIR 소개

EPFL 연구진은 폭넓은 데이터셋에서의 사전 학습을 통해 다양한 작업에 뛰어난 성능을 보이는 LLMs가 배포 중에 오래된 정보나 편향을 반영할 수 있어 지속적인 지식 업데이트가 필요한 문제를 제기. 기존의 파인 튜닝 방법은 비용이 많이 들고 재앙적인 망각에 취약한데, EPFL은 이에 대처할 수 있는 MEMOIR 프레임워크를 소개함.

2025년 6월 17일 오전 12시 41분
OpenBMB가 MiniCPM4를 출시: 희소 어텐션과 빠른 추론을 갖춘 엣지 장치용 초 효율적 언어 모델

대형 언어 모델은 AI 시스템에서 중요한 역할을 하고 있지만, 클라우드 인프라를 필요로 하기 때문에 레이턴시, 높은 비용 및 개인 정보 보호 문제가 발생한다. OpenBMB의 MiniCPM4는 희소 어텐션과 빠른 추론을 통해 엣지 장치를 위한 초 효율적인 언어 모델을 제공한다.

2025년 6월 16일 오후 1시 39분
StepFun이 Step-Audio-AQAA를 소개합니다: 자연스러운 음성 상호작용을 위한 완전한 엔드 투 엔드 오디오 언어 모델

Step-Audio-AQAA는 음성 인식, 자연어 이해, 오디오 생성을 결합한 오디오 언어 모델로, 텍스트 변환에 의존하지 않고 음성 상호작용을 위해 설계되었습니다.

2025년 6월 16일 오전 4시 17분
EPFL 연구진, CVPR에서 FG2 발표: GPS 거부 환경에서 자율 주행 차량의 위치 오차 28% 감소하는 새 AI 모델 공개

EPFL 연구진이 CVPR에서 GPS가 작동하지 않는 도심 환경에서 자율 주행 차량의 위치 오차를 28% 줄이는 FG2라는 새로운 AI 모델을 발표했다. 고층 빌딩으로 가려진 GPS 신호로 인해 위치 오차가 발생하는 도시에서 자율 주행 차량이나 배송 로봇에게는 중요한 기술이다.

2025년 6월 16일 오전 12시 26분
OThink-R1: LLMs에서 중복 계산을 줄이기 위한 이중 모드 추론 프레임워크

최근 LLMs는 복잡한 작업을 해결하기 위해 상세한 CoT 추론을 사용하여 최고의 성능을 달성하고 있지만, 많은 간단한 작업들은 더 적은 토큰을 사용하는 작은 모델로 해결될 수 있어서 이러한 복잡한 추론이 불필요해졌다. 이는 우리가 쉬운 문제에 대해 빠르고 직관적인 응답을 사용하는 인간의 사고와 일치한다.

2025년 6월 15일 오전 2시 26분
내부 일관성 최대화 (ICM): LLM을 위한 레이블 없는 비지도 학습 프레임워크

사전 훈련된 언어 모델(LMs)을 위한 사후 훈련 방법은 인간 감독을 필요로 하는데, 이는 작업과 모델 행동이 매우 복잡해지면 신뢰성이 떨어지는 한계를 가지고 있다. 이에 레이블 없는, 비지도 학습 프레임워크인 내부 일관성 최대화(ICM)가 소개되었다.

2025년 6월 14일 오후 4시 28분
Sakana AI, 작업 설명에 기반한 작업별 LLM 어댑터 생성하는 Text-to-LoRA (T2L) 소개

Sakana AI는 Text-to-LoRA (T2L)을 소개했다. 이는 작업 설명에 기반해 작업별 LLM 어댑터를 생성하는 하이퍼네트워크로, 새로운 특화 작업에 대한 모델 적용을 단순화한다.

2025년 6월 14일 오전 1시 03분
OpenThoughts: 추론 모델을 위한 확장 가능한 지도학습 Feine-Tuning SFT 데이터 정제 파이프라인

최근 추론 모델들은 지도학습 Feine-Tuning (SFT)과 강화 학습 (RL)과 같은 기술을 활용하여 수학, 코딩, 과학 분야에서 높은 성능을 보여주고 있으나 이러한 선두적인 추론 모델들의 완벽한 방법론은 공개되어 있지 않다.

2025년 6월 13일 오후 11시 49분
Amazon Bedrock 사용하여 Qwen 모델 배포하기

이제 Qwen2, Qwen2_VL, Qwen2_5_VL 아키텍처의 사용자 정의 가중치를 가져올 수 있으며, Qwen 2, 2.5 Coder, Qwen 2.5 VL, QwQ 32B와 같은 모델을 포함합니다. 이 게시물에서는 Amazon Bedrock Custom Model Import를 사용하여 Qwen 2.5 모델을 배포하는 방법을 다루며, AWS 인프라 내에서 최신 AI 기능을 효율적인 비용으로 활용할 수 있습니다.

2025년 6월 13일 오후 1시 17분AWS Blog
Apple 연구원들, 퍼즐 기반 평가를 통해 대규모 추론 모델의 구조적 결함 발표

Apple 연구원들은 대규모 추론 모델인 LRMs의 구조적 결함을 퍼즐 기반 평가를 통해 밝혔다. 최근 AI는 인간과 유사한 사고를 시뮬레이션하는데 초점을 맞춘 고급 모델로 발전하고 있다.

2025년 6월 13일 오전 12시 32분
구글 AI, 정확한 지역 기후 위험 예측을 위한 하이브리드 AI-물리 모델 발표

전통적인 기후 모델링의 한계를 극복하기 위해 구글 AI가 하이브리드 AI-물리 모델을 개발했다. 이 모델은 지역 기후 위험을 더 정확하게 예측하고 더 나은 불확실성 평가를 제공한다.

2025년 6월 12일 오후 11시 46분
Amazon SageMaker HyperPod를 활용하여 Articul8의 도메인 특화 모델 개발 가속화

Articul8가 일반적인 LLM을 능가하는 도메인 특화 모델로 기업용 생성적 AI를 재정의하고, Amazon SageMaker HyperPod가 이를 어떻게 가속화했는지 살펴봅니다. Articul8의 반도체 모델은 최고의 오픈 소스 모델 대비 2배 높은 정확도를 달성하며 배포 시간을 4배 단축했습니다.

2025년 6월 12일 오후 1시 48분AWS Blog
Meta AI, V-JEPA 2 공개: 이해, 예측, 계획을 위한 오픈 소스 자기 지도 세계 모델

Meta AI가 V-JEPA 2를 소개했다. 이는 인터넷 규모의 비디오에서 학습하고 강력한 시각적 이해, 미래 상태 예측, 제로샷 계획을 가능하게 하는 확장 가능한 오픈 소스 세계 모델이다.

2025년 6월 12일 오전 4시 09분
CURE: LLM에서 코드 및 단위 테스트 생성을 위한 강화 학습 프레임워크

대형 언어 모델(Large Language Models, LLMs)은 강화 학습과 테스트 시간 스케일링 기술을 통해 추론과 정밀도에서 상당한 향상을 보여주고 있다. 이에 대해 기존 방법들보다 우수한 성능을 보이는 CURE라는 강화 학습 프레임워크가 소개되었는데, 이는 코드 및 단위 테스트 생성에 있어 ground-truth 코드로부터의 감독을 필요로 하지 않아 데이터 수집 비용을 줄이고 사용 가능한 훈련 데이터의 규모를 제한하지 않는다.

2025년 6월 11일 오후 10시 30분
LLM이 실제로 어떻게 추론하는가? 지식과 논리를 분리하는 프레임워크

최근의 LLM 발전은 복잡한 작업에서 뚜렷한 개선을 이끌어내었지만, 이 모델들의 단계적 추론 과정은 여전히 불분명하다. 대부분의 평가는 최종 답변 정확도에 초점을 맞추어 추론 과정을 숨기고 모델이 지식을 어떻게 결합하는지를 나타내지 않는다.

2025년 6월 11일 오후 4시 12분
NVIDIA 연구진, 트랜스포머 LLM에서 8배 KV 캐시 압축을 위한 다이나믹 메모리 희박화(DMS) 소개

NVIDIA와 대학 연구진이 최근 논문에서, 큰 언어 모델이 더 긴 시퀀스 또는 병렬 추론 체인을 생성하기를 요구함에 따라, 추론 시간 성능이 토큰 수뿐 아니라 키-값(KV) 캐시의 메모리 풋프린트에 의해 심각하게 제한되는 문제를 다루었다.

2025년 6월 11일 오전 4시 11분
ether0: 24B LLM가 고급 화학 추론 작업을 위해 강화 학습 RL로 훈련됨

LLM은 사전 훈련 데이터와 컴퓨팅 리소스의 스케일링을 통해 정확성을 향상시키지만, 한정된 데이터로 인해 대체 스케일링으로의 관심이 이동되었다. 최근에는 강화 학습 (RL) 후 훈련이 사용되었다. 과학적 추론 모델은 CoT 프롬프팅을 통해 초기에 답변 이전에 사고 과정을 내보내는 방식으로 성능을 향상시킨다.

2025년 6월 10일 오후 3시 33분
Meta가 LlamaRL을 소개: 효율적인 규모 확장 LLM 훈련을 위한 PyTorch 기반 강화 학습 RL 프레임워크

강화 학습은 대형 언어 모델 (LLM)을 미세 조정하는 데 강력한 방법으로 등장했다. 이 모델은 이미 요약부터 코드 생성까지 다양한 작업을 수행할 수 있으며, RL은 구조화된 피드백을 기반으로 출력을 조정하여 지능적인 행동을 더욱 향상시킨다.

2025년 6월 10일 오후 2시 40분
Pipecat와 Amazon Bedrock을 활용한 지능적인 AI 음성 에이전트 구축 – 파트 1

Pipecat과 Amazon Bedrock을 활용해 지능적인 AI 음성 에이전트를 구축하는 방법을 배울 수 있는 시리즈 포스트. Amazon Bedrock의 foundation 모델을 활용하는 이 프레임워크는 음성 및 멀티모달 대화형 AI 에이전트를 위한 오픈소스이며, 구현을 안내하기 위한 고수준 참조 아키텍처, 모범 사례 및 코드 샘플이 포함되어 있다.

2025년 6월 9일 오전 11시 50분AWS Blog
ALPHAONE: AI 모델의 추론을 조절하는 범용 테스트 시간 프레임워크

대형 언어 모델에 의해 자주 사용되는 대형 추론 모델은 수학, 과학 분석 및 코드 생성의 고수준 문제를 해결하는 데 사용된다. 이중 모드 사고는 간단한 추론에 대한 신속한 응답과 복잡한 문제에 대한 신중하고 느린 사고를 모방한다. 이는 사람들이 직관적인 응답에서 복잡한 문제로 전환하는 방식을 반영한다.

2025년 6월 9일 오전 3시 07분
구글, Gemini 2.5와 LangGraph를 활용한 오픈소스 풀 스택 AI 에이전트 스택 소개

대화형 AI 연구 보조기의 필요성, 최신 대형 언어 모델의 한계와 동적 AI 에이전트 스택 소개

2025년 6월 8일 오후 3시 56분
생물학 분야에서 AI가 생물학 전문가처럼 유전체에 대해 추론할 수 있게 해주는 세계 최초의 추론 모델 ‘BioReason’ 만나보기

AI를 유전체 연구에 활용하는 주요 장애물 중 하나는 복잡한 DNA 데이터로부터 해석 가능한 단계별 추론의 부족이다. BioReason은 생물학 메커니즘에 대한 통찰력을 제공하는 세계 최초의 추론 모델로, 기존의 DNA 모델이 가진 한계를 극복하고, 유전체에 대한 복잡한 추론을 가능하게 한다.

2025년 6월 8일 오전 2시 02분
바이트댄스 연구진, 더 빠르고 효율적인 이미지 생성을 위한 1D 코어스 투 파인 자기회귀 프레임워크 ‘디테일플로우’ 소개

바이트댄스 연구진이 자기회귀 이미지 생성을 위한 1차원 코어스 투 파인 프레임워크 ‘디테일플로우’를 소개했다. 이 방법은 이미지를 한 토큰씩 생성함으로써 구조적 일관성을 유지하면서 이미지를 생성하는 혁신적인 방법이다.

2025년 6월 7일 오전 2시 33분
Amazon SageMaker HyperPod 작업 규제를 위한 다중 계정 지원

본문에서는 다중 계정을 가진 기업이 공유 Amazon SageMaker HyperPod 클러스터에 액세스하여 다양한 작업을 실행하는 방법에 대해 논의합니다. SageMaker HyperPod 작업 규제를 사용하여 이 기능을 가능하게 합니다.

2025년 6월 6일 오후 12시 55분AWS Blog
알리바바 Qwen 팀, Qwen3-Embedding 및 Qwen3-Reranker 시리즈 공개 – 다국어 임베딩 및 랭킹 표준 재정의

알리바바의 Qwen 팀이 Qwen3-Embedding 및 Qwen3-Reranker 시리즈를 발표했다. 이는 다국어 임베딩 및 랭킹 표준을 재정의하여 현대 정보 검색 시스템에 기초를 제공한다. 현재 접근 방식은 고다국어 충실성 및 작업 적응성을 달성하는 데 어려움을 겪고 있지만, Qwen3 시리즈는 이러한 문제를 극복하고 있다.

2025년 6월 6일 오전 12시 24분
AI에게 ‘모르겠다’라고 가르치기: 새로운 데이터셋이 강화 세밀 조정에서 환각을 줄입니다

강화 세밀 조정은 보상 신호를 사용하여 대형 언어 모델이 바람직한 동작을 하도록 안내합니다. 이 방법은 올바른 응답을 강화함으로써 모델이 논리적이고 구조화된 출력을 생성하는 능력을 강화합니다. 그러나 이러한 모델이 불완전하거나 오도하는 질문을 마주했을 때 응답하지 말아야 하는 시점을 알고 있는지 확인하는 것이 여전히 도전입니다.

2025년 6월 6일 오전 12시 02분
온프레미스 사기 탐지 머신 러닝 워크플로우를 Amazon SageMaker로 현대화 및 이전

Radial은 중소 및 대기업 브랜드에게 통합 결제, 사기 탐지 및 옴니채널 솔루션을 제공하는 최대 3PL 충족 공급 업체이다. 이 게시물에서는 Radial이 Amazon SageMaker를 사용하여 머신 러닝 워크플로우를 현대화함으로써 사기 탐지 머신 러닝 응용 프로그램의 비용과 성능을 최적화하는 방법을 소개한다.

2025년 6월 5일 오후 12시 40분AWS Blog
NVIDIA가 ProRL을 소개: 장기간 강화학습이 추론과 일반화를 향상시킴

NVIDIA는 ProRL을 소개하며 장기간 강화학습이 언어 모델의 새로운 추론 능력을 발휘하고 일반화를 향상시킨다. 최근 추론 중심 언어 모델의 발전으로 AI에서 시험 시간 계산의 규모가 커졌다. 강화학습은 추론 능력을 향상시키고 보상 조작 함정을 완화하는 데 중요하다. 하지만 기본 모델에서 새로운 추론 능력을 제공하는지 아니면 기존 솔루션의 샘플링 효율을 최적화하는 데 도움을 주는지에 대한 논쟁이 남아있다.

2025년 6월 5일 오전 2시 09분
Mistral AI가 Mistral Code를 소개: 기업 워크플로에 맞춘 사용자 지정 AI 코딩 어시스턴트

Mistral AI가 기업 소프트웨어 개발 환경에 맞춘 AI 코딩 어시스턴트인 Mistral Code를 발표했다. 이 릴리스는 Mistral이 프로페셔널 개발 파이프라인에서의 제어, 보안 및 모델 적응성에 대응하고자 하는 의지를 보여준다. Mistral Code는 기존의 AI 코딩 도구에서 관측된 주요 제약 사항을 대상으로 한다.

2025년 6월 4일 오후 2시 52분
Claude Code와 Amazon Bedrock 프롬프트 캐싱으로 개발 속도 향상하기

Anthropic에서 출시된 코딩 에이전트인 Claude Code와 Amazon Bedrock 프롬프트 캐싱을 결합하여 개발 워크플로우를 개선하는 방법을 살펴볼 것이다. 이 강력한 조합은 추론 응답 대기 시간을 줄이고 입력 토큰 비용을 절감함으로써 빠른 응답을 제공하게 된다.

2025년 6월 4일 오후 12시 04분AWS Blog
NVIDIA AI, Llama Nemotron Nano VL 출시: 문서 이해를 위한 최적화된 소형 Vision-Language 모델

NVIDIA가 Llama Nemotron Nano VL을 소개했다. 이는 문서 수준 이해 작업에 효율적이고 정확한 비전-언어 모델(VLM)로, 복잡한 문서 구조의 정확한 구문 분석이 필요한 애플리케이션을 대상으로 한다.

2025년 6월 4일 오전 2시 47분
AWS를 활용해 난민들을 돕는 확장 가능한 AI 어시스턴트 만들기

Bevar Ukraine은 우크라이나 난민들을 위한 AI 어시스턴트 Victor를 개발했다. 이는 AWS 서비스를 활용하여 다국어 지원, 자동화된 지원 및 데이터 보안 및 GDPR 준수를 유지하면서 난민들의 요구를 해결하는데 중점을 둔다.

2025년 6월 3일 오전 11시 35분AWS Blog
세계 최대 규모의 이벤트 데이터셋 Yambda 만나보기: 추천 시스템 가속화

야н덱스가 Yambda를 공개하여 추천 시스템 연구 및 개발을 가속화하는데 기여했다. 이 데이터셋은 약 50억 건의 익명 사용자 상호 작용 이벤트를 제공하며 학술 연구와 산업 규모 응용 프로그램 간의 간극을 줄이는 데 도움이 된다.

2025년 6월 2일 오전 3시 31분
NVIDIA AI, Fast-dLLM 소개: KV 캐싱 및 병렬 디코딩을 Diffusion LLMs에 적용하는 훈련 불필요한 프레임워크

Diffusion 기반 대형 언어 모델은 전통적인 자기 회귀 모델에 대안으로 탐구되고 있으며, 동시 다중 토큰 생성의 잠재력을 제공한다. 그러나 이러한 모델은 경쟁력 있는 추론을 제공하는 데 어려움을 겪는다.

2025년 6월 2일 오전 1시 10분
Off-Policy Reinforcement Learning RL with KL Divergence는 대형 언어 모델에서 우수한 추론 능력을 제공합니다

정책 기울기 방법은 특히 강화 학습을 통해 LLM의 추론 능력을 크게 향상시켰습니다. 이들 방법을 안정화하는 데 중요한 도구는 Kullback-Leibler (KL) 정규화인데, 현재 정책과 참조 정책 사이의 급격한 변화를 억제합니다. PPO와 같은 알고리즘에서 널리 사용되지만, 다양한 KL 변형에 대해 더 탐구할 여지가 많습니다.

2025년 6월 2일 오전 12시 50분
Enigmata의 다단계 및 혼합 훈련 강화 학습 레시피가 LLM 퍼즐 추론에서의 획기적인 성과를 이끕니다

Enigmata의 새로운 훈련 방법은 LRM을 사용하여 RL로 훈련된 대규모 추론 모델이 수학, STEM 및 코딩과 같은 복잡한 추론 작업에서 높은 성능을 보이지만, 순수한 논리 추론 기술이 필요한 다양한 퍼즐 작업을 완료하는 데 어려움을 겪는 문제에 대한 획기적인 성과를 이루고 있습니다.

2025년 6월 1일 오전 10시 14분
BOND 2025 AI 트렌드 보고서, 사용자 및 개발자의 채택이 급증함에 따라 AI 생태계가 이전보다 빠르게 성장

BOND의 최신 보고서는 2025년 5월의 인공지능 트렌드를 소개하며, AI 기술의 현재 상태와 급속한 발전에 대한 데이터 기반 스냅샷를 제시한다. 보고서는 AI 채택 속도, 기술적 향상, 시장 영향의 전례없는 속도를 강조하며, 주요 결과들을 살펴보고 있다.

2025년 5월 31일 오후 11시 12분
Multimodal Foundation Models Fall Short on Physical Reasoning: PHYX Benchmark Highlights Key Limitations in Visual and Symbolic Integration

최신 다중 모달 기반 모델은 학문적 지식과 수학적 추론에 대한 벤치마크를 발전시켰으나 물리적 추론에는 한계가 있음을 PHYX 벤치마크가 강조. 기계 지능의 중요한 측면인 물리적 추론은 학문적 지식, 상징적 작업, 현실 성애를 통합하는 것을 필요로 함.

2025년 5월 30일 오후 10시 41분
Yandex가 세계 최대 규모의 이벤트 데이터셋 Yambda를 공개하여 추천 시스템 가속화

Yandex가 세계 최대 규모의 이벤트 데이터셋 ‘Yambda’를 공개했다. 이 데이터셋은 약 50억 건의 익명 사용자 상호 작용 이벤트를 제공하여 학술 연구와 산업 규모 응용 사이의 간극을 줄이는 데 기여한다.

2025년 5월 30일 오후 4시 45분
AI 어시스턴트를 넘어서: Amazon.com에서 산업을 혁신하는 생성 AI의 사례

실시간 사용자 피드백과 감독을 통해 이점을 얻는 대화형 응용 프로그램과 달리, 비대화형 응용 프로그램은 더 강력한 가드레일과 철저한 품질 보증이 필요하며 Amazon.com의 네 가지 생성 AI 응용 사례를 살펴봅니다.

2025년 5월 30일 오후 1시 10분AWS Blog
삼성 연구원, 텍스트-비디오 확산 모델 개선을 위한 ANSE 소개

삼성 연구원이 텍스트 프롬프트를 고품질 비디오 시퀀스로 변환하는 핵심 기술인 비디오 생성 모델을 향상시키기 위한 ANSE(Active Noise Selection for Generation)을 소개했다. 확산 모델은 무작위 노이즈에서 시작하여 현실적인 비디오 프레임으로 반복적으로 정제하는 방식으로 작동한다. 텍스트-비디오 모델은 이를 확장한다.

2025년 5월 29일 오후 6시 30분
싱가포르 국립대학 연구진이 딤플(Dimple)을 소개: 효율적이고 조절 가능한 텍스트 생성을 위한 이산 확산 다중 모달 언어 모델

싱가포르 국립대학 연구진은 최근 확산 모델을 자연어 처리 작업에 적용하는 관심이 증가함에 따라 이를 텍스트 생성의 노이즈 제거 과정으로 취급하는 이산 확산 언어 모델(DLMs)을 개발했다. DLMs는 전통적인 자기회귀 모델과 달리 병렬 디코딩을 가능하게 하며 더 나은 제어를 제공한다.

2025년 5월 28일 오후 10시 32분
부정확한 답변이 수학 추론을 개선할까? 검증 가능한 보상과 함께하는 강화 학습 (RLVR)가 Qwen2.5-Math로 놀라운 결과 도출

자연어 처리(NLP)에서 강화 학습 방법인 RLHF를 활용하여 모델 출력을 향상시키는데 사용되었으며, RLVR은 이 접근 방식을 확장하여 feedback으로 수학적 정확성이나 구문적 특징과 같은 자동 신호를 활용함. 부정확한 답변이 수학 추론을 개선할 수 있음을 보여줌.

2025년 5월 28일 오후 4시 31분
비즈니스 요구에 맞게 Foundation 모델 맞춤화하기: RAG, 세밀 조정, 하이브리드 접근 방법에 대한 포괄적인 안내

이 포스트에서는 비즈니스 요구에 맞게 Foundation 모델을 맞춤화하는 세 가지 강력한 기술인 RAG, 세밀 조정, 그리고 두 가지 방법을 결합한 하이브리드 접근 방법을 구현하고 평가하는 방법을 안내합니다. 이러한 접근 방법들을 실험하고 특정 사용 사례와 데이터셋을 기반으로 현명한 결정을 내리는 데 도움이 되도록 준비된 코드를 제공합니다.

2025년 5월 28일 오후 12시 50분AWS Blog
LLMs가 이제 언어를 넘어 사고할 수 있게 되었다: 연구자들이 이산 토큰을 연속적인 개념 임베딩으로 대체하기 위해 소프트 씽킹을 소개

현재의 대형 언어 모델은 자연어의 범위 내에서 추론하는 데 한정되어 있지만, 연구자들은 이산 언어 토큰 대신 연속적인 개념 임베딩으로 대체하며 모델의 표현 능력과 범위를 확장시키는 소프트 씽킹을 도입했다.

2025년 5월 28일 오전 12시 17분
데이터 과학 인재 네트워크 구축

MIT 데이터, 시스템 및 사회 연구소는 PERIT의 BREIT와 협력하여 전 세계 수백 명의 학습자들을 데이터 과학과 머신 러닝으로 역량 강화하고 있습니다.

2025년 5월 27일 오후 4시 11분MIT News
Qwen Researchers가 큰 언어 모델에서 긴 문맥 추론을 위한 강화 학습 프레임워크인 QwenLong-L1을 제안

대규모 추론 모델(LRMs)은 짧은 문맥 추론에서 강화 학습을 통해 인상적인 성능을 보여주었지만, 이러한 이익은 긴 문맥 시나리오로 일반화되지 않는다. 다중 문서 QA, 연구 종합, 법적 또는 금융 분석과 같은 응용 프로그램에서는 모델이 100K 토큰을 초과하는 시퀀스를 처리하고 추론해야 한다.

2025년 5월 27일 오전 3시 18분
UT Austin 연구진, 20,000개의 혼돈적 ODE로 사전 학습된 비선형 동역학을 위한 기반 모델 ‘Panda’ 소개

UT Austin 연구진이 20,000개의 혼돈적 ODE로 사전 학습된 비선형 동역학을 위한 기반 모델 ‘Panda’를 소개했다. 혼돈적 시스템은 초기 조건에 매우 민감하여 장기적인 예측이 어렵기 때문에, 이를 모델링하는 데 오차가 발생할 경우 빠르게 커질 수 있다. 이에 대한 새로운 접근 방식을 제시하고 있다.

2025년 5월 26일 오후 9시 05분
LLMs는 정말 추론을 통해 판단할 수 있을까? 마이크로소프트와 청화 연구자들이 동적으로 스케일되는 테스트 시간 컴퓨팅을 위한 보상 추론 모델을 소개합니다

마이크로소프트와 청화 연구자들이 보상 추론 모델을 도입하여 LLM의 테스트 시간 컴퓨팅을 동적으로 조정함으로써 더 나은 정렬을 이룰 수 있는지에 대한 연구. 강화학습 기반 모델의 한계와 장점을 살펴보고, 수학적 추론에 대한 가능성을 탐구함.

2025년 5월 26일 오후 2시 17분
NVIDIA, 효율적인 엣지 AI 및 과학 작업에 최적화된 Llama Nemotron Nano 4B 발표

NVIDIA가 Llama Nemotron Nano 4B를 공개했는데, 이는 과학 작업, 프로그래밍, 심볼릭 수학, 함수 호출 및 명령어 따르기에 강력한 성능과 효율성을 제공하면서 엣지 배포에 적합한 오픈 소스 추론 모델이다. 40억 개의 파라미터로 높은 정확도를 달성하며, 비교 모델 대비 최대 50% 높은 처리량을 달성했다.

2025년 5월 25일 오후 5시 06분
NVIDIA AI, 강화 학습을 통해 수학 및 코드 추론 발전을 위한 AceReason-Nemotron 소개

NVIDIA의 인공지능이 강화 학습을 통해 수학 및 코드 추론을 발전시키는 AceReason-Nemotron을 소개했다. AI 시스템의 추론 능력은 중요한 구성 요소이며, 최근 대규모 강화 학습을 통해 추론 모델을 구축하는 데 흥미가 커지고 있다.

2025년 5월 25일 오후 1시 11분
Microsoft, 개발자들이 자연어 인터페이스를 통해 웹사이트를 AI 기반 앱으로 쉽게 변환할 수 있는 오픈 프로젝트 NLWeb 출시

마이크로소프트가 NLWeb을 출시했다. 이 프로젝트는 모든 웹사이트를 자연어 인터페이스를 통해 AI 기반 앱으로 쉽게 변환할 수 있게 해준다. 기존 솔루션들은 중앙집중식이거나 기술적 전문 지식이 필요한데, 이로 인해 개발자들이 지능형 에이전트를 구현하는 데 제약이 생겼다.

2025년 5월 25일 오전 2시 25분
LLM을 활용한 어셈블리 코드 최적화: 강화 학습이 기존 컴파일러를 능가

LLM은 프로그래밍 작업에서 놀라운 능력을 보여주었지만, 프로그램 최적화에 대한 잠재력은 완전히 탐구되지 않았다. 최근의 노력 중 일부는 LLM을 사용하여 C++ 및 Python과 같은 언어의 성능을 향상시키는 데 사용되었지만, LLM을 사용하여 코드를 최적화하는 더 넓은 응용은 여전히 제한적이다.

2025년 5월 24일 오후 4시 03분
싱가포르 국립대학 연구진, ‘Thinkless’ 소개: DeGRPO를 활용해 불필요한 추론 90% 줄임

싱가포르 국립대학 연구진은 ‘Thinkless’라는 적응형 프레임워크를 소개했다. 이 프레임워크는 DeGRPO를 사용하여 불필요한 추론을 최대 90%까지 줄일 수 있다.

2025년 5월 23일 오전 1시 59분
연구자들, 롱-컨텍스트 비전-언어 모델을 위한 포괄적인 벤치마크 ‘MMLONGBENCH’ 발표

롱-컨텍스트 모델링의 발전으로 LLM 및 대형 비전-언어 모델의 새로운 기능이 개방되었고, 이에 효과적인 평가 벤치마크인 ‘MMLONGBENCH’가 소개되었다.

2025년 5월 23일 오전 1시 52분
구글 딥마인드, 실시간 장치 사용을 위한 소형 고효율 다중 모달 AI 모델 ‘Gemma 3n’ 공개

Gemma 3n은 실시간 장치 사용을 위한 소형이면서 고효율적인 다중 모달 AI 모델로, 지능을 기기에 직접 통합함으로써 빠른 응답 속도를 제공하고 메모리 요구를 줄이며 사용자 프라이버시를 강화한다.

2025년 5월 22일 오전 12시 03분
RXTX: 효율적인 구조화된 행렬 곱셈을 위한 머신러닝 가이드 알고리즘

행렬 곱셈에 대한 빠른 알고리즘 발견은 컴퓨터 과학과 수치 선형 대수학에서 중요한 연구 주제이다. Strassen과 Winograd의 공헌 이후 각종 전략들이 등장했고, 이에는 그래디언트 기반 방법, 휴리스틱 기술, 그룹 이론적 기법 등이 포함된다. RXTX 알고리즘은 이러한 맥락에서 효율적인 구조화된 행렬 곱셈을 위한 머신러닝 가이드 알고리즘이다.

2025년 5월 21일 오후 11시 48분
메타 연구자가 소개한 J1: 이성적 일관성과 최소 데이터로 평가하는 강화 학습 프레임워크

대형 언어 모델은 이제 텍스트 생성 이상의 평가 및 심사 작업에 사용되며, 다른 언어 모델의 출력을 평가하는 “언어 모델로서의 판사”로 확장되었습니다. 이러한 평가는 강화 학습 파이프라인, 벤치마크 테스트 및 시스템 정렬에서 중요하며, 이러한 판사 모델은 내부적인 사고 과정 추론에 의존합니다.

2025년 5월 21일 오후 4시 31분
Amazon Bedrock 에이전트를 Slack과 통합하는 방법

이 글에서는 Amazon Bedrock 에이전트를 Slack 워크스페이스에 통합하는 솔루션을 제시합니다. Slack 워크스페이스 구성, Amazon Web Services에 통합 구성 요소 배포, 이 솔루션 활용 방법에 대해 안내합니다.

2025년 5월 21일 오후 3시 54분AWS Blog
구글 AI가 발표한 MedGemma: 의료 텍스트 및 이미지 이해 성능을 위해 훈련된 오픈 스위트

구글이 개발한 MedGemma는 의료 텍스트와 이미지 이해를 위해 훈련된 모델 스위트로, Gemma 3 아키텍처 기반으로 구축되었다. 의료 이미지와 텍스트 데이터의 통합 분석을 필요로 하는 의료 애플리케이션 개발자들에게 견고한 기반을 제공한다.

2025년 5월 20일 오후 9시 31분
Onity Group가 Amazon Bedrock을 활용해 지능적인 솔루션을 구축하며 복잡한 문서 처리를 자동화하는 방법

Onity Group은 Amazon Bedrock 및 기타 AWS 서비스를 활용하여 문서 처리 능력을 혁신하였습니다. 새로운 솔루션 덕분에 이전 OCR 및 AI/ML 솔루션 대비 20%의 정확도 향상과 50%의 문서 추출 비용 절감 효과를 거뒀습니다.

2025년 5월 20일 오후 2시 11분AWS Blog
언어 모델 일반화 향상: 인-컨텍스트 학습과 파인튜닝 간의 간극을 좁히다

언어 모델이 방대한 인터넷 텍스트 코퍼스로 사전 학습되면 몇 가지 작업 예시만으로도 효과적으로 일반화할 수 있지만, 하위 작업을 위해 이러한 모델을 파인튜닝하는 것은 중요한 도전을 제기한다. 파인튜닝은 수백 개에서 수천 개의 예시가 필요하지만, 결과적인 일반화 패턴에는 제약이 있다.

2025년 5월 20일 오후 1시 48분
Salesforce AI 연구자들, UAEval4RAG 소개: RAG 시스템이 답변할 수 없는 쿼리를 거부하는 능력을 평가하는 새로운 기준

RAG는 모델 재교육 없이 응답을 가능케 하지만, 현재의 평가 프레임워크는 답변 가능한 질문들에 대한 정확성과 관련성에 초점을 맞추고, 부적절하거나 답변할 수 없는 요청을 거부하는 중요한 능력을 간과한다. 이로 인해 실제 응용 프로그램에서 부적절한 응답은 오인 또는 피해로 이어질 수 있음.

2025년 5월 20일 오전 2시 05분
AI의 추론을 드러내주지 않을 수도 있는 Chain-of-Thought: Anthropics의 새 연구가 감춰진 결함을 밝혀냄

Chain-of-Thought (CoT) 프롬프팅은 대형 언어 모델의 추론 과정을 개선하고 해석하는 인기 있는 방법이 되었다. 그러나 최근 Anthropics의 연구에 따르면, 이 방법은 AI의 추론을 완전히 이해하는 데 한계가 있을 수 있다.

2025년 5월 19일 오후 10시 21분
강화 학습이 LLMs를 검색에 능숙하게 만듭니다: Ant Group 연구원들이 SEM을 도입하여 도구 사용과 추론 효율성 최적화

최근 LLMs의 발전으로 복잡한 추론 작업을 수행하고 검색 엔진과 같은 외부 도구를 효과적으로 사용하는 잠재력이 드러났다. 그러나 내부 지식 대신 검색을 언제 의존해야 하는지 모델에 스마트한 결정을 내릴 수 있도록 가르치는 것은 여전히 중요한 과제다. 단순한 프롬프트 기반 방법은 모델이 도구를 활용하도록 안내할 수 있지만, LLMs는 여전히 어려움을 겪고 있다.

2025년 5월 18일 오후 10시 52분
LLMs는 내지식에 대해 행동하는 데 어려움을 겪는다: Google DeepMind 연구원들이 강화 학습 세밀 조정을 사용하여 앎과 행동 간의 간극을 메꾸다

대규모 데이터셋으로 훈련된 언어 모델은 언어 이해 및 생성 도구로 두드러지며, 상호 작용 환경에서 의사 결정 요소로 작동할 수 있다. 그러나 행동 선택이 필요한 환경에 적용될 때 이러한 모델은 내부 지식과 추론을 활용하여 효과적으로 행동하기를 기대된다. 그러나 LLMs는 이를 실현하기 어렵다. Google DeepMind 연구원들은 강화 학습 세밀 조정을 사용하여 이러한 간극을 메우려고 한다.

2025년 5월 18일 오후 10시 24분
SWE-Bench 성능이 도구 사용 없이 50.8%로 달성: 단일 상태 내 문맥 에이전트에 대한 사례

LM 에이전트의 최근 발전은 복잡한 실제 과제 자동화에 유망한 잠재력을 보여주고 있음. 이러한 에이전트는 일반적으로 API를 통해 작업을 제안하고 실행하여 소프트웨어 공학, 로봇공학, 과학 실험 등의 응용 프로그램을 지원함. 이러한 과제가 더 복잡해지면 LM 에이전트 프레임워크는 다중 에이전트, 다단계 검색, 맞춤형 지원을 포함하도록 진화해왔음.

2025년 5월 17일 오후 11시 06분
구글 연구자들이 LightLab을 소개: 단일 이미지에서 미세한 조명 제어를 위한 물리적으로 타당한 확산 기반 AI 방법

LightLab은 단일 이미지에서 미세한 빛 조절을 위한 새로운 AI 방법이다. 기존 방법은 여러 촬영으로부터 장면의 기하학과 속성을 재구성한 후 물리적 조명 모델을 사용하여 새로운 조명을 시뮬레이션하는 3D 그래픽 방법을 사용하는데, 이러한 기술은 빛 원본에 대한 명확한 제어를 제공하지만 단일 이미지로부터 정확한 3D 모델을 복원하는 것은 여전히 문제로 남아있다.

2025년 5월 17일 오후 2시 56분
LLMs가 실제 대화에서 어려움을 겪는다: Microsoft와 Salesforce 연구자들이 멀티턴의 미정의 작업에서 39%의 성능 저하를 밝혀

대화형 인공지능은 사용자 요구가 점진적으로 드러나는 동적 상호작용을 가능하게 하는데 초점을 맞추고 있습니다. Microsoft와 Salesforce 연구자들이 발표한 연구에 따르면, 대화형 인공지능 모델인 LLMs는 실제 대화에서 어려움을 겪고 멀티턴의 미정의 작업에서 39%의 성능 저하가 있습니다.

2025년 5월 17일 오전 2시 23분
Windsurf가 SWE-1 출시: 소프트웨어 엔지니어링을 위한 최첨단 AI 모델 패밀리

Windsurf가 SWE-1을 발표하며 AI와 소프트웨어 엔지니어링의 깊은 융합을 시사했다. SWE-1은 전체 소프트웨어 개발 수명주기를 위해 특별히 설계된 최초의 AI 모델 패밀리로, 전통적인 코드 생성 모델과는 달리 실제 소프트웨어 엔지니어링 워크플로우를 지원하며 미완성 코드 상태부터 다중 표면 처리까지 다룬다.

2025년 5월 17일 오전 1시 55분
AI 에이전트들이 이제 병렬로 코드를 작성합니다: OpenAI가 ChatGPT 내부의 클라우드 기반 코딩 에이전트 Codex를 소개합니다

OpenAI가 ChatGPT에 통합된 클라우드 기반 소프트웨어 엔지니어링 에이전트 Codex를 소개했습니다. 기존의 코딩 어시스턴트와 달리 Codex는 자동 완성 도구뿐만 아니라 코드 작성, 디버깅, 테스트 실행 등의 프로그래밍 작업을 자율적으로 수행할 수 있는 클라우드 기반 에이전트 역할을 합니다.

2025년 5월 16일 오후 2시 46분
AWS 머신러닝이 스쿠데리아 페라리 HP 피트스톱 분석 지원

스쿠데리아 페라리 HP가 머신러닝을 활용해 정확한 피트스톱 분석 기술을 개발하는 방법을 소개하는 글.

2025년 5월 16일 오후 12시 36분AWS Blog