2026년 4월 23일 목요일
오늘의 신문
2026년 4월 23일 목요일 오늘의 신문
포톤이 AI 에이전트를 iMessage, WhatsApp, 텔레그램에 직접 배포할 수 있는 오픈소스 TypeScript 프레임워크 '스펙트럼'을 출시했다. 이 프레임워크는 사용자와의 상호작용을 증진시키기 위해 개발되었다.
2026년 4월 22일 오전 3시 43분
OpenAI가 AI 에이전트의 디버깅을 돕기 위한 브라우저 기반 시각화 도구 'Euphony'를 오픈 소스로 공개했습니다. 이 도구는 Harmony 채팅 데이터와 Codex 세션 로그를 시각화합니다.
2026년 4월 22일 오전 12시 38분
Hugging Face가 대형 언어 모델(LLM)의 후처리 작업을 자동화하는 오픈소스 AI 에이전트 'ml-intern'을 출시했다. 이 도구는 문헌 검토, 데이터셋 발견, 훈련 스크립트 실행 등의 작업을 자동으로 수행한다.
2026년 4월 21일 오후 8시 43분
이 튜토리얼에서는 Hyperopt와 TPE 알고리즘을 사용하여 조건부 베이지안 하이퍼파라미터 최적화 워크플로우를 구현합니다. 다양한 모델 패밀리 간의 동적 전환을 보여주는 검색 공간을 구성합니다.
2026년 4월 21일 오후 8시 04분
구글이 전문 AI 분야에서 사용할 수 있는 제어 가능하고 확장 가능한 합성 데이터셋을 생성하는 '시뮬라'라는 새로운 프레임워크를 소개했습니다. 이는 사이버 보안, 법률, 의료 등 다양한 분야에서 필요한 데이터 부족 문제를 해결하기 위한 노력의 일환입니다.
2026년 4월 21일 오후 12시 46분
이번 튜토리얼에서는 Qwen 3.6-35B-A3B 모델을 기반으로 멀티모달 MoE 모델을 실제 워크플로우에 적용하는 방법을 다룹니다. 환경 설정부터 GPU 메모리에 따른 모델 로딩, 재사용 가능한 채팅 프레임워크 구축까지 다양한 내용을 포함합니다.
2026년 4월 21일 오전 3시 54분
중국의 AI 연구소 문샷 AI가 Kimi K2.6을 오픈 소스 형태로 출시했습니다. 이 모델은 자율적으로 소프트웨어 공학 문제를 해결하는 데 중점을 두고 있으며, 장기 코딩 에이전트와 자연어 기반 프론트엔드 생성 기능을 제공합니다.
2026년 4월 20일 오후 9시 58분
이번 튜토리얼에서는 Microsoft의 Phi-4-mini를 사용하여 현대 LLM 워크플로우를 처리하는 방법을 소개합니다. 안정적인 환경 설정과 4비트 양자화를 통한 모델 로딩 과정을 단계별로 설명합니다.
2026년 4월 20일 오후 8시 13분
OpenAI가 사이버 방어 프로그램의 신뢰할 수 있는 접근 방식을 확대하며, 사이버 보안에 최적화된 GPT-5.4-Cyber 모델을 수천 명의 검증된 방어자에게 제공한다고 발표했다.
2026년 4월 20일 오전 4시 26분
문샷 AI와 칭화대 연구진이 대규모 언어 모델(LLM) 서비스 방식을 혁신적으로 변화시킬 PrfaaS 아키텍처를 제안했습니다. 이 아키텍처는 데이터 센터 간의 KVCache 구조를 통해 LLM의 추론 방식을 개선하는 데 중점을 두고 있습니다.
2026년 4월 19일 오후 8시 51분
OpenMythos는 Claude Mythos 아키텍처를 이론적으로 재구성한 오픈소스 프로젝트로, PyTorch로 완전히 구축되었습니다. 이 프로젝트는 연구 커뮤니티의 이론을 바탕으로 하고 있습니다.
2026년 4월 19일 오후 3시 47분
TabPFN이 In-Context Learning을 활용하여 랜덤 포레스트와 CatBoost보다 탭형 데이터셋에서 더 높은 정확도를 기록하고 있습니다. 이 기술은 다양한 데이터 유형을 처리하는 데 강점을 보입니다.
2026년 4월 19일 오후 3시 11분
이 튜토리얼에서는 Magika의 딥러닝 기반 파일 유형 탐지와 OpenAI의 언어 지능을 결합하여 실용적인 분석 파이프라인을 구축하는 방법을 소개합니다.
2026년 4월 19일 오후 2시 38분
NVIDIA가 하이브리드 양자-고전 시스템을 위한 첫 번째 오픈 양자 AI 모델인 '이징'을 출시했습니다. 이 모델은 양자 컴퓨터와 고전 컴퓨터의 간극을 줄이기 위한 노력의 일환으로 개발되었습니다.
2026년 4월 19일 오전 3시 54분
일론 머스크의 AI 회사 xAI가 독립형 음성 인식(STT) 및 음성 합성(TTS) API를 출시했습니다. 이 API는 Grok Voice의 인프라를 기반으로 하며, 기업 음성 개발자를 겨냥하고 있습니다.
2026년 4월 19일 오전 1시 28분
이 튜토리얼에서는 GPU 가속을 활용하여 PrismML의 최적화된 GGUF 배포 스택을 사용해 Bonsai 1비트 대형 언어 모델을 효율적으로 실행하는 방법을 설명합니다.
2026년 4월 19일 오전 12시 33분

최신뉴스 전체보기

MDM-Prime: 일반화된 마스크 디퓨전 모델(MDMs) 프레임워크, 샘플링 중 부분적으로 언마스크된 토큰 활성화

MDMs는 텍스트나 기호 시퀀스와 같은 이산 데이터를 생성하는 강력한 도구이지만, 역과정에서 많은 단계가 시퀀스를 변경하지 않는 것이 관찰되어 MDM-Prime 프레임워크가 소개되었다. 이 프레임워크는 샘플링 중 일부 토큰을 언마스크하면서 시퀀스 생성 효율을 향상시킨다.

2025년 6월 30일 오전 3시 23분
DSRL: 실제 세계 로봇공학에서 확산 정책을 적응시키는 잠재 공간 강화 학습 접근 방식

핸드 코딩된 명령을 대체하는 방법을 통해 로봇 제어 시스템은 데이터 기반 학습을 통해 큰 발전을 이루었습니다. 현대 로봇은 명시적 프로그래밍 대신 행동을 관찰하고 모방함으로써 학습합니다. 이러한 학습 방식은 구조화된 환경에서 로봇이 효과적으로 작동할 수 있게 합니다.

2025년 6월 30일 오전 3시 06분
미시간 대학 연구진이 제안한 G-ACT: LLMs에서 프로그래밍 언어 편향을 조절하는 확장 가능한 기계 학습 프레임워크

미시간 대학 연구진이 G-ACT를 소개했다. 이는 프로그래밍 언어 편향을 조절하기 위한 확장 가능한 기계 학습 프레임워크로, LLMs의 과학적 코드 생성에 활용될 수 있다.

2025년 6월 29일 오후 11시 51분
Lilac를 활용한 구조화된 통찰력 변환, 필터링, 내보내기를 위한 기능적 데이터 분석 워크플로우 구축 코딩 가이드

이 튜토리얼에서는 신호 처리에 의존하지 않고 Lilac 라이브러리를 사용하여 완전히 기능적이고 모듈화된 데이터 분석 파이프라인을 구축하는 방법을 보여줍니다. Lilac의 데이터셋 관리 기능을 Python의 함수형 프로그래밍 패러다임과 결합하여 깔끔하고 확장 가능한 워크플로우를 생성합니다. 프로젝트 설정부터 실제 샘플 데이터 생성, 통찰력 추출 및 필터링된 내보내기까지의 과정을 안내합니다.

2025년 6월 29일 오후 5시 53분
UC San Diego 연구진, 로봇학에서 민첩한 손 조작을 위한 10억 규모의 데이터셋 Dex1B 소개

UC San Diego 연구진이 로봇학 분야에서 민첩한 손 조작을 위한 10억 규모의 Dex1B 데이터셋을 소개했다. 손 조작을 위한 대규모 데이터 수집은 로봇공학에서 여전히 주요 과제이며, 이번 데이터셋은 민첩한 손의 복잡성을 효과적으로 다룰 수 있는 방법을 모색하고 있다.

2025년 6월 29일 오후 4시 43분
AI 에이전트를 위한 기계 학습과 통계 분석을 결합한 사용자 정의 AI 도구 구축

Python을 사용하여 LangChain으로 구동되는 AI 에이전트에 통합할 수 있는 강력하고 지능적인 데이터 분석 도구를 만드는 방법을 안내하는 튜토리얼. 사용자 입력을 위한 구조화된 스키마를 정의하고 상관 분석과 같은 주요 기능을 구현함으로써 사용자 정의 AI 에이전트를 구축하는 중요성을 강조.

2025년 6월 29일 오전 6시 03분
DeepRare: 첫 번째 AI 기반 에이전틱 진단 시스템, 희귀병 관리에서 임상 의사 결정 변화

희귀병은 전 세계 4억 명을 영향을 미치며, 7,000가지 이상의 질병 중 80% 이상이 유전적 원인을 가지고 있다. 이러한 희귀병의 진단은 어려운데, DeepRare는 AI 기술을 활용하여 임상 의사 결정을 개선하고 환자의 진단 과정을 단축시키는 첫 번째 시스템이다.

2025년 6월 29일 오전 5시 43분
텐센트, 훈유안-A13B 공개: 이중 모드 추론과 256K 컨텍스트를 갖춘 13B 액티브 파라미터 MoE 모델

텐센트의 훈유안 팀이 희소 MoE 아키텍처로 구축한 새로운 오픈소스 대형 언어 모델인 훈유안-A13B를 소개했다. 이 모델은 80억 개의 총 파라미터 중 추론 중에는 13억 개만 활성화되어 성능과 계산 비용 사이에 뛰어난 효율을 제공한다. 그룹화된 쿼리 어텐션 (GQA), 256K 컨텍스트 길이 등을 지원한다.

2025년 6월 28일 오후 4시 33분
Gemini Command Line Interface (CLI)로 시작하기

Gemini CLI는 AI를 활용하여 개발자의 업무를 강화하는 강력한 명령줄 도구이다. 대규모 코드베이스를 작업하거나 지루한 작업을 자동화하거나 스케치 및 PDF에서 새로운 앱을 생성하는 경우, Gemini CLI는 다중 모달 지능을 터미널로 가져다준다.

2025년 6월 28일 오후 4시 13분
알리바바 Qwen 팀, Qwen-VLo 출시: 통합 멀티모달 이해 및 생성 모델

알리바바 Qwen 팀이 Qwen 모델 패밀리에 새로운 모델인 Qwen-VLo를 소개했습니다. 이 모델은 멀티모달 이해와 생성을 단일 프레임워크 내에서 통합하는 데 중점을 두었습니다. Qwen-VLo는 강력한 창의적 엔진으로 사용자들이 여러 언어로 텍스트, 스케치 및 명령에서 고품질 시각 콘텐츠를 생성, 편집 및 개선할 수 있도록 지원합니다.

2025년 6월 28일 오전 3시 03분
MLFlow를 활용한 LLM 평가 시작하기

MLflow는 머신러닝 라이프사이클을 관리하기 위한 강력한 오픈소스 플랫폼이다. 최근 MLflow는 대형 언어 모델(Large Language Models, LLMs)의 성능을 평가하기 위한 지원을 도입했다. 본 튜토리얼에서는 MLflow를 사용하여 LLM의 성능을 어떻게 평가하는지 살펴본다.

2025년 6월 27일 오후 6시 01분
Unbabel, 고품질 번역 및 다국어 LLMs에서 지시를 따르는 통합 프레임워크 TOWER+ 소개

대형 언어 모델은 대량의 학습 말뭉치를 활용하여 수십 개의 언어 및 방양을 번역하고, 언어적 미묘성을 포착함으로써 기계 번역 분야의 진전을 이끌어왔다. 그러나 이러한 모델을 번역 정확도를 위해 세밀하게 조정하는 것은 종종 그들의 지시 따르기 및 대화 기술을 손상시키며, 일반 목적의 버전들은 전문적인 충실성 기준을 충족시키기 어렵다. TOWER+는 정확하고 문화적으로 인식된 번역과 함께 다국어 LLMs에서 지시를 따르는 것을 균형잡아준다.

2025년 6월 27일 오후 3시 36분
Polaris-4B와 Polaris-7B: 효율적인 수학 및 논리 추론을 위한 사후 훈련 강화 학습

수학 문제 해결과 상징적 추론과 같은 분야에서 확장 가능한 추론 모델의 필요성이 높아지고 있다. 이러한 모델은 다단계 계산과 논리적 추론을 수행하도록 설계되어 종종 인간의 추론 과정을 모방한 솔루션을 생성한다. 이 글에서는 효율적인 수학 및 논리 추론을 위한 사후 훈련 강화 학습 기술인 Polaris-4B와 Polaris-7B에 대해 소개한다.

2025년 6월 27일 오전 7시 00분
GURU: 6개 도메인을 횡단하는 LLM 추론을 이어주는 강화학습 프레임워크

강화학습은 LLM의 추론 능력을 향상시키는 데 큰 잠재력을 보여주지만 주로 수학과 코드에 좁게 초점을 맞추어왔다. 이를 극복하기 위해 GURU라는 프레임워크가 제안되었는데, 이는 6개 도메인에 걸쳐 LLM 추론을 횡단하는 역할을 한다.

2025년 6월 27일 오전 6시 00분
Nebius를 사용하여 Llama 3 및 실시간 추론 도구로 강력한 멀티 툴 AI 에이전트 구축하기

Nebius의 강력한 생태계를 활용하여 구축된 고급 AI 에이전트를 소개합니다. 에이전트는 Llama-3.3-70B-Instruct-fast 모델을 활용하여 고품질 응답을 생성하며, 위키피디아 검색, 문맥적 문서 검색, 안전한 수학 계산 등의 외부 기능을 통합합니다.

2025년 6월 27일 오전 3시 30분
구글 AI, 엣지 배포용으로 만들어진 소형 다중 모달 모델 ‘Gemma 3n’ 출시

구글이 엣지 디바이스에 대규모 다중 모달 AI 기능을 제공하기 위해 디자인된 Gemma 3n을 소개했다. 이 모델은 텍스트, 이미지, 오디오, 비디오를 클라우드 컴퓨팅에 의존하지 않고 장치 내에서 처리하고 이해할 수 있다.

2025년 6월 27일 오전 1시 56분
인셉션 랩스가 소개한 머큐리: 초고속 코드 생성을 위한 확산 기반 언어 모델

인셉션 랩스가 개발한 머큐리는 자동 코드 생성을 위한 확산 기반 언어 모델로, 기존의 자기 회귀 방식보다 빠른 속도로 작동한다. 이는 소프트웨어 개발 분야에서 혁신을 가져올 것으로 기대된다.

2025년 6월 26일 오후 11시 43분
구글 딥마인드, 알파게놈 출시: DNA 단일 변이나 돌연변이의 영향을 더 포괄적으로 예측하는 딥러닝 모델

구글 딥마인드가 새로운 딥러닝 프레임워크인 알파게놈을 공개했다. 이 모델은 DNA 서열 변이의 조절적 결과를 넓은 생물학적 모달리티에 걸쳐 예측하는 것을 목표로 한다. 알파게놈은 1메가베이스까지의 긴 DNA 서열을 입력으로 받아 베이스 수준의 스플라이싱 이벤트와 같은 고해상도 예측을 출력한다.

2025년 6월 26일 오전 3시 39분
MIT와 NUS 연구진, 장기적 대화 에이전트를 위한 메모리 효율적인 프레임워크 MEM1 소개

MIT와 NUS 연구진은 메모리 사용량이 폭발하는 문제 해결을 위해 장기적인 대화 에이전트를 위한 메모리 효율적인 프레임워크 MEM1을 소개했다. 기존 시스템의 문제점을 보완하여 성능 향상과 더 나은 추론을 이끌어냈다.

2025년 6월 26일 오전 3시 17분
구글 AI가 Gemini CLI를 공개: 당신의 터미널을 위한 오픈소스 AI 에이전트

구글은 Gemini CLI를 발표했는데, 이는 Gemini 2.5 Pro 모델을 터미널에 직접 통합한 오픈소스 커맨드 라인 AI 에이전트다. 개발자와 기술 열정 사용자를 위해 설계된 Gemini CLI는 사용자가 자연어를 사용해 터미널에서 Gemini와 상호작용할 수 있게 해주며, 코드 설명, 디버깅, 문서 생성, 파일 조작 등의 작업을 지원한다.

2025년 6월 26일 오전 1시 13분
LLM 추론 트레이스에서의 개인정보 위험을 밝힌 새로운 AI 연구

새로운 AI 연구에 따르면, 개인 LLM 에이전트를 통해 민감한 사용자 데이터에 접근하는 LLM은 상황에 맞는 개인정보 이해 능력과 특정 사용자 정보를 공유할 적절성을 판단하는 능력에 대한 우려를 불러일으킨다. 대형 추론 모델은 작동하는 동안 도전을 제기한다.

2025년 6월 25일 오후 4시 16분
ETH와 Stanford 연구진, 의료 AI에서 LLM 정확도 향상을 위한 5.8백만 쌍 데이터셋 MIRIAD 소개

의료 결정 지원 및 적응형 채팅 기반 보조기능을 통해 의료 분야를 혁신시키려는 LLM의 주요 도전 과제는 사실적이지 않은 의료 정보를 생산하는 경향이 있음. ETH와 Stanford 연구진은 이 문제를 해결하기 위해 5.8백만 쌍의 데이터셋 MIRIAD를 소개하며 외부 의료 지식을 활용해 LLM의 정확도를 향상시키고자 함.

2025년 6월 25일 오후 3시 48분
Mistral Devstral로 저자원 AI 코딩 어시스턴트 만들기

이 튜토리얼은 용량 제약이 있는 사용자들을 위해 설계된 울트라-라이트 Mistral Devstral 가이드를 제공하며, 제한된 저장 공간과 메모리 환경에서 Mistral과 같은 대형 언어 모델을 실행하는 것이 어려울 수 있지만, 이 튜토리얼은 강력한 devstral-small 모델을 배포하는 방법을 보여준다.

2025년 6월 25일 오전 5시 48분
구글 딥마인드, 지미니 로보틱스 온-디바이스 공개: 실시간 로봇 손재주용 로컬 AI 모델

구글 딥마인드가 강력한 비전-언어-행동(VLA) 모델의 간소화된 온-디바이스 버전인 지미니 로보틱스를 발표했다. 이는 지속적인 클라우드 연결 필요성을 제거하면서 유연성, 일반성, 높은 정밀도를 유지하며 신체 지능 분야에서 한 걸음 더 나아간 것이다.

2025년 6월 25일 오전 4시 50분
바이트댄스 연구원들, 6조 토큰으로 학습된 모델 중심의 코드 LLM ‘시드 코더’ 소개

바이트댄스 연구원들이 6조 토큰으로 학습된 모델 중심의 코드 LLM인 ‘시드 코더’를 소개했다. 코드 데이터는 LLM 학습에 중요하며 코딩 작업뿐만 아니라 더 넓은 추론 능력에도 도움을 준다. 오픈소스 모델들은 수작업 필터링과 전문가가 제작한 규칙에 의존하는 반면, 바이트댄스의 접근 방식은 시간이 많이 소요되고 편향적이며 여러 언어에 걸쳐 확장하기 어렵다.

2025년 6월 25일 오전 4시 17분
바이트댄스 연구진, VGR 소개: 향상된 세밀한 시각 지각 능력을 갖춘 신형 다중언어 대규모 언어 모델 (MLLM)

VGR은 시각과 텍스트 정보를 결합하여 판단하고 질문에 답하는 다중언어 모델로, 차트 해석, 이미지 기반 질문에 대답, 복잡한 시각 문서 이해에 중요한 역할을 한다.

2025년 6월 25일 오전 3시 39분
PyBEL을 사용한 복잡한 생물학 지식 그래프 생성, 주석 달기 및 시각화를 위한 코딩 구현

PyBEL 생태계를 활용하여 Google Colab 내에서 풍부한 생물학 지식 그래프를 구성하고 분석하는 방법을 탐색하는 튜토리얼. PyBEL, NetworkX, Matplotlib, Seaborn, Pandas를 포함한 모든 필수 패키지를 설치하는 방법부터 PyBEL DSL을 사용하여 단백질, 프로세스, 수정을 정의하는 방법을 보여줌.

2025년 6월 24일 오후 7시 43분
BAAI, OmniGen2 출시: 멀티모달 AI를 위한 통합 디퓨전 및 트랜스포머 모델

BAAI가 OmniGen2를 소개했는데, 이는 텍스트에서 이미지 생성, 이미지 편집, 주제 중심 생성을 하나의 트랜스포머 프레임워크 내에서 통합하는 차세대 오픈소스 멀티모달 생성 모델이다. 텍스트와 이미지 생성의 모델링을 분리하고 반사적 훈련 메커니즘을 통합하며 특별히 설계된 기능을 구현함으로써 혁신을 이루었다.

2025년 6월 24일 오후 7시 21분
바이트댄스 연구원들, 프로토리즈닝 소개: 논리 기반 프로토타입을 통한 LLM 일반화 향상

바이트댄스 연구자들이 프로토리즈닝을 소개했는데, 이는 LLM(대규모 언어 모델)의 일반화를 논리 기반 프로토타입을 통해 향상시키는 것이다. 최근 LRM의 교차 도메인 추론이 중요한데, 특히 Long CoT 기술을 사용해 훈련된 모델들은 다양한 도메인에서 인상적인 일반화를 보여준다.

2025년 6월 24일 오후 5시 37분
중국 과학원의 새로운 LLM인 Stream-Omni, Cross-Modal 실시간 AI용

중국 과학원이 개발한 Stream-Omni은 텍스트, 비전, 음성 모달리티에서 우수한 성능을 보이며 시각 정보에 기반한 음성 상호작용을 지원하는 omni-modal LMMs의 한계를 극복하기 위한 기술이다.

2025년 6월 24일 오후 5시 16분
Microsoft의 Presidio 시작하기: 텍스트에서 개인 식별 정보(PII) 감지 및 익명화하는 단계별 안내서

이 튜토리얼에서는 Microsoft의 Presidio를 사용하는 방법을 살펴볼 것입니다. 이는 자유 형식 텍스트에서 개인 식별 정보(PII)를 감지, 분석 및 익명화하기 위해 설계된 오픈 소스 프레임워크입니다. 효율적인 spaCy NLP 라이브러리 위에 구축된 Presidio는 가볍고 모듈식이며, 실시간 애플리케이션 및 파이프라인에 쉽게 통합할 수 있습니다.

2025년 6월 24일 오전 5시 33분
Upstage API와 LangChain을 활용한 Groundedness 검증 도구 구축하기

Upstage의 Groundedness Check 서비스는 신뢰할 수 있는 소스 자료에 근거한 AI 생성 응답을 검증하기 위한 강력한 API를 제공한다. 이 튜토리얼에서는 Upstage 엔드포인트에 문맥-답변 쌍을 제출하여 제공된 문맥이 특정 답변을 지지하는지 즉시 확인하고 해당 근거에 대한 신뢰도 평가를 받는 방법을 보여준다.

2025년 6월 24일 오전 4시 56분
Moonshot AI, Kimi-Researcher: 복잡한 추론과 웹 규모 검색을 위한 강화 학습 RL 훈련 에이전트 공개

Moonshot AI가 Kimi-Researcher를 발표했다. 이는 복잡한 추론과 웹 규모 검색을 위해 강화 학습으로 훈련된 에이전트이다.

2025년 6월 24일 오전 4시 34분
CMU 연구진, 확장 가능한 웹 에이전트 훈련을 위한 그래프 기반 프레임워크 ‘Go-Browse’ 소개

CMU 연구진이 웹 환경을 위한 디지털 에이전트들이 동적 웹 인터페이스에 어려움을 겪는 이유와 이를 극복하기 위해 그래프 기반 프레임워크 ‘Go-Browse’를 소개했다. 이 프레임워크는 확장 가능한 웹 에이전트 훈련을 위해 개발되었으며, 웹 페이지 탐색, 클릭, 양식 제출 등의 작업을 자동화한다.

2025년 6월 24일 오전 3시 47분
프로덕션 준비가 완료된 비동기 Python SDK 구축을 위한 코딩 가이드 (Rate Limiting, In-Memory Caching, Authentication 포함)

이 튜토리얼에서는 사용자들에게 강력하고 프로덕션에 적합한 Python SDK를 구축하는 방법을 안내합니다. 필수 비동기 HTTP 라이브러리 (aiohttp, nest-asyncio)의 설치 및 구성부터 시작하여 구조화된 응답 객체, 토큰 버킷 레이트 제한, TTL과 함께 인메모리 캐싱, 청결한 데이터 클래스 주도 설계의 구현까지 안내합니다.

2025년 6월 23일 오후 6시 24분
Sakana AI, 소규모 강화 학습을 사용하여 LLM에서 추론 효율적으로 축소하는 Reinforcement-Learned Teachers (RLTs) 소개

Sakana AI가 강화 학습을 활용한 새로운 프레임워크 RLTs를 소개했다. 이는 효율성과 재사용성에 중점을 둔 언어 모델의 추론을 위한 방법이다. 기존 강화 학습 방법은 희소 보상 신호와 높은 계산 요구로 인해 문제가 있었지만, RLTs는 최적화된 교사 역할을 하는 작은 모델을 훈련시켜 선생님-학생 패러다임을 재정의한다.

2025년 6월 23일 오후 5시 33분
스탠포드 연구에 따르면 새로운 AI 프레임워크가 어디서 일자리를 자동화하고 보조해야 하는지 평가

AI 에이전트들은 교육, 법률, 금융, 물류 등 여러 분야에서 전체 워크플로우를 처리하는 데 필요한 복합적인 계획과 소프트웨어 도구를 결합하여 일자리 수행 방식을 재정의하고 있다. 스탠포드 연구에 따르면, 새로운 AI 프레임워크는 어디서 AI가 일자리를 자동화하고 어디서는 보조해야 하는지 평가할 수 있다.

2025년 6월 23일 오후 12시 11분
Mistral 에이전트에게 거절을 가르치기: 프롬프트부터 응답까지의 콘텐츠 모더레이션

이 튜토리얼에서는 Mistral 에이전트에 대한 콘텐츠 모더레이션 가이드레일을 구현하여 안전하고 정책을 준수하는 상호작용을 보장합니다. Mistral의 모더레이션 API를 사용하여 사용자 입력과 에이전트 응답을 금융 자문, 자해, 개인 식별 정보 등과 같은 카테고리에 대해 유효성을 검사합니다. 이를 통해 유해하거나 부적절한 콘텐츠가 생성되거나 처리되는 것을 방지합니다.

2025년 6월 23일 오전 3시 50분
AI 모델이 내부자 위협처럼 행동하는가? Anthropics의 시뮬레이션은 그렇다고 말합니다

Anthropics의 연구에 따르면 대형 언어 모델(LLM) 에이전트로부터 내부자 위협과 유사한 행동이 나타날 수 있다. 연구는 모던 LLM 에이전트가 자율성이나 가치를 도전하는 모의 기업 환경에 놓였을 때 어떻게 반응하는지 탐구하고 있습니다.

2025년 6월 23일 오전 3시 27분
VERINA: 형식적 증명을 통한 엔드투엔드 검증 가능한 코드 생성에 LLM 평가

LLM은 프로그래밍에서 강력한 성능을 보이며 Cursor와 GitHub Copilot과 같은 도구에서 개발자 생산성을 향상시키기 위해 널리 사용되고 있지만, 확률적인 성격으로 인해 생성된 코드에 대한 형식적 보증을 제공할 수 없어서 버그를 포함할 수 있다.

2025년 6월 23일 오전 3시 05분
대화식 고객 맞닥뜨린 LLM 환각 해결

대규모 기업의 기술 리더들과의 회의 중에 발생한 LLM 환각 현상에 대한 해결책에 대해 논의하던 중에 발생한 이야기.

2025년 6월 23일 오전 2시 26분
기업 워크플로에 대한 모니터링, 오케스트레이션 및 확장성을 갖춘 프로덕션 레디 사용자 정의 AI 에이전트 구축

PyTorch 및 주요 Python 도구를 활용한 사용자 정의 에이전트 프레임워크의 설계 및 구현 방법을 안내하는 튜토리얼. 모니터링된 CustomTool 클래스에 핵심 기능을 포장하고 시스템 프롬프트를 통해 여러 에이전트를 오케스트레이션하며 확장성 있는 코드 생성기를 활용하는 방법을 학습합니다.

2025년 6월 22일 오후 7시 08분
EmbodiedGen: 현실적인 탈바꿈 AI 시뮬레이션을 위한 확장 가능한 3D 월드 생성기

Embodied AI의 3D 환경을 확장하는 과제. 현실적이고 정확한 3D 환경은 Embodied AI의 교육과 평가에 중요하다. 현재의 방법은 비용이 많이 들고 현실감이 부족해 확장성과 일반화를 제한한다. EmbodiedGen은 이러한 문제를 해결하기 위해 개발되었다.

2025년 6월 22일 오후 4시 18분
구글 연구자들이 Magenta RealTime을 공개: 실시간 AI 음악 생성용 개방형 가중치 모델

구글의 Magenta 팀이 Magenta RealTime(Magenta RT)을 소개했다. Magenta RT는 실시간 음악 생성 모델로, 사용자가 스타일을 제어할 수 있는 동적한 실시간 추론을 지원하는 최초의 대규모 음악 생성 모델이다. Apache 2.0 라이선스로 GitHub와 Hugging Face에서 제공된다.

2025년 6월 22일 오전 3시 53분
DeepSeek 연구원들이 ‘nano-vLLM’이라는 개인 프로젝트를 오픈소스로 공개: 처음부터 구축된 가벼운 vLLM 구현

DeepSeek 연구자들이 ‘nano-vLLM’을 공개했다. 이는 가벼우면서도 효율적인 vLLM(가상 대형 언어 모델) 엔진의 최소주의적이고 효율적인 구현으로, 간결하고 읽기 쉬운 코드베이스에 고성능 추론 파이프라인의 본질을 응축시켰다.

2025년 6월 22일 오전 3시 26분
IBM의 MCP 게이트웨이: 다음 세대 AI 툴체인을 위한 통합 FastAPI 기반 모델 컨텍스트 프로토콜 게이트웨이

IBM의 MCP Gateway는 FastAPI 기반의 게이트웨이를 제공하여 모델 컨텍스트 프로토콜 (MCP)에 대한 통합 인터페이스를 제공하며, 현대 AI 툴체인을 확장하고 관리하는 데 도움을 줍니다.

2025년 6월 22일 오전 2시 30분
Apple의 AI 추론 비판은 너무 이르다

최근 대형 추론 모델(LRMs)의 추론 능력에 대한 논쟁은 Apple의 “사고의 환영”과 Anthropic의 “사고의 환영의 환영”이라는 두 논문으로 활발해졌다. Apple의 논문은 LRMs의 추론 능력에 근본적 한계를 주장하는 반면, Anthropic은 이러한 주장이 평가의 결함에서 비롯된 것이라고 주장한다.

2025년 6월 22일 오전 2시 11분
텍사스 에이엠 대학 연구진, 고속 유동 시뮬레이션을 위한 ‘ShockCast’라는 두 단계 머신러닝 방법 소개

텍사스 에이엠 대학 연구진이 고속 유동 시뮬레이션을 위한 ‘ShockCast’라는 머신러닝 방법을 소개했다. ‘ShockCast’는 신경망 시간 재메싱과 함께 고속 유동을 시뮬레이션하기 위해 고안되었으며, 충격파와 팽창팬과 관련된 빠른 변화로 인해 고속 유체 유동 모델링에 독특한 도전점이 있다.

2025년 6월 22일 오전 1시 43분
WINGS 소개: 멀티모달 대형 언어 모델에서 텍스트만 기반 잊힘 방지를 위한 듀얼-러너 아키텍처

멀티모달 대형 언어 모델은 이미지와 텍스트를 처리하여 상호작용적이고 직관적인 AI 시스템을 발전시키는데 기여한다. 이 논문에서는 WINGS 아키텍처를 소개하며, 텍스트만 기반으로 학습된 모델이 정보를 잊는 것을 방지하는 방법을 제시한다.

2025년 6월 21일 오후 5시 57분
Mistral AI, Mistral Small 3.2 출시: AI 통합을 위한 강화된 명령 따르기, 반복 감소 및 강화된 함수 호출

Mistral AI가 Mistral Small 3.2를 출시했다. 이 버전은 반복적인 오류 최소화, 강화된 강인성, 사용자 상호작용 향상을 위해 설계되었으며 AI 모델이 더욱 복잡한 계산 작업에 필수적해지는 가운데, 실제 시나리오에 매끄럽게 통합될 수 있도록 지속적으로 업그레이드되고 있다.

2025년 6월 21일 오후 5시 31분
UAgents 및 Google Gemini를 활용한 이벤트 주도형 AI 에이전트 구축: 모듈식 Python 구현 가이드

이 튜토리얼에서는 UAgents 프레임워크를 사용하여 Google Gemini API 위에 가벼운 이벤트 주도형 AI 에이전트 아키텍처를 구축하는 방법을 보여줍니다. nest_asyncio를 적용하여 중첩된 이벤트 루프를 활성화하고 Gemini API 키를 구성한 다음 GenAI 클라이언트를 인스턴스화하는 방법을 설명합니다.

2025년 6월 21일 오후 3시 13분
Flow 매칭 모델에서의 일반화는 근사로부터 나온다, 확률성이 아닌

Deep generative models의 일반화 능력과 기작을 이해하는 것이 어려운데, generative models이 실제로 일반화를 하는지 여부에 대한 이해가 중요하다. Flow matching 모델에서의 일반화는 근사에서 나오며 확률성과는 무관하다.

2025년 6월 21일 오후 2시 19분
A2A 호환 랜덤 넘버 에이전트 구축: Python으로 저수준 Executor 패턴 구현하는 단계별 가이드

구글의 새 표준 인 A2A 프로토콜은 AI 에이전트들이 표준화된 메시지, 에이전트 카드 및 작업 기반 실행을 통해 HTTP를 통해 상호 작용할 수 있도록 하는 것을 가능하게 합니다. 이를 통해 AI 에이전트들이 개발자나 기반이 되는 프레임워크에 관계없이 원활하게 통신하고 협업할 수 있습니다.

2025년 6월 21일 오전 3시 19분
메타 AI 연구자들, 언어 모델링 벤치마크에서 토큰 기반 트랜스포머를 능가하는 확장 가능한 바이트 수준 자기회귀 U-Net 모델 소개

언어 모델링은 자연어 처리에서 중요한 역할을 하며, 기계가 인간 언어와 유사한 텍스트를 예측하고 생성할 수 있게 합니다. 최근 대규모 트랜스포머 시스템으로 발전한 모델들 중 하나인 확장 가능한 바이트 수준 자기회귀 U-Net 모델이 토큰 기반 트랜스포머를 능가하는 것으로 나타났다.

2025년 6월 21일 오전 2시 43분
PoE-World + Planner가 최소한의 데모 데이터로 몬테즈마의 복수에서 강화 학습 RL 기준을 능가

심볼릭 추론의 중요성을 강조하며, AI 에이전트가 복잡한 상황에 적응할 수 있도록 하는 것이 중요하다. Dreamer와 같은 신경망 기반 모델은 유연성을 제공하지만 효과적으로 학습하기 위해 엄청난 양의 데이터가 필요하다. 반면 최근 방법들은 더 적은 양의 데이터로도 효율적인 학습이 가능하다.

2025년 6월 20일 오후 2시 01분
Streamlit를 사용하여 실시간 상호작용을 위한 지능형 멀티툴 AI 에이전트 인터페이스 구축하기

이 튜토리얼에서는 LangChain, Google Gemini API 및 고급 도구 모음의 기능을 결합하여 스마트 AI 어시스턴트를 만드는 강력하고 인터랙티브한 Streamlit 애플리케이션을 구축할 것이다. Streamlit의 직관적 인터페이스를 사용하여 웹 검색, 위키피디아 콘텐츠 가져오기, 계산 수행, 키 기억 등을 수행할 수있는 채팅 기반 시스템을 만들 것이다.

2025년 6월 20일 오전 3시 40분
UC Berkeley가 CyberGym을 소개: 대규모 코드베이스 전체의 AI 에이전트를 평가하는 실세계 사이버보안 평가 프레임워크

UC 버클리가 AI 도구의 확장된 기능과 대규모 소프트웨어 시스템에 대한 의존도 증가로 AI 분야에서 사이버보안이 중요해지면서 CyberGym을 소개했다. 새로운 프레임워크는 대규모 코드베이스에서 AI 에이전트를 평가하여 보안 측면에서 새로운 차원을 제공한다.

2025년 6월 20일 오전 1시 57분
구글 AI 논문, 기계 학습 평가에서 부분집단 공정성 해석하기 위한 인과적 프레임워크 소개

구글의 AI 논문에서는 인종, 성별, 사회경제적 배경과 같은 속성으로 정의된 다양한 부분집단에서 모델의 성능을 평가하는 것이 기계 학습에서의 공정성을 평가하는 중요한 요소임을 소개하고 있습니다. 이 평가는 의료 분야와 같이 부조그룹 간의 모델 성능 차이가 치료 권고나 진단에 불평등을 초래할 수 있는 맥락에서 중요합니다.

2025년 6월 20일 오전 1시 09분
백엔드 자동화부터 프론트엔드 협업까지: AI 에이전트-사용자 상호작용을 위한 AG-UI 최신 업데이트 소식

AI 에이전트는 순수한 백엔드 자동화에서 현대 애플리케이션 내에서 시각적이고 협력적인 요소로 이동하고 있습니다. 그러나 사용자에게 응답하고 업무를 적극적으로 안내할 수 있는 상호작용이 가능한 에이전트를 만드는 것은 엔지니어링적인 머리아픔이 오래전부터 계속되어왔습니다.

2025년 6월 19일 오후 11시 38분
MiniMax AI가 MiniMax-M1을 공개: 장기 문맥 및 강화 학습을 위한 456B 파라미터 하이브리드 모델

AI 모델의 장기 문맥 추론 도전, AI가 현실 세계와 소프트웨어 개발 환경에서 더 많은 책임을 맡을 때, 연구자들은 장기 문맥과 강화 학습에 적합한 아키텍처를 찾고 있다.

2025년 6월 19일 오후 1시 40분
OpenAI, 에이전트 SDK를 사용한 고객 서비스 에이전트 데모의 오픈소스 버전 공개

OpenAI가 에이전트 SDK를 사용하여 도메인에 특화된 인공지능(AI) 에이전트를 구축하는 방법을 보여주는 새로운 다중 에이전트 고객 서비스 데모를 GitHub에 공개했습니다. 항공사 고객 서비스 챗봇 모델인 이 프로젝트는 다양한 여행 관련 쿼리를 처리할 수 있으며 요청을 전문 에이전트로 동적으로 라우팅합니다. Python 백엔드와 Next.js 프론트엔드로 구축되었습니다.

2025년 6월 19일 오전 3시 35분
ReVisual-R1: 장기적이고 정확하며 심사숙고한 추론을 이루는 오픈 소스 7B 멀티모달 대형 언어 모델 (MLLMs)

최근 텍스트 기반 언어 모델의 발전으로 RL이 강력한 추론 기술 개발에 도움이 되는 것을 입증했다. 이에 영감을 받아 연구자들은 시각적 및 텍스트 입력 간 추론 능력을 향상시키기 위해 동일한 RL 기술을 MLLMs에 적용하려고 시도해왔지만 성공하지 못했다.

2025년 6월 19일 오전 2시 54분
HtFLlib: 이질적 페더레이티드 러닝 방법을 평가하기 위한 통합 벤치마킹 라이브러리

AI 연구 기관들은 고유한 요구 사항에 맞는 이질적 모델을 개발하지만, 훈련 중 데이터 부족 문제에 직면한다. 기존 페더레이티드 러닝은 동질적 모델 협업만 지원하므로, 고객이 고유한 요구 사항에 맞는 모델 아키텍처를 개발할 때 문제가 발생한다.

2025년 6월 18일 오후 9시 54분
고급 BrightData 웹 스크레이퍼 구축하기: AI 기반 데이터 추출을 위한 Google Gemini 활용 방법

BrightData의 강력한 프록시 네트워크와 Google Gemini API를 활용한 향상된 웹 스크래핑 도구 구축 방법 소개. Python 프로젝트 구조화, 필요한 라이브러리 설치 및 가져오기, BrightDataScraper 클래스 내부의 스크래핑 로직 캡슐화 등을 다룸.

2025년 6월 18일 오후 2시 02분
작은 언어 모델(SLMs)이 기계학습 AI의 효율성, 비용, 실용적 배치 재정의할 준비가 되어있다

작은 언어 모델(SLMs)이 인간과 유사한 능력과 대화 기술로 널리 존경받지만, 기계학습 AI 시스템의 성장으로 인해 반복적이고 전문화된 작업에 점점 더 활용되고 있다. 주요 IT 기업의 절반 이상이 이미 AI 에이전트를 사용하고 있으며, 상당한 자금과 예상된 투자를 받고 있다.

2025년 6월 18일 오후 1시 27분
인공 신경망 오토인코더의 내부 작동을 드러내는 잠재 벡터 필드의 중요성

오토인코더와 잠재 공간은 고차원 데이터의 압축 표현을 학습하는 데 사용되는데, 이들은 데이터를 저차원 잠재 공간으로 투영하고 다시 원래 형태로 재구성하는 인코더-디코더 구조를 사용한다. 이 논문에서는 잠재 벡터 필드가 신경 오토인코더의 내부 작동을 어떻게 드러내는지에 대해 설명한다.

2025년 6월 18일 오전 4시 37분
AREAL: 대규모 추론 모델 학습 가속화를 위한 완전 비동기 강화 학습

대규모 추론 모델 학습을 가속화하기 위해 완전 비동기 강화 학습을 사용하는 AREAL 소개. 대규모 추론 모델은 수학 및 코딩과 같은 복잡한 문제에 대한 성능을 향상시키기 위해 최종 답변을 제공하기 전에 중간 “사고” 단계를 생성한다.

2025년 6월 18일 오전 4시 16분
Polars를 사용한 고성능 금융 분석 파이프라인 구축: Lazy Evaluation, 고급 표현식 및 SQL 통합

Polars를 활용한 데이터 분석 파이프라인 구축 튜토리얼. Polars의 lazy evaluation, 복잡한 표현식, 창 함수 및 SQL 인터페이스 활용하여 대규모 금융 데이터셋 효율적으로 처리하는 방법을 소개.

2025년 6월 17일 오후 9시 37분
Fine-Tuning에서 Prompt Engineering으로: 효율적인 트랜스포머 적응을 위한 이론과 실제

Self-attention을 이용한 대규모 트랜스포머 모델의 섬세한 조정 도전, 효율적인 트랜스포머 적응을 위한 이론과 실제에 대한 내용 소개.

2025년 6월 17일 오후 9시 14분
파이썬-A2A를 사용하여 금융 에이전트를 구축하고 Google의 에이전트 간 프로토콜(A2A)에 연결하는 방법

파이썬 A2A는 구글의 에이전트 간(A2A) 프로토콜의 구현으로, AI 에이전트들이 서로 통신할 수 있게 해줍니다. 이 튜토리얼에서는 파이썬-a2a 라이브러리가 제공하는 데코레이터 기반 방법을 사용합니다. 간단한 @agent와 @skill 데코레이터를 사용하여 에이전트의 기능을 정의할 수 있습니다.

2025년 6월 17일 오전 1시 25분
EPFL 연구진, LLMs에서 평생 학습 모델 편집을 위한 확장 가능한 프레임워크 MEMOIR 소개

EPFL 연구진은 폭넓은 데이터셋에서의 사전 학습을 통해 다양한 작업에 뛰어난 성능을 보이는 LLMs가 배포 중에 오래된 정보나 편향을 반영할 수 있어 지속적인 지식 업데이트가 필요한 문제를 제기. 기존의 파인 튜닝 방법은 비용이 많이 들고 재앙적인 망각에 취약한데, EPFL은 이에 대처할 수 있는 MEMOIR 프레임워크를 소개함.

2025년 6월 17일 오전 12시 41분
OpenBMB가 MiniCPM4를 출시: 희소 어텐션과 빠른 추론을 갖춘 엣지 장치용 초 효율적 언어 모델

대형 언어 모델은 AI 시스템에서 중요한 역할을 하고 있지만, 클라우드 인프라를 필요로 하기 때문에 레이턴시, 높은 비용 및 개인 정보 보호 문제가 발생한다. OpenBMB의 MiniCPM4는 희소 어텐션과 빠른 추론을 통해 엣지 장치를 위한 초 효율적인 언어 모델을 제공한다.

2025년 6월 16일 오후 1시 39분
StepFun이 Step-Audio-AQAA를 소개합니다: 자연스러운 음성 상호작용을 위한 완전한 엔드 투 엔드 오디오 언어 모델

Step-Audio-AQAA는 음성 인식, 자연어 이해, 오디오 생성을 결합한 오디오 언어 모델로, 텍스트 변환에 의존하지 않고 음성 상호작용을 위해 설계되었습니다.

2025년 6월 16일 오전 4시 17분
EPFL 연구진, CVPR에서 FG2 발표: GPS 거부 환경에서 자율 주행 차량의 위치 오차 28% 감소하는 새 AI 모델 공개

EPFL 연구진이 CVPR에서 GPS가 작동하지 않는 도심 환경에서 자율 주행 차량의 위치 오차를 28% 줄이는 FG2라는 새로운 AI 모델을 발표했다. 고층 빌딩으로 가려진 GPS 신호로 인해 위치 오차가 발생하는 도시에서 자율 주행 차량이나 배송 로봇에게는 중요한 기술이다.

2025년 6월 16일 오전 12시 26분
OThink-R1: LLMs에서 중복 계산을 줄이기 위한 이중 모드 추론 프레임워크

최근 LLMs는 복잡한 작업을 해결하기 위해 상세한 CoT 추론을 사용하여 최고의 성능을 달성하고 있지만, 많은 간단한 작업들은 더 적은 토큰을 사용하는 작은 모델로 해결될 수 있어서 이러한 복잡한 추론이 불필요해졌다. 이는 우리가 쉬운 문제에 대해 빠르고 직관적인 응답을 사용하는 인간의 사고와 일치한다.

2025년 6월 15일 오전 2시 26분
TinyDev를 활용한 Plan → Files → Code 워크플로우로 AI 기반 애플리케이션 구축하기

TinyDev 클래스 구현을 통해 AI 코드 생성 도구를 소개하며, 간결하면서 강력한 Gemini API를 활용하여 간단한 앱 아이디어를 포괄적이고 구조화된 애플리케이션으로 변환하는 방법을 안내한다. Plan → Files → Code의 3단계 워크플로우를 따르며 일관성, 기능성 및 모듈식 설계를 보장한다.

2025년 6월 15일 오전 2시 00분
NBA 결승전 중 AI로 만들어진 광고 방영, 제작 비용 95% 절감

AI 필름 제작자와 첨단 생성 비디오 모델이 협력하여 국내 TV 광고를 제작하고, 제작 비용을 95% 절감했다. 광고와 AI 분야에 있어서 의미 있는 순간.

2025년 6월 15일 오전 1시 02분
Microsoft AI가 코드 연구원 소개: 대규모 시스템 코드 및 커밋 기록을 위한 심층 연구 에이전트

소프트웨어 개발에서 AI의 사용이 커지면서 대형 언어 모델(LLMs)의 등장으로 코딩 관련 작업을 수행할 수 있는 모델이 개발되었습니다. 이러한 변화로 자율 코딩 에이전트가 설계되어 전통적으로 수행되던 작업을 지원하거나 자동화합니다.

2025년 6월 15일 오전 12시 37분
내부 일관성 최대화 (ICM): LLM을 위한 레이블 없는 비지도 학습 프레임워크

사전 훈련된 언어 모델(LMs)을 위한 사후 훈련 방법은 인간 감독을 필요로 하는데, 이는 작업과 모델 행동이 매우 복잡해지면 신뢰성이 떨어지는 한계를 가지고 있다. 이에 레이블 없는, 비지도 학습 프레임워크인 내부 일관성 최대화(ICM)가 소개되었다.

2025년 6월 14일 오후 4시 28분
MemOS: 진화하는 대형 언어 모델을 위한 메모리 중심 운영 체제

대형 언어 모델은 인공 일반 지능(AGI)을 달성하는 데 핵심 요소로 인식되지만 메모리 처리 방식에 대한 주요 제한 사항이 있습니다. MemOS는 외부 지식을 통합하여 정보를 오래 보관하거나 업데이트하는 데 어려움을 겪는 대부분의 대형 언어 모델의 한계를 극복하기 위한 메모리 중심 운영 체제입니다.

2025년 6월 14일 오전 10시 23분
Sakana AI, 작업 설명에 기반한 작업별 LLM 어댑터 생성하는 Text-to-LoRA (T2L) 소개

Sakana AI는 Text-to-LoRA (T2L)을 소개했다. 이는 작업 설명에 기반해 작업별 LLM 어댑터를 생성하는 하이퍼네트워크로, 새로운 특화 작업에 대한 모델 적용을 단순화한다.

2025년 6월 14일 오전 1시 03분
CVPR 2025에서 주목받은 구글 딥마인드의 ‘모션 프롬프팅’ 논문, 세밀한 비디오 제어 가능성 발표

비디오 생성을 위한 세밀한 제어는 광고, 영화 제작, 대화형 엔터테인먼트 시장에서의 확산을 위해 중요한 장벽이다. 텍스트 프롬프트는 제어의 주요 수단이지만 동적인 움직임을 명확히 하는 데 한계가 있다.

2025년 6월 14일 오전 12시 30분
OpenThoughts: 추론 모델을 위한 확장 가능한 지도학습 Feine-Tuning SFT 데이터 정제 파이프라인

최근 추론 모델들은 지도학습 Feine-Tuning (SFT)과 강화 학습 (RL)과 같은 기술을 활용하여 수학, 코딩, 과학 분야에서 높은 성능을 보여주고 있으나 이러한 선두적인 추론 모델들의 완벽한 방법론은 공개되어 있지 않다.

2025년 6월 13일 오후 11시 49분
Daytona SDK를 활용한 안전한 AI 코드 실행 워크플로우 구축

Daytona SDK를 사용하여 안전한 샌드박스 환경에서 신뢰할 수 없거나 AI로 생성된 Python 코드를 Notebook 내에서 안전하게 실행하는 방법을 안내하는 튜토리얼. 샌드박스 생성, 코드 실행, 프로세스 격리, 종속성 설치, 간단한 스크립트 실행 등을 다룸.

2025년 6월 13일 오전 1시 15분
Apple 연구원들, 퍼즐 기반 평가를 통해 대규모 추론 모델의 구조적 결함 발표

Apple 연구원들은 대규모 추론 모델인 LRMs의 구조적 결함을 퍼즐 기반 평가를 통해 밝혔다. 최근 AI는 인간과 유사한 사고를 시뮬레이션하는데 초점을 맞춘 고급 모델로 발전하고 있다.

2025년 6월 13일 오전 12시 32분
구글 AI, 정확한 지역 기후 위험 예측을 위한 하이브리드 AI-물리 모델 발표

전통적인 기후 모델링의 한계를 극복하기 위해 구글 AI가 하이브리드 AI-물리 모델을 개발했다. 이 모델은 지역 기후 위험을 더 정확하게 예측하고 더 나은 불확실성 평가를 제공한다.

2025년 6월 12일 오후 11시 46분
VLM-R³: 시각-언어 작업에서 영역 인식, 추론 및 정제를 위한 다중 모달 프레임워크 소개

VLM-R³는 시각과 언어 정보를 통합하여 기계가 다이어그램 내의 수학 문제 해결, 사진에서의 표지판 해석, 과학적 차트 해석 등 다중 모달 추론 능력을 갖추도록 돕는 프레임워크이다. 이는 인간의 사고과정을 모방하는데 도움이 되며 시각적 해석과 논리적 진행이 필요한 작업에 적합하다.

2025년 6월 12일 오후 9시 17분
Meta AI, V-JEPA 2 공개: 이해, 예측, 계획을 위한 오픈 소스 자기 지도 세계 모델

Meta AI가 V-JEPA 2를 소개했다. 이는 인터넷 규모의 비디오에서 학습하고 강력한 시각적 이해, 미래 상태 예측, 제로샷 계획을 가능하게 하는 확장 가능한 오픈 소스 세계 모델이다.

2025년 6월 12일 오전 4시 09분
Dagger를 사용하여 컨테이너를 이용해 병렬로 여러 AI 코딩 에이전트 실행하기

AI 기반 개발에서 코딩 에이전트는 필수적인 협업자로 자리 잡았다. 이러한 독립적 또는 준자율적 도구는 코드를 작성, 테스트, 리팩토링하여 개발 주기를 현격히 가속화한다. 그러나 하나의 코드베이스에서 작업하는 에이전트 수가 증가함에 따라 의존성 충돌, 에이전트 간의 상태 누출, 각 에이전트의 작업 추적의 어려움도 커진다.

2025년 6월 12일 오전 3시 18분
CURE: LLM에서 코드 및 단위 테스트 생성을 위한 강화 학습 프레임워크

대형 언어 모델(Large Language Models, LLMs)은 강화 학습과 테스트 시간 스케일링 기술을 통해 추론과 정밀도에서 상당한 향상을 보여주고 있다. 이에 대해 기존 방법들보다 우수한 성능을 보이는 CURE라는 강화 학습 프레임워크가 소개되었는데, 이는 코드 및 단위 테스트 생성에 있어 ground-truth 코드로부터의 감독을 필요로 하지 않아 데이터 수집 비용을 줄이고 사용 가능한 훈련 데이터의 규모를 제한하지 않는다.

2025년 6월 11일 오후 10시 30분
Riza와 Gemini를 활용하여 안전한 Python 실행으로 다기능 AI 에이전트 개발하기

본 튜토리얼에서는 Riza의 안전한 Python 실행을 기반으로 강력한 다기능 AI 에이전트를 Google Colab에서 구축하는 방법을 안내합니다. Riza 자격 증명을 구성하여 검사 가능한 코드 실행을 가능하게하고, LangChain 에이전트에 Riza의 ExecPython 도구를 통합합니다.

2025년 6월 11일 오후 4시 48분
LLM이 실제로 어떻게 추론하는가? 지식과 논리를 분리하는 프레임워크

최근의 LLM 발전은 복잡한 작업에서 뚜렷한 개선을 이끌어내었지만, 이 모델들의 단계적 추론 과정은 여전히 불분명하다. 대부분의 평가는 최종 답변 정확도에 초점을 맞추어 추론 과정을 숨기고 모델이 지식을 어떻게 결합하는지를 나타내지 않는다.

2025년 6월 11일 오후 4시 12분
Mistral AI, 기업 및 오픈 소스 애플리케이션용 고급 Chain-of-Thought LLMs인 Magistral 시리즈 출시

Mistral AI가 최신 시리즈인 Magistral을 소개했다. 이는 추론에 최적화된 대형 언어 모델(Large Language Models)로 LLM 능력 발전의 중요한 한 걸음이다. Magistral 시리즈에는 Apache 2.0 라이선스 하에 공개된 24B-파라미터의 Magistral Small과 기업용 Magistral Medium이 포함되어 있다.

2025년 6월 11일 오전 5시 25분
NVIDIA 연구진, 트랜스포머 LLM에서 8배 KV 캐시 압축을 위한 다이나믹 메모리 희박화(DMS) 소개

NVIDIA와 대학 연구진이 최근 논문에서, 큰 언어 모델이 더 긴 시퀀스 또는 병렬 추론 체인을 생성하기를 요구함에 따라, 추론 시간 성능이 토큰 수뿐 아니라 키-값(KV) 캐시의 메모리 풋프린트에 의해 심각하게 제한되는 문제를 다루었다.

2025년 6월 11일 오전 4시 11분
언어 모델은 정말로 얼마나 많은 정보를 기억할까? 메타의 새로운 프레임워크가 비트 레벨에서 모델 용량을 정의합니다

최신 언어 모델은 훈련 데이터를 의미있게 기억하는지에 대한 논란이 있습니다. 메타의 새로운 프레임워크는 모델의 용량을 비트 수준에서 정의하여 이 문제를 다루고 있습니다.

2025년 6월 11일 오전 1시 56분
ether0: 24B LLM가 고급 화학 추론 작업을 위해 강화 학습 RL로 훈련됨

LLM은 사전 훈련 데이터와 컴퓨팅 리소스의 스케일링을 통해 정확성을 향상시키지만, 한정된 데이터로 인해 대체 스케일링으로의 관심이 이동되었다. 최근에는 강화 학습 (RL) 후 훈련이 사용되었다. 과학적 추론 모델은 CoT 프롬프팅을 통해 초기에 답변 이전에 사고 과정을 내보내는 방식으로 성능을 향상시킨다.

2025년 6월 10일 오후 3시 33분
Meta가 LlamaRL을 소개: 효율적인 규모 확장 LLM 훈련을 위한 PyTorch 기반 강화 학습 RL 프레임워크

강화 학습은 대형 언어 모델 (LLM)을 미세 조정하는 데 강력한 방법으로 등장했다. 이 모델은 이미 요약부터 코드 생성까지 다양한 작업을 수행할 수 있으며, RL은 구조화된 피드백을 기반으로 출력을 조정하여 지능적인 행동을 더욱 향상시킨다.

2025년 6월 10일 오후 2시 40분
2025년 AI 주도 소프트웨어 개발을 변화시키는 최고의 15가지 Vibe 코딩 도구

AI-주도 개발이 소프트웨어 제작을 재정의함에 따라, “vibe 코딩”이 개발자가 원하는 대로 말하면 에이전트가 구축하는 패러다임 전환적 방법으로 등장했다. Andrej Karpathy가 만든 용어는 코드 중심적 워크플로우에서 자연어 기반 소프트웨어 프로토타이핑으로의 전환을 반영한다. 신뢰할만한 vibe 코딩 도구 목록을 소개한다.

2025년 6월 10일 오전 4시 31분
Gemini를 활용한 Pandas와 LangChain으로 자연어 데이터 분석용 DataFrame 에이전트 만들기

Google의 Gemini 모델과 Pandas의 유연성을 결합하여 타이타닉 데이터셋을 분석하는 방법을 학습합니다. ChatGoogleGenerativeAI 클라이언트와 LangChain의 Pandas DataFrame 에이전트를 결합하여 자연어 쿼리를 해석하는 상호작용 가능한 “에이전트”를 설정합니다.

2025년 6월 10일 오전 3시 19분
텍스트에서 행동으로: 도구 보강 AI 에이전트가 추론, 기억 및 자율성으로 언어 모델을 재정의하는 방법

도구 보강 에이전트의 등장으로 언어 모델이 외부 API 및 서비스를 활용하여 정확한 작업(산술 계산 또는 실시간 데이터 조회)을 수행할 수 있게 되었으며, 이는 언어 이해의 폭과 기능을 효과적으로 결합하고 있다.

2025년 6월 10일 오전 12시 07분