SYNCOGEN은 합성 가능한 분자 생성의 어려움을 해결하기 위한 머신러닝 프레임워크로, 신약 발견 분야에서 새로운 화합물을 빠르게 탐색하는 것을 돕는다. 하지만 많은 AI 생성 분자는 실험실에서 합성하기 어려워 실용적 가치를 제한하는데, SYNCOGEN은 이 문제를 극복하기 위해 그래프와 좌표 모델링을 결합한다.
최신뉴스 전체보기
이 튜토리얼에서는 생명 과학 문헌을 쿼리하고 분석하는 간소화된 파이프라인을 구축하는 Advanced PubMed Research Assistant를 소개합니다. PubmedQueryRun 도구를 활용하여 “CRISPR 유전자 편집”과 같은 타겟 검색을 수행하고 결과를 구문 분석, 캐싱하여 탐색하는 방법에 초점을 맞춥니다.
아마존 연구원들이 Mitra를 발표했다. Mitra는 타블러 데이터용으로 특별히 설계된 첨단 기반 모델로, 각 데이터셋마다 특별한 모델을 맞춤 제작하는 전통적 방법과 달리, 인-컨텍스트 학습(ICL)과 합성 데이터 사전학습을 활용하여 타블러 기계 학습 벤치마크에서 최첨단 성능을 달성한다. Mitra는 AutoGluon 1.4에 통합되어 강력한 일반화를 제공하며 혁신적인 기능을 제공한다.
대형 언어 모델(Large Language Models, LLMs)의 능력과 배포 규모가 증가함에 따라 의도하지 않은 행동, 환각, 해로운 결과물의 위험이 증가하고 있다. AI 통합이 증가하면서 강건한 안전 메커니즘이 필요한데, 이는 의료, 금융, 교육, 국방 분야에 확대되고 있다. 기술적 및 절차적인 통제를 보장하는 AI 가드레일이 그 역할을 한다.
Qwen은 새로운 Mixture-of-Experts 아키텍처와 포괄적인 에이전트 코딩 기능을 갖춘 Qwen3-Coder를 발표했다. 이 모델은 오픈 소스 코딩 모델의 새 기준을 제시하며 대규모 자율 개발자 지원의 가능성을 재정의한다.
바이브 코딩은 전통적인 코드 작성 대신 대화형 AI를 통해 애플리케이션을 구축하는 것으로, Replit과 같은 플랫폼이 이러한 트렌드를 적극적으로 선전하고 있습니다. 이 방식의 약속은 소프트웨어 제작의 민주화, 신속한 개발 주기, 코딩 경험이 거의 없는 사람들에게도 접근성을 제공하는 것입니다.
이 튜토리얼에서는 Hugging Face transformers를 활용하여 원활하게 작동하는 소형이지만 능력있는 AI 에이전트를 설정하는 방법을 설명합니다. 대화 생성, 질의응답, 감정 분석, 웹 검색 스텁, 날씨 조회, 안전한 계산기를 하나의 Python 클래스에 통합합니다. 중요한 라이브러리만 설치하고 가벼운 모델을 로드하며 진행합니다.
Manus 프로젝트에서 밝혀낸 것처럼, 효과적인 AI 에이전트를 구축하는 것은 강력한 언어 모델을 선택하는 것 이상을 의미합니다. “컨텍스트 엔지니어링”은 AI가 결정을 내리기 위해 처리하는 정보인 컨텍스트를 설계하고 관리하는 방식이 중요합니다. 컨텍스트 엔지니어링은 에이전트의 속도, 비용, 신뢰성, 지능에 직접적인 영향을 미칩니다.
2025년에 글로벌 프록시 시장이 급속히 확장되고 있으며, 산업은 2.5조 달러로 평가되며 주거용 프록시에 대한 폭발적인 수요, AI를 위한 실시간 데이터 수집, 클라우드 기반 프록시 서비스의 성장 등으로 18%의 견고한 연평균 성장률을 나타냅니다.
2025년, 바이브 코딩은 인공지능을 활용해 코드 작성을 빠르고 직관적으로 만들어 거의 누구에게 접근 가능하게 하며 소프트웨어 환경을 재정의하고 있다. 이 트렌드는 기술적 노하우뿐만 아니라 창의력과 자연어, 즉 ‘바이브’에 의해 주도되는 새로운 시대를 열고 있다.
WrenAI는 Canner가 개발한 오픈 소스 Generative Business Intelligence (GenBI) 에이전트로, 구조화된 데이터와 자연어 상호작용을 가능케 하는 것을 목표로 한다. SQL 작성 없이 데이터 쿼리, 분석, 시각화를 위한 도구를 제공하며, 모든 기능과 통합은 공식 문서와 최신 릴리스에 대해 검증된다.
자기 회귀 비디오 생성은 영상 합성에 초점을 맞추며 공간 배열과 시간 역학의 학습된 패턴을 사용하여 프레임별로 비디오를 생성하는 것이다. 이 논문은 MM-RoPE 및 AR-DF를 활용한 Lumos-1이라는 통합 자기 회귀 비디오 생성기를 소개한다.

TikTok과 협력 기관의 연구원들이 소프트웨어 엔지니어링 작업에서 대형 언어 모델(LLMs)이 성능 최적화를 어떻게 하는지를 평가하는 데 특히 저장소 수준에서 처음으로 설계된 벤치마크 ‘SWE-Perf’를 소개했다.

Allen Institute for AI가 AutoDS(자율적 발견을 통한 서프라이즈)를 소개했는데, 이는 인간이 정의한 목표나 질의에 의존하지 않고 베이지안 서프라이즈를 측정하고 찾아내는 가치 있는 가정을 자동으로 생성, 테스트 및 반복함.

이 튜토리얼에서는 Google의 무료 Gemini API를 활용하여 지능적인 Python-to-R 코드 변환기를 만드는 방법에 대해 탐구합니다. Python 함수, 라이브러리 및 구문 패턴을 가장 유사한 R로 매핑하고 Gemini AI를 활용하여 코드 품질을 평가합니다.

LLM 기반 에이전트의 장기 추론 및 개인화를 강화하기 위해 모듈식 멀티 에이전트 메모리 시스템인 MIRIX가 소개되었다. 이 시스템은 사용자별 정보를 지속적으로 저장, 회상하고 추론하는 능력을 향상시켜 LLM 기반 에이전트들이 단일 프롬프트 이상의 컨텍스트를 구축할 수 있도록 도와준다.

대규모 언어 모델(LLM)이 평가자로 작용하는 생성적 보상 모델은 검증 가능한 보상을 통한 강화 학습에서 주목받고 있다. 이 모델들은 열린 답변이나 복잡한 응답이 필요한 작업에 대해 엄격한 규칙 대신 후보 응답을 기준 답변과 비교하고 이진 피드백을 생성한다. 그러나 이러한 모델들은 일부 약점을 가지고 있는데, 이를 드러내고 해결하는 마스터-RM이 등장했다.

Anthropic이 2024년 11월 오픈 소스로 공개한 모델 컨텍스트 프로토콜 (MCP)은 기업 환경에서 AI 에이전트를 도구, 서비스 및 데이터에 연결하는 크로스 클라우드 표준으로 빠르게 자리매김했다. MCP는 AWS, Azure, Google Cloud와의 안전한 통합을 제공하며, 주요 클라우드 업체와 선두 AI 제공업체들이 MCP 통합을 출시하고 독립 플랫폼이 생태계를 빠르게 확장하고 있다.

NVIDIA AI가 복잡한 추론 작업에서 뛰어난 성과를 내는 대규모 언어 모델인 OpenReasoning-Nemotron을 소개했다. 이 모델 스위트는 1.5B, 7B, 14B 및 32B 매개변수 버전으로 구성되어 있으며, 671B DeepSeek R1 0528 모델에서 추론 능력을 캡처하여 훨씬 작고 효율적인 모델로 압축했다.

최근 10년간 딥러닝이 인공지능을 혁신시켰지만 데이터 효율성, 분포 변화에 대한 강건함, 고 에너지 수요, 물리 법칙에 대한 얕은 이해 등의 한계가 드러나고 있다. 기후 예측부터 의학에 이르기까지 중요한 분야로 AI 채택이 확대되면서 이러한 제약이 중요해지고 있다.

이 튜토리얼에서는 Python을 위한 현대적이고 비동기 중심의 구성 관리 라이브러리인 AsyncConfig의 설계와 기능에 대해 안내합니다. 데이터 클래스 기반 구성 로딩, 환경 변수, 파일, 사전과 같은 다양한 구성 소스 지원, 그리고 watchdog를 사용한 핫 리로딩을 포함한 강력한 기능을 지원하기 위해 처음부터 구축합니다.

리버풀 대학, 화웨이 노아아크 랩, 옥스포드 대학 및 런던 대학 연구진이 소개하는 Deep Research Agents(DR 에이전트)는 대형 언어 모델(LLM)을 기반으로 한 자율 연구 시스템으로, 동적 추론, 적응 등을 필요로 하는 복잡하고 장기적인 작업을 수행할 수 있도록 설계되었다.

MemAgent는 장문 처리를 위해 설계된 강화 학습 기반 메모리 에이전트로, LLMs에서 발생하는 성능 하락과 컴퓨팅 비용 문제를 해결하기 위해 ByteDance Seed와 Tsinghua University 연구진이 소개했다.

AI 에이전트는 환경을 인식하고 데이터를 해석하며 목표를 달성하기 위해 행동을 실행하는 자율 소프트웨어 시스템이다. 전통적인 자동화와는 달리, AI 에이전트는 의사 결정, 학습, 메모리, 다단계 계획 능력을 통합하여 복잡한 실제 과제에 적합하다.

LangGraph와 Google의 Gemini API를 사용하여 Researcher, Analyst, Writer, Supervisor 역할을 하는 다중 에이전트 연구팀 시스템을 구축하였다. 이들 에이전트는 데이터 수집, 인사이트 분석, 보고서 요약 및 워크플로우 조정을 협업적으로 수행한다.

사용자 선호에 부합하는 콘텐츠, 제품 또는 서비스를 제공하기 위해 과거 행위, 상호작용 및 패턴을 분석하여 사용자가 관련성을 느낄 것으로 예측하는 맞춤형 추천이 중요해졌다. ARAG는 컨텍스트 인식과 개인화된 추천을 위한 다중 에이전트 RAG 프레임워크로 소개된다.

FlexOlmo는 데이터를 공유하지 않고도 대규모 언어 모델을 개발할 수 있는 방법을 제시하며, 공개되지 않거나 제한이 있는 데이터셋에 대한 의존성을 줄입니다.

Mirascope 라이브러리와 Groq의 LLaMA 3 모델을 사용하여 Chain-of-Thought (CoT) 추론을 구현하는 방법을 살펴본다. 모델이 직접 답변으로 이동하는 대신, CoT 추론은 문제를 논리적인 단계로 분해하도록 유도하여 사람이 해결하는 방식과 유사하게 만든다. 이 접근법은 정확도, 투명성을 향상시킨다.

LLMs는 코드를 생성하는 데 있어서 중요한 발전을 이루었지만, 주로 정적 코드 예제에서 패턴을 인식하는 데 의존하고 실행 중 코드의 동작 방식을 이해하는 데는 그렇지 않습니다. 이로 인해 종종 올바르게 보이지만 실행 시 실패하는 프로그램이 생성됩니다. 최근 방법은 반복적인 개선과 자체 디버깅을 소개하지만 일반적으로 […]

LLM은 빠르게 진화하는 공격의 주요 대상이며, 현재의 보안 기술은 정적인 방어 메커니즘에 의존하므로 취약하다. AegisLLM은 적응형 다중 에이전트 시스템을 활용하여 LLM 보안을 확장하고자 한다.

2025년 7월 17일, OpenAI가 ChatGPT 에이전트를 출시하며 대화형 어시스턴트에서 웹 브라우징부터 코드 실행까지 가상 컴퓨터 환경에서 복잡한 다단계 작업을 자율적으로 수행할 수 있는 통합 AI 에이전트로 변모시켰다. ChatGPT 에이전트는 이전 두 도구를 기반으로 구축되었으며, 이전 기능들의 한계를 극복하고 있다.

시각-언어 모델(VLMs)은 시각 콘텐츠의 상세 이해를 가능하게 함으로써 오늘날의 지능 시스템에서 중요한 역할을 한다. 다중 모달 지능 작업의 복잡성이 증가함에 따라 VLM에 대한 요구도 갈수록 증가하고 있으며, 고급 추론에 대한 관심도 커지고 있다.

VLMs는 텍스트와 이미지를 이해하는 데 강하지만 추론 시 종종 텍스트에만 의존하여 공간 퍼즐과 같은 시각적 사고가 필요한 작업을 해결하는 능력이 제한된다. Mirage는 이미지를 렌더링하지 않고도 VLMs에서 멀티모달 추론을 가능하게 한다.

NVIDIA가 Canary-Qwen-2.5B를 발표했다. 이 모델은 자동 음성 인식(ASR) 및 언어 모델(LLM)의 혁신적인 하이브리드로, Hugging Face OpenASR 리더보드에서 기록적인 5.63%의 단어 오류율(WER)로 선두를 달리고 있다. 상업적으로 허용되며 오픈 소스인 이 모델은 사용 제한 없이 기업용 음성 AI를 발전시키고 있다.

구글은 Gemini 2.5 Pro, 딥 서치, 그리고 강력한 새로운 에이전틱 기능을 도입하며 검색과 상호작용하는 방식을 변화시키고, 검색 엔진을 보다 똑똑하고 맥락에 맞게 만들고 있다. 이러한 기능들은 현재 미국 사용자에게만 제한되어 있지만, 구글 검색 방식에 대대적인 변화를 암시한다.

2025년 현재 가장 핫한 20가지 에이전틱 인공지능 도구와 에이전트 소개. 이 포스트는 MarkTechPost에 실렸으며, AI 개발자들에게 영향을 미치는 도구와 플랫폼을 살펴볼 수 있다.

Mistral AI가 Voxtral을 발표했다. Voxtral은 오디오와 텍스트 입력을 처리하는 Voxtral-Small-24B 및 Voxtral-Mini-3B 모델로, 자동 음성 인식(ASR)과 자연어 이해 기능을 통합한다. Apache 2.0 라이선스로 공개된 Voxtral은 전사, 요약, 질문 응답 등에 실용적인 솔루션을 제공한다.

이 튜토리얼에서는 Griffe에 대해 깊이 파고들어, 고급 AI 코드 분석기의 중심으로 위치시킵니다. Griffe의 풍부한 내재 검사 능력을 활용하여 Python 패키지 구조를 실시간으로 무리없이 로드, 탐색, 해부할 수 있습니다. 본 안내서는 Griffe를 NetworkX와 같은 보조 라이브러리와 통합하는 과정을 안내합니다.

JarvisArt는 예술적 의도와 기술적 실행 사이의 간극을 줄이는데 도움을 주는 사진 편집 에이전트입니다. 사용자들은 이미지 톤, 노출 및 대조와 같은 요소들을 조작하여 시각적으로 매력적인 콘텐츠를 만들 수 있습니다.

최근 생성 모델의 발전은 컴퓨터와 상호작용하는 방식을 변화시켰으며, 사용자 경험을 더 자연스럽고 적응적이며 맞춤화된 것으로 만들고 있다. 초기 인터페이스와 명령줄 도구는 사용자가 기계에 적응해야 했지만, LLMs와 멀티모달 인공지능의 등장으로 사용자는 상호작용하고 있다.

Mirascope는 다양한 대형 언어 모델 제공업체와 함께 작업하는 통합 인터페이스를 제공하는 강력하고 사용자 친화적인 라이브러리입니다. 텍스트 생성부터 구조화된 데이터 추출, 복잡한 AI 기반 시스템 구축까지 모든 것을 간소화합니다.

Apple이 코드 생성을 위해 맞춤화된 7B Diffusion LLM인 DiffuCoder를 소개했다. LLMs는 대화부터 코드 생성까지 다양한 작업에서 놀라운 결과를 얻어내며 자연어 처리를 혁신시켰다.

NVIDIA의 Audio Flamingo 3 (AF3)은 기계가 소리를 이해하고 추론하는 방식에 큰 발전을 이끌어냈다. 이전 모델들은 음성을 전사하거나 오디오 클립을 분류할 수는 있었지만, AF3는 음성, 주변 소리 등을 인간과 유사한 맥락에서 해석하는 능력을 갖췄다.

본 튜토리얼에서는 CrewAI와 Google의 Gemini 모델을 사용하여 최적화된 다중 AI 에이전트 시스템을 구축하는 방법을 안내합니다. 연구, 데이터 분석, 콘텐츠 생성, 품질 보증을 위한 특화된 에이전트들을 순차적 협업에 최적화된 상태로 설치하고 구성합니다.

다양한 데이터 유형이 혼합된 콘텐츠를 처리하는 더 지능적이고 유용한 AI 시스템 구축이 중요해지고 있다. 이 논문은 텍스트와 구조화된 테이블을 동시에 다루는 질문에 초점을 맞춘 프레임워크 TableRAG를 소개한다.

음성 개선 기술이 전통적인 마스크 또는 신호 예측 방법을 넘어서 사전 훈련된 오디오 모델을 활용하여 성능을 향상시키고 있습니다. 이러한 모델은 의미 있는 오디오 임베딩을 추출하여 음성 개선의 성능을 향상시킵니다.

아마존이 새롭고 혁신적인 AI 통합 개발 환경 ‘Kiro’를 발표했다. 오늘의 AI 코딩 어시스턴트의 능력을 훨씬 뛰어넘는 Kiro는 명세 주도 개발, 지능적 자동화, 적응형 사용자 인터페이스에 혁신을 제공한다.

MetaStone-S1은 새로운 반사 생성 형태를 통해 OpenAI o3-mini의 성능을 달성하는 반사 생성 모델로, 기존의 LLMs와는 다른 Test-Time Scaling (TTS) 방식을 사용하여 추론 성능을 향상시킵니다.

구글의 Gemini Embedding 텍스트 모델 gemini-embedding-001이 Gemini API와 Google AI Studio를 통해 개발자들에게 일반적으로 제공되었으며, 강력한 다국어 및 유연한 텍스트 표현 기능을 AI 생태계로 확대시켰다. 다국어 지원, 차원적 유연성 기술 명세 및 모델 성능 주요 기능 메트릭/작업 Gemini-embedding-001 레거시 구글 모델 Cohere v3.0 OpenAI-3-large MTEB (다국어) 평균 […]

MLflow는 머신러닝 실험을 관리하고 추적하는 오픈소스 플랫폼이다. OpenAI Agents SDK와 함께 사용할 때 MLflow는 에이전트 응답 추적을 자동화한다. 에이전트 간의 협력이나 동적 함수 호출이 필요한 다중 에이전트 시스템을 구축할 때 유용하다.

이 기사에는 LLMs에서의 현재 테스트 시간 계산 전략의 한계, 훈련 무료 및 모델에 중립적인 프레임워크로서의 분수적 추론(FR)의 소개, 추론 프롬프트 및 조정 가능한 스케일링을 사용한 잠재 상태 조작 기술, GSM8K, MATH500 및 GPQA에서의 너비 및 깊이 기반 스케일링 이점 등이 포함되어 있습니다. FR의 우수성을 보여주는 평가 결과 및 분석이 제시됩니다.

Liquid AI가 새로운 엣지 LLMs인 LFM2를 오픈소스로 공개했다. 이 모델은 2배 빠른 추론과 3배 빠른 학습 성능을 제공하며, 컨볼루션과 어텐션 블록을 혼합한 하이브리드 설계를 특징으로 한다. 350M, 700M, 1.2B 파라미터 크기의 세 가지 모델이 제공되며, 유사한 크기의 모델과 비교했을 때 우수한 성능을 보여준다.

전문 의료 추론을 보다 접근하기 쉽게 만들어주는 AI의 잠재력이 있지만 현재의 평가는 간단화된 정적 시나리오에 의존하여 부족하다. 진짜 임상 실무는 훨씬 동적하며, 의사들은 진단 접근법을 단계별로 조정하며 목표로 하는 질문을 하고 새로운 정보를 해석한다. 이 반복적 과정은 그들이 가설을 정제하는 데 도움이 된다.

대규모 멀티모달 모델(LMMs)은 이미지 해석, 시각적 질문에 답변, 다중 모달을 결합하여 사실 정보를 검색하는 시스템을 가능하게 한다. 그러나 대량의 학습 데이터가 있더라도 LMMs는 종종 동적이거나 발전하는 정보를 간과하는데, 특히 학습 후에 나타나는 사실들을 놓칠 수 있다.

구글 딥마인드가 최근 발표한 GenAI 프로세서는 가벼운 오픈소스 파이썬 라이브러리로, 실시간 다중 모달 콘텐츠를 포함한 생성 AI 워크플로우의 조율을 간소화하는 데 사용된다. 이 라이브러리는 고급 AI 파이프라인을 구축하기 위한 고청량, 비동기 스트림 프레임워크를 제공한다.

밀도 기능 이론(DFT)은 현대 계산 화학과 재료 과학의 기초 역할을 합니다. 그러나 높은 계산 비용으로 인해 사용이 제한됩니다. 기계 학습 상호 원자력(MLIP)은 DFT 정확도를 근접하게 흉내내며 계산 시간을 현저히 단축시키는 잠재력이 있습니다.

2025년 7월 Moonshot AI가 발표한 Kimi K2는 1조개의 총 매개변수와 토큰당 32억개의 활성 매개변수를 갖춘 MoE 모델로, 1550억 토큰에 대해 훈련되었다. K2는 대규모 모델에서 흔히 볼 수 있는 불안정성 없이 전례 없는 규모에서 안정적인 훈련을 달성했다.

신체화된 AI 에이전트는 물리적 또는 가상 형태로 존재하며 주변 환경과 상호 작용할 수 있는 시스템이다. 이들은 세계를 지각하고 의미 있는 행동을 취한다. 최근의 발전은 신체화가 된 AI 에이전트의 물리적 상호작용, 인간 신뢰, 인간과 유사한 학습을 향상시킨다.

인간 시각 지각과 몸의 움직임 간의 연결을 이해하는 것은 지능형 시스템을 개발하는 데 중요하다. PEVA는 인간의 몸 운동을 기반으로 에고센트릭 시점에서 보이는 것을 예측하는 모델이다.

Mistral AI가 All Hands AI와 협력하여 Devstral 2507 레이블 하에 개발자 중심 대형 언어 모델의 업데이트 버전을 출시했다. Devstral Small 1.1과 Devstral Medium 2507 두 모델은 대규모 소프트웨어 저장소에서 에이전트 기반 코드 추론, 프로그램 합성, 구조화된 작업 실행을 지원하기 위해 설계되었으며 성능에 최적화되어 있다.

AI 에이전트를 시장에 내놓기 위해 개발자들이 노력하고 있지만, 지난 상호작용을 회상할 수 있는 능력의 부족이 큰 장애물이었습니다. 이로 인해 대화마다 처음으로 대하는 것처럼 취급되어 반복적인 질문, 사용자 선호도 기억 불가능, 일반적인 맞춤화 부재로 이어졌습니다.

Microsoft의 Phi-4 모델 패밀리에 최신 추가인 Phi-4-mini-Flash-Reasoning은 장기 문맥 추론에 뛰어나면서 높은 추론 효율성을 유지하는 경량 언어 모델이다. 3.8B 파라미터 모델은 밀도 높은 추론 작업(수학 문제 해결, 다중 점프 질문 응답)에 적합하도록 Fine-tuned 되었다.

AI 기반 비디오 생성 기술이 빠르게 발전하고 있으며, NVIDIA의 DiffusionRenderer는 단일 비디오에서 편집 가능하고 사실적인 3D 장면을 생성하는 AI 모델을 소개했다. 이 모델은 놀라운 현실감을 가진 비디오를 생성하는 능력을 갖추고 있다. 그러나 이제는 전문적이고 현실적인 편집 기능이 추가되어 사용자가 비디오를 보다 전문적으로 수정할 수 있다.

이 튜토리얼에서는 병렬 컴퓨팅을 활용하여 데이터 워크플로우를 크게 가속화하는 강력한 Pandas 대체 도구인 Modin에 대해 알아본다. modin.pandas as pd로 가져와 Pandas 코드를 분산 처리 강자로 변환한다. Modin이 실제 데이터 작업에서 어떻게 수행되는지 이해하는 것이 목표다.

구글 DeepMind와 구글 연구가 MedGemma 우산 아래 두 가지 새로운 모델을 소개했습니다. MedGemma 27B는 대규모 비전-언어 기반 모델이며 MedSigLIP는 가벼운 의학 이미지-텍스트 인코더입니다. 이들은 건강 인공지능 분야에서 가장 능력있는 오픈 소스 모델입니다.

Perplexity사가 AI 기반 검색을 통해 정보 상호작용을 재정의했는데, 이번에는 AI 네이티브 웹 브라우저인 Comet을 출시했다. Comet은 AI-First 아키텍처로 설계되어 사용자가 웹 콘텐츠를 탐색하고 상호작용하는 방식을 혁신적으로 변화시킬 예정이다.

Salesforce AI가 새로운 GUI 에이전트인 GTA1을 소개했다. GTA1은 리눅스와 같은 OS 환경에서 자율적으로 작동하며, 모호한 작업 계획과 부정확한 행동 기반에 대한 두 가지 핵심 병목 현상을 해결한다. 45.2%의 작업 성공률을 보이며 OpenAI의 CUA를 능가한다.

AI 주도적 세계에서 프롬프트 엔지니어링은 중요한 기술이다. 이는 간단한 질의를 넘어서 모호한 아이디어를 명확하고 실행 가능한 AI 결과물로 변환할 수 있는 능력을 제공한다. ChatGPT 4o, Google Gemini 2.5 플래시, Claude Sonnet 4 등을 사용하는 경우 네 가지 기본 원칙이 전체 잠재력을 발휘하게 한다.

Microsoft이 AI 기반 코딩 어시스턴트인 GitHub Copilot 채팅 익스텐션을 모든 개발자에게 무료로 공개했다. 이전에는 구독이 필요했던 기능이 이제 MIT 라이선스로 공개되어 누구나 사용 가능하다.

Hugging Face가 SmolLM3을 공개했다. 3B 파라미터 아키텍처를 사용하여 강력한 다국어 추론을 제공하며 상태-of-the-art 성능을 획득하였다. 더 적은 파라미터로 비용 효율적이고 제약된 환경에서도 배포 가능하다.

BeeAI 프레임워크를 사용하여 다중 에이전트 시스템을 구축하는 방법을 탐구하는 튜토리얼. BeeAI가 지능적이고 협력적인 에이전트의 개발을 어떻게 간단하게 만드는지 보여줌.

Anthropic이 선도적 AI 모델을 대상으로 한 투명성 프레임워크를 소개하며, 안전, 감독, 위험 관리에 대한 우려가 증가하고 있는 상황을 다루고 있다. 이 프레임워크는 가장 높은 잠재적 영향과 위험을 가진 선도적 AI 모델을 대상으로 하며, 작은 개발자 및 스타트업은 의도적으로 제외되어 넓은 AI 혁신을 억제하지 않고 있다.

구글은 MCP 툴박스를 발표했는데, 이는 GenAI Toolbox의 일환으로 SQL 데이터베이스를 AI 에이전트에 통합하는 것을 간소화하는 데 목적을 둔 오픈 소스 모듈이다. 이 릴리스는 언어 모델이 외부 시스템과 상호 작용할 수 있게 하는 표준화된 접근 방식인 모델 컨텍스트 프로토콜(MCP)을 발전시키기 위한 구글의 전략의 일환이다.

본 튜토리얼에서는 PrimisAI Nexus 프레임워크를 활용하여 OpenAI API와 통합된 다중 에이전트 작업 자동화 시스템을 구축하는 방법을 소개합니다. 계층적 감독, 지능적인 도구 활용 및 구조화된 출력을 통해 여러 AI 에이전트의 협조를 통해 복잡한 작업을 수행하는 방법을 보여줍니다.

비디오 확산 모델과 계산적 도전에 대한 소개. 이미지 합성의 성공을 바탕으로 확산 모델이 뛰어난 질과 일관성 있는 비디오를 생성하는 데 큰 진전을 이루었지만, 비디오의 추가적인 시간적 차원 처리는 계산 요구를 크게 증가시킴. 이로 인해 자기 주의는 시퀀스 길이에 따라 늘어나는데, 이는 이러한 모델을 훈련하거나 실행하는 것을 어렵게 만듦.

Osmosis AI가 고도로 정확하고 구조화된 코드 병합 작업을 수행하기 위해 설계된 Osmosis-Apply-1.7B를 오픈소스로 공개했다. 이 모델은 IDE 에이전트에서 영감을 받아 문맥에 민감하고 함수 수준의 코드 편집에 최적화되어 있으며, 코드 특정 포맷팅을 활용하여 더 적은 파라미터로 강력한 성능을 달성한다.

바이트댄스가 대형 언어 모델(LLM)을 활용한 일반 목적 소프트웨어 엔지니어링 에이전트 ‘Trae Agent’를 공식 출시했다. 복잡한 프로그래밍 작업을 자연어 프롬프트를 통해 실행할 수 있는 Trae Agent는 뛰어난 성능과 확장성을 제공하는 명령줄 인터페이스(CLI)를 제공하여 개발자들이 소프트웨어와 상호 작용하는 방식을 새롭게 정의한다.

ACP는 AI 에이전트, 애플리케이션, 인간 간 원활한 통신을 위한 오픈 표준이다. 다양한 프레임워크 및 인프라를 사용하여 개발된 AI 시스템은 종종 격리되어 호환되지 않을 수 있는데, ACP는 이러한 단절을 해소하고 통일된 RESTful API를 제공하여 협업 능력을 확장한다.

현재의 보상 모델의 한계를 이해하는 것은 중요하다. 오늘날의 최고의 모델들도 여전히 복잡한 인간 선호도의 전체 범위를 반영하는 데 어려움을 겪고 있다. 훈련 기술이 발전해도 의미 있는 진전이 제한되어있는데, 주요 이유는 모델의 한계 때문이다.

대형 언어 모델은 인간 사용을 최적화하기 위해 추가 정렬 단계가 필요한데, 강화 학습을 통해 모델이 인간 피드백이나 작업 기반 정확성에 따라 결정을 내릴 수 있게 함. 이를 통해 모델이 더 밀접하게 정렬될 수 있음.

컨텍스트 엔지니어링은 대형 언어 모델(LLM)에 공급되는 컨텍스트를 설계, 조직화 및 조작하는 학문을 의미하며 모델 가중치나 아키텍처를 미세 조정하는 대신 입력에 초점을 맞춥니다. 이 기술은 프롬프트, 시스템 지침, 검색된 지식, 포맷팅 및 심지어 순서 등을 최적화하여 LLM의 성능을 향상시킵니다.

DSPy 프레임워크를 활용하여 지능적이고 자가 수정 가능한 질문-답변 시스템을 구축하는 방법에 대해 탐구합니다. 구조화된 서명을 정의하여 zu의 동작을 명확히하는 것으로 시작하여 DSPy의 선언적 프로그래밍 접근 방식을 통해 신뢰할 수 있는 파이프라인을 구축합니다.

Chai Discovery Team이 Chai-2를 소개했다. 이는 제로샷 De Novo 항체 디자인을 가능케 하는 멀티모달 AI 모델로, 각각의 대상에 대해 최대 20명의 후보자를 사용하여 52가지의 신규 대상에서 16%의 성공률을 달성했다. Chai-2는 이전 방법보다 100배 이상 우수한 결과를 보여주며, 2주 미만의 시간 내에 유효한 결합체를 제공하여 대규모 스크리닝의 필요성을 없앴다.

작은 LLM은 강건한 추론에 어려움을 겪는데, 익숙한 문제에서는 잘 작동하지만 이름이나 숫자를 바꾸거나 관련 없는 정보를 추가하는 등 약간의 변경으로 성능이 급격히 감소하는 것이 보고되고 있다.

Kyutai가 2조 개의 파라미터로 구성된 혁신적인 스트리밍 텍스트 음성 변환 모델을 발표했습니다. 이 모델은 초저지연 시간(220밀리초)으로 고품질의 오디오 생성을 제공하며 전례없는 2.5백만 시간의 오디오로 훈련되었습니다. CC-BY-4.0에 따라 라이선스가 부여되었습니다.

Meta AI와 Washington 대학의 연구진이 ASTRO(자동 회귀 검색 가르치는 추론기)를 소개했다. Llama-3.1-70B-Instruct에서 추론을 향상시키기 위한 포스트 트레이닝 프레임워크로, 모델에 컨텍스트 내 검색 수행을 가르치는 것이 특징이다.

오픈AI Codex는 소프트웨어 엔지니어링에서 루틴한 부분을 처리하여 고수준 사고에 집중할 수 있도록 돕는다. 이 튜토리얼에서는 Codex와 GitHub 저장소를 연동하는 방법에 대해 안내한다.

보상 모델은 LLM과 인간 피드백을 일치시키는 데 필수적이지만, 보상 해킹 문제에 직면한다. 이 모델들은 응답 길이나 형식과 같은 표면적 특성에 초점을 맞추고 사실성 및 관련성과 같은 진정한 품질 지표를 식별하지 못한다. 이 문제는 표준 훈련 목표가 의미 없는 상관 관계를 구별하지 못하기 때문에 발생한다.

대규모 언어 모델의 핵심 추론 단계를 식별하고 측정하는 머신러닝 프레임워크인 Thought Anchors 소개. 현재 해석 도구의 한계를 이해하는데 중점을 두며, DeepSeek 및 GPT 변형과 같은 AI 모델이 복잡한 추론 작업을 처리하는 데 어려움을 겪고 있음을 설명.

TNG 기술 컨설팅이 새로운 AoE 모델인 DeepSeek-TNG R1T2 Chimera를 발표했다. R1-0528, R1, V3-0324 세 부모 모델로 구성된 R1T2는 전문가 계층 보간을 통해 대형 언어 모델에서 새로운 효율성을 발휘한다.

BioCypher AI 에이전트를 구현하여 생명 과학 지식 그래프를 구축, 쿼리 및 분석하는 튜토리얼. BioCypher의 강점과 NetworkX의 유연성을 결합하여 복잡한 생물 관계를 시뮬레이션할 수 있도록 사용자에게 권한을 부여.

Together AI가 최신 기술인 강화학습을 통해 완전히 오픈소스로 훈련된 소프트웨어 공학 에이전트인 DeepSWE를 출시했다. Qwen3-32B 언어 모델을 기반으로 한 DeepSWE는 SWEBench-Verified 벤치마크에서 59% 정확도와 42.2% Pass@1을 달성하여 오픈 웨이트 모델 중 최고의 성과를 거뒀다.

연구원들이 OctoThinker를 제안하여 강화 학습을 통한 복잡한 추론 작업에 대한 LLM의 발전을 제안했다. CoT 프롬프팅과 대규모 강화 학습을 결합한 LLM은 Deepseek-R1-Zero와 같은 모델이 기본 모델에 직접 RL을 적용함으로써 강한 추론 능력을 보여주었다.

대형 언어 모델은 논리적 사고 과정을 시뮬레이션하는 중간 단계를 통해 추론 정확도를 향상시키고 오류를 명확히 합니다. ReasonFlux-PRM은 LLM에서 이러한 사고 연쇄를 향상시키는 궤적 인식 보상 모델입니다.

최신 검색 시스템은 사용자 쿼리의 부피와 복잡성이 증가함에 따라 콘텍스트 인식 및 적응형 정보 검색 수요가 높아지고 있습니다. 이에 바이두 연구원들은 단순 키워드 일치나 문서 순위 매기기에 그치던 시스템을 넘어 계층적 추론이 필요한 사용자 쿼리에 대응하는 지능적이고 적응형 검색 엔진을 제안합니다.

바이두가 최신 ERNIE 4.5 시리즈를 오픈 소스로 공개했다. 이는 언어 이해, 추론 및 생성을 강화하기 위해 설계된 강력한 foundation 모델의 가족이다. 공개된 모델은 0.3B 밀집 모델부터 424B 파라미터를 가진 거대한 MoE(Mixture-of-Experts) 아키텍처까지 10가지 모델 변형을 포함하고 있다.

DeepSeek-R1과 같은 대규모 언어 모델이 수학 문제에서 우수한 결과를 보이지만, 일부 모델은 알려진 대수 규칙을 반복하거나 다이어그램 문제에서 좌표 기하학을 사용하는 등 한정된 기법에 의존한다. OMEGA는 이러한 모델의 추론 한계를 탐구하기 위한 구조화된 수학 벤치마크이다.

이 튜토리얼에서는 AutoGen과 Semantic Kernel을 Google의 Gemini Flash 모델과 원활하게 통합하는 방법을 안내합니다. GeminiWrapper 및 SemanticKernelGeminiPlugin 클래스를 설정하여 Gemini의 생성력과 AutoGen의 Multi-Agent Orchestration을 연결하는 과정부터 코드 리뷰어에서 창의적 분석가까지 다양한 전문 에이전트를 구성하는 방법을 보여줍니다.

타블러 기계 학습에서 벤치마킹의 중요성을 이해하고, 정형 데이터에서 패턴을 학습하는 모델을 구축하는 것에 초점을 맞추고 있습니다. 이는 정확성과 해석 가능성이 필수적인 의료 및 금융 분야에서 사용됩니다.

LongWriter-Zero는 강화 학습 기반의 프레임워크로, 수천 단어에 걸쳐 있는 초장문 텍스트 생성에 도전하는 것을 소개하며, 대규모 언어 모델이 직면한 문제점들을 다루고 있다. 주요 문제로는 불일치, 주제 이탈 등이 있다.









