2026년 3월 8일 일요일
오늘의 신문
2026년 3월 8일 일요일 오늘의 신문
YuanLab AI가 오픈소스 Mixture-of-Experts (MoE) 대형 언어 모델인 Yuan 3.0 Ultra를 공개했다. 이 모델은 1조 개의 총 파라미터와 68.8조 개의 활성화된 파라미터를 특징으로 하며, 기업 성능을 최적화하고 사전 훈련 효율성을 높이는 것을 목표로 한다.
2026년 3월 5일 오전 12시 55분
기업은 애플리케이션에 안전한 임베드 챗을 구현하는 것이 어려운데, 이를 해결하기 위해 Quick Suite Embedding SDK를 사용한 챗 에이전트 임베드 솔루션을 제공한다.
2026년 3월 4일 오후 4시 20분AWS Blog
구글이 Gemini 3.1 Flash-Lite를 공개했다. 고성능 작업에 최적화된 이 모델은 낮은 지연시간과 토큰 당 비용을 중점으로 고안되었다. 현재 Gemini API 및 Vertex AI를 통해 Public Preview로 이용 가능하다.
2026년 3월 3일 오후 1시 28분
이 글에서는 Amazon Nova Canvas에서 제공하는 가상 시착 기능을 탐구하며, 빠르게 시작할 수 있는 샘플 코드와 최상의 결과를 얻는 데 도움이 되는 팁을 제공합니다.
2026년 3월 3일 오전 11시 23분AWS Blog
AWS China Applied Science팀이 어려운 VOC 분류 작업에 Nova Forge를 평가한 결과와 오픈 소스 모델과의 벤치마킹 결과를 공유합니다.
2026년 3월 2일 오후 2시 32분AWS Blog
NullClaw는 Raw Zig로 완전한 스택 AI 에이전트 프레임워크를 구현하여 Python이나 Go와 같은 고수준 관리 언어에 의존하는 기존의 프레임워크와는 달리 런타임, 가상 머신, 가비지 컬렉터를 통해 상당한 오버헤드를 제거하고 있다.
2026년 3월 2일 오후 2시 12분
산업용 추천 시스템에서 Large Language Models (LLMs)를 활용한 Generative Retrieval (GR)이 일반적인 임베딩 기반의 검색을 대체하고 있으며, 이에 따라 엄격한 비즈니스 로직을 준수하는 STATIC 프레임워크가 속도 향상을 제공한다.
2026년 3월 1일 오후 4시 47분
이 튜토리얼에서는 LangGraph와 Pydantic을 활용한 고급 멀티 에이전트 통신 시스템을 구축한다. 공유 상태를 통해 에이전트들이 직접 호출하는 대신 통신할 수 있는 엄격한 ACP 스타일의 메시지 스키마를 정의하여 모듈화, 추적성, 그리고 생산용 오케스트레이션을 가능하게 한다. 세 가지 특수화된 에이전트를 구현한다.
2026년 3월 1일 오후 2시 20분
Generative AI의 발전은 잠재 확산 모델(LDMs)에 많이 의존하고 있습니다. 잠재 공간으로 데이터를 압축함으로써 모델이 효과적으로 확장될 수 있습니다. 그러나 낮은 정보 밀도는 잠재 변수를 학습하기 쉽게 만들지만 재구성 품질을 희생시키는 기본적인 트레이드오프가 존재합니다.
2026년 2월 27일 오후 10시 58분
본 튜토리얼에서는 오픈 소스 instruct 모델을 활용하여 계층적 플래너 에이전트를 구축한다. 이 구조화된 다중 에이전트 아키텍처에는 플래너 에이전트, 실행자 에이전트 및 집계자 에이전트가 포함되어 있으며 각 구성 요소가 복잡한 작업을 해결하는 데 특화된 역할을 수행한다. 플래너 에이전트를 사용하여 고수준 목표를 실행 가능한 단계로 분해한다.
2026년 2월 27일 오후 9시 18분
Perplexity사가 대규모 검색 작업에 최적화된 다국어 임베딩 모델 pplx-embed을 출시했다. 웹 규모 데이터의 복잡성과 잡음을 처리하기 위한 이 모델은 전용 임베딩 API에 대한 대안으로 제작되었다. 양방향 어텐션과 확산을 활용한 구조적 혁신이 돋보인다.
2026년 2월 26일 오후 11시 01분
Microsoft의 연구진은 CORPGEN을 소개했는데, 이는 계층적 계획과 메모리를 활용하여 자율형 디지털 직원을 통해 현실적인 조직 업무의 복잡성을 관리하는 데 사용되는 아키텍처에 중립적인 프레임워크이다. 기존의 AI 에이전트는 단일 작업에 대해 평가되지만, 실제 기업 환경에서는 복잡한 종속성을 가진 여러 작업을 동시에 처리해야 한다.
2026년 2월 26일 오후 7시 32분
이 게시물에서는 Amazon Nova 모델을 위한 강화 Fein-Tuning (RFT)을 탐구하며, 이는 모방이 아닌 평가를 통해 학습하는 강력한 맞춤 기술일 수 있습니다. RFT의 작동 방식, 감독형 Fein-Tuning 대비 사용 시기, 코드 생성부터 고객 서비스에 이르기까지의 실제 응용 사례, 완전 관리형 Amazon Bedrock에서 Nova Forge로의 다양한 구현 옵션 등을 다룰 것입니다. 또한 데이터 준비, 보상 함수 설계에 대한 실용적인 지침과 최적 결과 달성을 위한 모범 사례에 대한 실용적인 지침을 제공합니다.
2026년 2월 26일 오후 12시 48분AWS Blog
Nous Research 팀이 Hermes Agent를 공개하여 AI의 망각 문제를 해결하기 위해 디자인된 오픈소스 자율 시스템을 출시했습니다. 현재의 AI 환경에서 우리는 '일시적 에이전트'에 익숙해졌는데, 이는 매 채팅 세션마다 인지 클락을 재시작하는 잊어버리기 쉬운 조수입니다. LLMs는 뛌륭한 코더가 되었지만, 진정한 팀원으로 기능하는 데 필요한 지속적인 상태가 부족합니다.
2026년 2월 26일 오전 3시 01분
Tailscale과 LM Studio가 LM Link를 소개했다. 이는 개인 GPU 하드웨어 자산에 암호화된 포인트 투 포인트 액세스를 제공하며, AI 개발자들에게 생산성을 높여준다.
2026년 2월 25일 오후 11시 29분
최근 ETH 취리히 연구에서, AI의 'Context Engineering'이 중요한데 AGENTS.md 파일이 너무 상세해서 코딩 에이전트가 실패하는 것으로 밝혀졌다. 산업 리더들은 AGENTS.md를 코딩 에이전트의 최종 설정 지점으로 손꼽았는데, 이 파일이 복잡한 코드베이스를 안내하는데 있어 중요한 역할을 한다.
2026년 2월 25일 오후 7시 28분

최신뉴스 전체보기

구글 AI, 차별적인 개인 파티션 선택을 위한 혁신적인 머신러닝 알고리즘 제안

구글 AI팀은 차별적인 개인 파티션 선택을 위한 새로운 머신러닝 알고리즘을 제안했다. 이는 대규모 머신러닝 및 데이터 분석에서 사용자 정보를 보호하는 데 중요한 역할을 한다. 이 알고리즘은 엄격한 개인 정보 보호를 유지하면서 대규모 사용자 기여 데이터셋에서 고유한 항목을 안전하게 추출하는 과정을 포함한다.

2025년 8월 23일 오전 4시 15분
Native RAG 대 Agentic RAG: 기업 AI 의사 결정을 발전시키는 접근 방식은 무엇인가?

RAG 기술은 대형 언어 모델을 실시간, 도메인 특화 지식으로 강화하는 핵심 기술로 등장했다. “Native RAG”와 “Agentic RAG”의 구현이 주를 이루고 있으며, AI 기반 정보 통합과 의사 결정 지원에서 새로운 패러다임을 제시하고 있다.

2025년 8월 22일 오후 7시 11분
Generative AI를 위한 포괄적인 Foundation 모델 선택 프레임워크

Amazon Bedrock 사용자를 위한 체계적인 평가 방법론 소개. 이론적 프레임워크와 실용적 전략을 결합하여 데이터 과학자와 머신러닝 엔지니어가 최적의 모델 선택을 할 수 있게 함.

2025년 8월 22일 오후 1시 31분AWS Blog
Amazon Q Business로 기업 AI 구현 가속화

Amazon Q Business는 AWS 고객에게 조직 전반의 업무 프로세스를 향상시키는 확장 가능하고 포괄적인 솔루션을 제공한다. 사용 사례를 신중히 평가하고 구현 모범 사례를 따르며, 이 게시물에서 제공된 아키텍처 지침을 사용함으로써 Amazon Q Business를 배포하여 기업 생산성을 변형할 수 있다. 성공의 열쇠는 작게 시작하고 빠르게 가치를 입증하며, 조직 전반에 체계적으로 확장하는 것에 있다.

2025년 8월 21일 오후 4시 29분AWS Blog
한국의 LLM 강자 만나보기: HyperClova, AX, Solar Pro, 그리고 더

한국은 대규모 언어 모델(LLM) 분야에서 중요한 혁신가로 자리매김하고 있으며 정부 투자, 기업 연구, 오픈 소스 협력을 통해 한국어 처리 및 국내 응용 프로그램에 맞는 모델을 만들고 있다. 이는 외국 AI 기술에 대한 의존성을 줄이고 데이터 개인 정보 보호를 향상시키며 의료, 교육 등의 분야를 지원한다.

2025년 8월 21일 오전 3시 31분
Liquid AI, LFM2-VL 출시: 저지연 및 장치 인식 배포용 초고속 오픈가중치 비전-언어 모델

Liquid AI사가 저지연, 장치 내 배포를 위해 최적화된 새로운 비전-언어 기반 모델인 LFM2-VL을 공식 출시했다. LFM2-VL-450M 및 LFM2-VL-1.6B 두 가지 효율적인 변형으로, 스마트폰, 노트북, 웨어러블 및 임베디드 시스템에 다중 모달 AI를 속도나 정확도를 희생하지 않고 도입하는 중요한 발전을 이루었다.

2025년 8월 20일 오후 8시 21분
ZenFlow: 대형 언어 모델 (LLM) 학습용 스톨 프리 오프로딩 엔진으로 설계된 새로운 DeepSpeed 확장판

DeepSpeed 팀이 새로운 오프로딩 엔진인 ZenFlow를 공개했습니다. 이 엔진은 대형 언어 모델 (LLM) 학습 중 발생하는 CPU로 인한 GPU 스톨 문제를 극복하기 위해 설계되었습니다. 기존 프레임워크들과는 다르게 ZenFlow는 비싼 GPU가 훈련 단계 중 대부분을 기다리는 것을 방지합니다.

2025년 8월 20일 오후 7시 52분
Amazon Nova를 활용한 문서 정보 로컬라이제이션 성능평가

이 게시물은 Amazon Bedrock의 foundation models (FMs) 중 Amazon Nova Pro를 사용하여 높은 정확도의 문서 필드 로컬라이제이션을 실현하는 방법을 보여줍니다. 이러한 모델을 사용하면 프론트엔드 노력을 최소화하면서 문서 필드를 정확하게 찾아내고 해석할 수 있어 처리 오류와 수동 개입을 줄일 수 있습니다.

2025년 8월 19일 오후 2시 17분AWS Blog
Infosys가 아마존 베드락과 함께 석유 및 가스 시추 데이터를 처리하기 위한 생성 AI 솔루션을 구축하는 방법

Infosys는 석유 및 가스 부문을 위해 맞춤형 Amazon Bedrock을 활용한 고급 RAG 솔루션을 구축했다. 이 솔루션은 다중 모달 데이터 원본을 처리하며 텍스트, 다이어그램, 숫자 데이터를 매끄럽게 처리하고 다른 데이터 요소 간의 맥락과 관계를 유지한다. 이 글에서는 해당 솔루션에 대한 통찰과 다양한 접근 방식 및 아키텍처 패턴(다른 청킹, 다중 벡터 검색, 개발 중 하이브리드 검색)을 안내한다.

2025년 8월 19일 오후 2시 04분AWS Blog
NVIDIA AI, Nemotron Nano 2 AI 모델 출시: 제품용 기업 AI 모델 패밀리, 유사 크기 모델보다 6배 빠름

NVIDIA가 Nemotron Nano 2 패밀리를 공개했는데, 이는 최첨단 추론 정확도를 끌어올리는 하이브리드 Mamba-Transformer 대형 언어 모델을 소개하며 유사한 크기의 모델보다 최대 6배 높은 추론 처리량을 제공합니다. 이 릴리스는 데이터 및 방법론에 대한 전례없는 투명성으로 눈에 띕니다.

2025년 8월 19일 오후 1시 40분
Memp: LLM 기반 에이전트에서 프로시저 메모리를 핵심 최적화 대상으로 끌어올리는 작업에 중립적인 프레임워크

LLM 에이전트는 웹 연구, 보고서 작성, 데이터 분석 및 다단계 소프트웨어 워크플로우와 같은 복잡한 작업을 처리하는 데 충분히 강력해졌지만, 절차적 메모리에 어려움을 겪고 있습니다. 이 프레임워크는 프로시저 메모리를 핵심 최적화 대상으로 끌어올려 에이전트를 견고하게 만듭니다.

2025년 8월 19일 오전 4시 25분
R-Zero: 스스로 훈련 데이터를 생성하는 완전 자율 AI 프레임워크

대형 언어 모델이 자연어 이해부터 추론 및 코드 생성까지 다양한 분야를 혁신시켰다. 그러나 그들의 추론 능력을 실제 초인간 수준으로 끌어올리는 것은 방대하고 고품질의 인간 주석이 필요한 데이터셋 때문에 제한되어 왔다. Tencent AI Seattle Lab, Washington 대학, Maryland 대학 및 […] 연구진이 자체 훈련 데이터를 생성하는 완전 자율 AI 프레임워크인 R-Zero를 개발했다.

2025년 8월 16일 오전 12시 19분
Salesforce의 모델 엔드포인트 최적화하기 – Amazon SageMaker AI 추론 구성 요소로

Salesforce AI 플랫폼팀이 Amazon SageMaker AI를 활용하여 GPU 활용률을 최적화하고 리소스 효율성을 향상시키며 비용 절감을 이룬 경험을 공유합니다.

2025년 8월 15일 오후 12시 41분AWS Blog
Amazon Bedrock AgentCore Identity 소개: 대규모 agentic AI 보안

Amazon Bedrock AgentCore Identity는 AI 에이전트를 위한 종합 식별 및 액세스 관리 서비스로, AWS 리소스와 제3자 도구에 안전한 액세스를 가능하게 합니다. 에이전트 식별 디렉토리, 에이전트 권한 부여자, 리소스 자격 증명 제공자 및 리소스 토큰 보관소와 같은 강력한 식별 관리 기능을 제공하여 조직이 대규모로 AI 에이전트를 안전하게 배포할 수 있습니다.

2025년 8월 15일 오전 11시 28분AWS Blog
메타 CLIP 2: 전 세계 이미지-텍스트 쌍으로부터 처음으로 훈련된 대조적 언어-이미지 사전 훈련 (CLIP)

CLIP는 현대 비전 및 멀티모달 모델에서 중요한 역할을 하고 있으며, 제로샷 이미지 분류와 MLLM의 비전 인코더로 활용되고 있다. 그러나 대부분의 CLIP 변형은 영어 데이터에만 국한되어 있어 전 세계 웹의 다양한 언어 콘텐츠를 무시한다. 메타 CLIP를 포함한 대부분의 CLIP 변형은 영어 데이터만을 다룬다.

2025년 8월 8일 오전 3시 38분
알리바바, 그룹 시퀀스 정책 최적화(GSPO) 소개: Qwen3 모델을 촉진하는 효율적인 강화 학습 알고리즘

알리바바가 GSPO 알고리즘을 소개했다. 이 알고리즘은 Qwen3 모델을 촉진하는 효율적인 강화 학습 알고리즘이다. GSPO는 언어 모델의 확장에 결정적인 역할을 하며, 보다 심층적인 추론을 통해 경쟁 수준의 수학과 프로그래밍과 같은 복잡한 작업을 해결할 수 있도록 돕는다.

2025년 8월 7일 오후 1시 21분
Salesforce Agentforce를 Amazon Bedrock Agents와 통합하여 기업 업무 프로세스 자동화하기

이 게시물은 Salesforce Agentforce를 Amazon Bedrock Agents와 Amazon Redshift와 통합하여 기업 업무 프로세스를 자동화하는 실용적인 협업을 탐구합니다.

2025년 8월 7일 오후 12시 40분AWS Blog
구글 딥마인드가 Genie 3을 소개합니다: 이전에는 없던 다양한 대화형 환경을 생성할 수 있는 일반용도의 세계 모델

구글 딥마인드가 Genie 3을 발표했습니다. 이 혁신적인 AI 시스템은 간단한 텍스트 프롬프트에서 대화형이고 물리적으로 일관된 가상 세계를 생성할 수 있습니다. 이는 세계 모델 분야에서 큰 도약을 의미하며, 환경을 이해하고 시뮬레이션하는 것뿐만 아니라 동적인 공간을 생성할 수 있습니다.

2025년 8월 7일 오전 12시 38분
OpenAI, 열풍을 일으키는 최신 오픈 가중치 LLMs 공개: gpt-oss-120B (고성능 노트북에서 실행) 및 gpt-oss-20B (휴대폰에서 실행)

OpenAI가 GPT-2 이후 처음으로 오픈 가중치 언어 모델 두 개를 공개했다. gpt-oss-120b와 gpt-oss-20b는 누구나 다운로드하고 검토하며 자신의 하드웨어에서 실행할 수 있는 모델이다. 이 런칭은 AI 세계를 바꾸는 중요한 사건으로 평가된다.

2025년 8월 5일 오후 7시 53분
OpenAI의 GPT OSS 모델이 SageMaker JumpStart에서 이용 가능해졌습니다

Amazon SageMaker JumpStart에서 OpenAI의 새로운 GPT OSS 모델인 gpt-oss-120b와 gpt-oss-20b을 이용할 수 있다. 이를 통해 AWS에서 OpenAI의 최신 추론 모델을 배포하여 생성적 AI 아이디어를 실험하고 책임 있게 확장할 수 있다. 본문에서는 이러한 모델을 SageMaker JumpStart에서 어떻게 시작하는지에 대해 설명한다.

2025년 8월 5일 오후 7시 16분AWS Blog
Anthropic AI, LLMs의 개성 변화를 모니터링하고 제어하기 위해 Persona 벡터 소개

LLMs는 도움이 되고 무해하며 정직한 보조자 페르소나를 제공하는 대화형 인터페이스를 통해 배포된다. 그러나 LLMs는 훈련 및 배포 단계 전체에서 일관된 성격 특성을 유지하지 못한다. LLMs는 다양한 프롬프트 전략이나 문맥적 입력에 노출될 때 드라마틱하고 예측할 수 없는 페르소나 변화를 보인다. 훈련 과정은 의도하지 않은 성격 변화를 일으킬 수도 있다.

2025년 8월 5일 오후 6시 47분
AI가 판단하는 AI: Amazon Nova를 사용한 비구조화 텍스트 분석 확장

본문에서는 Amazon Bedrock에 여러 생성 AI 모델을 배포하여 LLM 모델에게 텍스트 응답의 주제 요약을 작성하도록 지시하는 방법을 강조합니다. 그런 다음 이러한 LLM 생성 요약을 검토하는 판사로서 여러 LLM 모델을 사용하여 요약 제목과 요약 설명 사이의 내용 일치를 판단하고 등급을 할당하는 방법을 보여줍니다.

2025년 8월 4일 오후 1시 51분AWS Blog
바이트댄스, Seed-Prover 소개: 자동 수학 정리 증명을 위한 고급 형식 추론 시스템

바이트댄스가 자연어 확장을 통해 수학적 추론을 향상시키는 LLMs를 소개했으며, 자연어 증명의 정확성 검증이 어려운 문제를 해결하기 위해 Seed-Prover를 도입했다.

2025년 8월 4일 오전 2시 51분
DeepReinforce 팀이 CUDA 최적화를 위한 자동화 강화 학습 (RL) 프레임워크 CUDA-L1을 소개, GPU로부터 3배 더 많은 성능을 발휘

DeepReinforce 팀이 CUDA-L1이라는 새로운 프레임워크를 소개했는데, 이는 인간 개입 없이 GPU로부터 평균 3.12배의 속도 향상과 최대 120배의 가속을 제공한다. 이는 학술적인 약속에 그치지 않고, 모든 결과가 오픈 소스 코드로 NVIDIA 하드웨어에서 재현 가능하다.

2025년 8월 3일 오전 1시 56분
Amazon Bedrock AgentCore 브라우저 도구 소개

Amazon Bedrock AgentCore 브라우저 도구를 소개합니다. 기업이 클라우드 기반 브라우저 자동화를 필요로 하는 이유와 실시간 데이터 접근을 요구하는 FMs에게 해결책을 제공합니다. 핵심 사용 사례와 도구의 핵심 기능에 대해 다루며, 도구 사용 방법을 안내합니다.

2025년 8월 1일 오후 3시 23분AWS Blog
아마존 베드락 에이전트코어 코드 해석기 소개

아마존 베드락의 에이전트코어 코드 해석기는 AI 에이전트가 격리된 샌드박스 환경에서 안전하게 코드를 실행할 수 있게 해주는 완전히 관리되는 서비스입니다. 보안, 확장성, 인프라 관리와 관련된 도전 과제를 해결하는 방법에 대해 설명합니다.

2025년 8월 1일 오후 3시 23분AWS Blog
Falcon LLM 팀이 Falcon-H1 기술 보고서를 발표: 70B LLM과 견줄만한 하이브리드 어텐션-SSM 모델

Falcon-H1 시리즈는 대형 언어 모델의 진화에서 중요한 발전을 이룬다. Transformer 기반 어텐션과 Mamba 기반 상태 공간 모델 (SSM)을 하이브리드 병렬 구성으로 통합하여 Falcon-H1은 우수한 성능, 메모리 효율성 및 확장성을 달성한다. 다양한 크기로 출시되며 0.5B~34B 파라미터를 제공한다.

2025년 8월 1일 오전 4시 36분
TransEvalnia: LLM을 사용한 세밀하고 인간 중심의 번역 평가를 위한 프롬프팅 기반 시스템

LLM을 활용한 번역 시스템은 인간 번역가를 능가할 정도로 발전했다. 그러나 LLM이 복잡한 작업에서 발전하면서 평가도 더 어려워지고 있다. 이에 TransEvalnia는 세밀하고 인간 중심의 번역 평가를 위한 프롬프팅 기반 시스템으로 개발되었다.

2025년 8월 1일 오전 12시 06분
Amazon Nova와 함께하는 구조화된 출력: 빌더를 위한 안내서

Amazon Nova의 제약 디코딩을 통해 구조화된 출력 도구의 신뢰성을 제공했다. 이제 Amazon Nova Foundation 모델(FMs)을 사용하여 복잡한 스키마를 기반으로 데이터를 추출하고 도구 사용 오류를 95% 이상 줄일 수 있다. 본문에서는 Amazon Nova FMs를 구조화된 출력 사용 사례에 어떻게 활용할 수 있는지 탐구한다.

2025년 7월 31일 오후 12시 44분AWS Blog
Amazon Strands Agents SDK: 에이전트 아키텍처와 관측 가능성에 대한 기술적인 심층 탐구

Amazon Strands Agents SDK는 AWS 환경과 통합되어 안전하고 확장 가능한 배포를 제공하며, 생산 환경에서 풍부한 관측 가능성을 제공합니다. 실용적인 사용 사례를 살펴보고 Strands를 활용한 단계별 예시를 제시합니다.

2025년 7월 31일 오후 12시 22분AWS Blog
Strands Agents SDK와 Tavily를 활용하여 동적 웹 리서치 에이전트 구축하기

본문에서는 Strands 에이전트와 Tavily의 웹 인텔리전스 API를 결합하여 강력한 리서치 에이전트를 소개하며, 기업 배포에 필요한 보안 및 규정 준수 기준을 유지하면서 복잡한 정보 수집 작업에 뛰어난 성과를 거둘 수 있는 방법을 소개합니다.

2025년 7월 31일 오전 10시 35분AWS Blog
코딩을 위한 최고의 로컬 LLMs(2025)

2025년 중반 기준으로 코딩을 위한 최고의 로컬 대형 언어 모델(LLMs)을 검토하고, 주요 모델 기능을 강조하며 로컬 배포를 쉽게 하는 도구에 대해 논의합니다.

2025년 7월 31일 오전 4시 13분
구글 딥마인드의 ‘가상 위성’ 알파어스 재단 소개

알파어스 재단은 AI 기술을 활용한 행성 매핑을 위해 구글 딥마인드가 개발한 ‘가상 위성’ 기술을 소개합니다. 지구 관측 데이터가 폭증하고 있지만 고품질 지면 실측 데이터 부족 문제를 해결하고자 합니다.

2025년 7월 31일 오전 3시 54분
Amazon Bedrock 및 MCP를 활용한 생성적 AI를 사용하여 GitHub 워크플로우 간소화

Amazon Bedrock FMs, LangGraph 및 Model Context Protocol (MCP)를 사용하여 강력한 에이전트 애플리케이션을 만드는 방법을 탐색하며, GitHub 워크플로우를 다루는 실제 시나리오를 소개합니다.

2025년 7월 30일 오후 12시 16분AWS Blog
너무 많은 사고는 LLMs를 깰 수 있다: 테스트 시간 계산의 역 스케일링

대형 언어 모델(LLMs)의 최근 발전으로 모델이 추론 중에 ‘더 오래 생각하게’ 함으로써 일반적으로 정확도와 견고성이 향상된다는 아이디어가 증가했다. 그러나 Anthropics이 주도한 연구 “테스트 시간 계산의 역 스케일링”은 강력한 반론을 제시한다.

2025년 7월 30일 오전 3시 48분
Rubrics as Rewards (RaR): 구조화된 다중 기준 평가 신호로 언어 모델을 교육하기 위한 강화 학습 프레임워크

Rubrics as Rewards (RaR)는 체계적이고 다중 기준을 갖는 평가 신호를 활용해 언어 모델을 교육하는 강화 학습 프레임워크이다. 명확하고 검증 가능한 결과를 갖는 과제에 대해 복잡한 추론을 수행하는 강화 학습을 통해 수학 및 코딩 분야에서 뛰어난 성능을 보이지만, 직접적인 보상 신호가 없는 모델을 교육하는 것에 도전이 존재한다.

2025년 7월 30일 오전 12시 12분
AWS DLCs, Amazon EKS 및 Amazon Bedrock를 사용하여 생성적 AI 웹 자동화를 위한 Meta Llama 3.2 Vision을 세밀하게 조정하고 배포하기

이 포스트에서는 Llama-3.2-11B-Vision-Instruct 모델을 웹 자동화 작업에 세밀하게 조정하고 배포하는 완벽한 솔루션을 제시합니다. AWS Deep Learning Containers (DLCs)를 사용하여 Amazon Elastic Kubernetes Service (Amazon EKS)에서 안전하고 확장 가능하며 효율적인 인프라를 구축하는 방법을 보여줍니다.

2025년 7월 29일 오후 2시 55분AWS Blog
니뽘 인도 상호펀드, 아마존 베드락에서 고도의 RAG 방법을 사용해 AI 보조 응답의 정확도 향상

니뽘 라이프 인도 자산관리가 채택한 솔루션은 사용자 쿼리를 재작성하고 응답을 집계 및 재랭킹하여 일반적인 RAG 방법보다 정확도를 향상시킴. 개선된 RAG 방법을 사용해 응답의 전반적인 정확도를 향상시키는 방법을 살펴봄.

2025년 7월 29일 오전 10시 57분AWS Blog
기업용 AI 어시스턴트 최적화: Crypto.com이 LLM 추론과 피드백을 활용하여 효율성 향상

Crypto.com은 사용자 및 시스템 피드백을 활용하여 지시 프롬프트를 지속적으로 개선하고 최적화하는 방법을 탐색합니다. 이 피드백 중심적 접근법은 다양한 서브시스템에 적응하면서 다양한 사용 사례에서 높은 성능을 유지하면서 더 효과적인 프롬프트를 만들 수 있게 했습니다.

2025년 7월 28일 오후 1시 53분AWS Blog
Nomic 임베딩과 Gemini LLM을 활용한 맥락 인식 멀티 에이전트 AI 시스템 구축

이 튜토리얼에서는 Nomic 임베딩과 Google의 Gemini를 활용한 고급 AI 에이전트 시스템의 완전한 구현 과정을 안내합니다. 우리는 의미 기억, 맥락적 추론, 멀티 에이전트 조정을 하나의 지능적 프레임워크로 통합하는 아키텍처를 처음부터 설계합니다.

2025년 7월 27일 오후 5시 40분
VLM2Vec-V2: 이미지, 비디오 및 시각 문서 간의 다중 모달 임베딩 학습을 위한 통합 컴퓨터 비전 프레임워크

VLM2Vec-V2는 이미지, 비디오, 시각 문서 등 다양한 데이터 형식을 공유된 밀집 표현 공간으로 인코딩하여 다중 모달 정보를 전달하는 임베딩 모델이다. 최근 대규모 기초 모델의 발전으로 임베딩 모델이 발전해왔지만, 기존 다중 모달 임베딩 모델은 MMEB 및 M-BEIR과 같은 데이터셋에서 훈련되었고 대부분의 초점이 이미지나 동영상에만 집중되어왔다.

2025년 7월 27일 오후 5시 10분
왜 맥락이 중요한가: 맥락화된 쿼리로 AI 모델 평가 변환

언어 모델 사용자들은 종종 자신이 원하는 것을 명확히 설명하지 않아 이해하기 어려워한다. 현재의 평가 방법은 종종 모델이 사용자의 백그라운드 지식에 따라 다르게 대답해야하는 질문에 대처하기 어렵다.

2025년 7월 27일 오전 1시 24분
대규모 추론 모델의 다중 문제 추론을 평가하는 스트레스 테스트 프레임워크 REST

대규모 추론 모델(LRMs)은 수학, 코딩, 과학적 추론과 같은 다양한 영역에서 복잡한 문제 해결 작업에 강력한 성능을 보여주고 있지만, 현재의 평가 방법은 주로 단일 문제 테스트에 초점을 맞추어 한계를 드러냅니다. 이 기사는 LRMs를 격리된 문제 해결 영역을 넘어서게 하는 새로운 다중 문제 스트레스 테스트 프레임워크 REST를 소개합니다.

2025년 7월 26일 오후 5시 39분
Google DeepMind, Aeneas 소개: 고대 라틴 문장의 AI 기반 맥락화 및 복원

에핑래피 디시플린은 고대 로마 세계를 이해하는 데 중요한 근거를 제공하는데, 구체나 금속과 같은 내구성 재료에 기록된 텍스트를 연구하는데 초점을 맞추고 있습니다. 그러나 단편적인 문장, 불확실한 연대, 다양한 지리적 유래, 약어의 널리 쓰임, 17만 6천개가 넘는 라틴 문장의 큰 말뭉치 등이라는 여러 어려움에 직면하고 있습니다.

2025년 7월 26일 오전 4시 28분
RoboBrain 2.0: 고급 로봇공학을 위한 신세대 비전-언어 모델

인공지능의 발전으로 현실 세계와 디지털 추론 간의 간극이 점점 좁아지고 있는 가운데, 신체적 AI는 로봇이 물리적 환경에서 효과적으로 지각, 추론 및 행동할 수 있도록 하는 분야다. 산업들이 가정부터 물류까지 복잡한 공간 및 시간 작업을 자동화하려는 가운데 AI 시스템을 보유하는 것이 중요하다.

2025년 7월 26일 오전 1시 43분
LLMs에서 효율적인 데모 선택을 위한 사전 선택 프레임워크 FEEDER

LLMs는 소량의 추론을 활용하여 여러 작업에서 우수한 성능을 보여주었지만, 대규모 훈련 데이터셋에서 대표적인 데모를 선택하는 것이 주요 문제다. FEEDER는 유사도 점수를 사용하여 관련성에 따라 데모를 선택하는 초기 방법과 추가적인 선택을 제안하는 현재 방법을 개선하였다.

2025년 7월 25일 오후 8시 04분
PerformLine이 Amazon Bedrock에서 프롬프트 엔지니어링을 활용하여 규정 준수 위반 감지하는 방법

PerformLine은 Amazon Bedrock을 활용하여 규정 준수 프로세스를 가속화하고 실행 가능한 통찰을 얻으며 속도와 정확성을 제공함. 이는 대규모 감시에 필수적인 요소로 작용함.

2025년 7월 25일 오후 1시 03분AWS Blog
DualDistill 및 Agentic-R1: AI가 자연어와 도구 사용을 결합하여 우수한 수학 문제 해결 능력을 갖는 방법

최신의 장기 CoT 추론 모델은 반복적인 자가 확인과 정제를 통해 추론 궤적을 생성함으로써 수학적 추론에서 최첨단 성능을 달성했습니다. 그러나 오픈 소스 장기 CoT 모델은 자연어 추론 트레이스에만 의존하므로 계산 비용이 많이 들고 검증 메커니즘이 없어 오류가 발생할 수 있습니다. 도구 지원 추론은 대규모 숫자 계산에 대해 효율성과 신뢰성을 제공합니다.

2025년 7월 25일 오전 12시 05분
GPT-4o는 텍스트를 이해하지만 명확하게 보일까요? 시각 작업에 대한 MFMs의 벤치마킹 연구

MFMs인 GPT-4o, Gemini, Claude와 같은 다중 모달 기반 모델들은 최근 빠른 발전을 보이고 있으나 시각 정보를 이해하는 능력은 여전히 불분명하다. 현재 사용되는 대부분의 벤치마크는 VQA나 분류와 같은 텍스트 중심 작업에 중점을 두고 있어 시각적 정보를 반영하지 못하는 한계가 있다.

2025년 7월 24일 오전 2시 07분
SYNCOGEN: 그래프 및 좌표 모델링을 통한 합성 가능한 3D 분자 생성을 위한 머신러닝 프레임워크

SYNCOGEN은 합성 가능한 분자 생성의 어려움을 해결하기 위한 머신러닝 프레임워크로, 신약 발견 분야에서 새로운 화합물을 빠르게 탐색하는 것을 돕는다. 하지만 많은 AI 생성 분자는 실험실에서 합성하기 어려워 실용적 가치를 제한하는데, SYNCOGEN은 이 문제를 극복하기 위해 그래프와 좌표 모델링을 결합한다.

2025년 7월 23일 오후 9시 20분
Amazon SageMaker AI를 사용하여 Direct Preference Optimization으로 Amazon Nova를 사용자 정의하기

AWS Summit에서 Amazon Nova foundation 모델을 위한 포괄적인 모델 사용자 정의 기능 세트를 소개했습니다. Amazon SageMaker AI에서 사용할 수 있는 준비된 레시피로, Nova Micro, Nova Lite 및 Nova Pro를 모델 훈련 수명주기 전반에 걸쳐 적응하는 데 사용할 수 있습니다. 이 게시물에서는 SageMaker 훈련 작업에서 Nova Micro를 사용자 정의하는 간소화된 방법을 소개합니다.

2025년 7월 23일 오후 3시 08분AWS Blog
Amazon Q 지수 및 모델 컨텍스트 프로토콜을 활용하여 생성적 AI 솔루션 강화하기 – 파트 1

이 포스트에서는 Amazon Q 지수와 MCP를 결합하는 최적의 방법과 통합 패턴을 탐색하여 기업이 안전하고 확장 가능하며 실행 가능한 AI 검색 및 검색 아키텍처를 구축할 수 있도록 도와줍니다.

2025년 7월 23일 오후 12시 40분AWS Blog
AWS의 일본 GENIAC 프로그램을 통해 구축한 Foundation 모델에 대한 가속기 이상의 교훈

2024년, 일본 경제산업성이 Generative AI 가속기 도전을 시작했고, AWS는 GENIAC의 두 번째 사이클을 위해 클라우드 제공업체로 선정되어 12개 기관에 기반 모델 개발을 위한 인프라와 기술 지원을 제공했다.

2025년 7월 22일 오후 12시 42분AWS Blog
Amazon Q Developer 및 MCP로 딥러닝 환경 간소화하기

이 글에서는 Amazon Q Developer와 Model Context Protocol (MCP) 서버를 사용하여 DLC 워크플로우를 간소화하여 DLC 컨테이너의 생성, 실행 및 사용자 정의를 자동화하는 방법을 탐색합니다.

2025년 7월 22일 오전 10시 52분AWS Blog
Amazon Bedrock 및 Amazon Transcribe를 활용한 AI 기반 자동 요약 시스템 구축하기

Amazon Bedrock와 Amazon Transcribe의 고급 기능을 활용하여 음성 녹음을 간결하고 구조화된 요약으로 변환하는 서버리스 회의 요약 시스템을 소개합니다. 이 프로세스를 자동화함으로써 조직은 핵심 통찰력, 업무 항목 및 결정 사항이 체계적으로 기록되고 이해관계자에게 접근 가능하게 됩니다.

2025년 7월 21일 오후 1시 34분AWS Blog
TikTok 연구원들, 저장소 수준 코드 성능 최적화를 위한 최초의 벤치마크 ‘SWE-Perf’ 소개

TikTok과 협력 기관의 연구원들이 소프트웨어 엔지니어링 작업에서 대형 언어 모델(LLMs)이 성능 최적화를 어떻게 하는지를 평가하는 데 특히 저장소 수준에서 처음으로 설계된 벤치마크 ‘SWE-Perf’를 소개했다.

2025년 7월 21일 오전 4시 56분
LLM 보상 모델을 신뢰할 수 있을까? 마스터-RM이 그들의 약점을 드러내고 해결한다

대규모 언어 모델(LLM)이 평가자로 작용하는 생성적 보상 모델은 검증 가능한 보상을 통한 강화 학습에서 주목받고 있다. 이 모델들은 열린 답변이나 복잡한 응답이 필요한 작업에 대해 엄격한 규칙 대신 후보 응답을 기준 답변과 비교하고 이진 피드백을 생성한다. 그러나 이러한 모델들은 일부 약점을 가지고 있는데, 이를 드러내고 해결하는 마스터-RM이 등장했다.

2025년 7월 20일 오후 7시 32분
NVIDIA AI, OpenReasoning-Nemotron 출시: DeepSeek R1 0528에서 유래된 추론 강화 LLMs 스위트

NVIDIA AI가 복잡한 추론 작업에서 뛰어난 성과를 내는 대규모 언어 모델인 OpenReasoning-Nemotron을 소개했다. 이 모델 스위트는 1.5B, 7B, 14B 및 32B 매개변수 버전으로 구성되어 있으며, 671B DeepSeek R1 0528 모델에서 추론 능력을 캡처하여 훨씬 작고 효율적인 모델로 압축했다.

2025년 7월 20일 오전 12시 38분
MemAgent: LLMs에서 장문 처리 재정의하는 강화 학습 프레임워크

MemAgent는 장문 처리를 위해 설계된 강화 학습 기반 메모리 에이전트로, LLMs에서 발생하는 성능 하락과 컴퓨팅 비용 문제를 해결하기 위해 ByteDance Seed와 Tsinghua University 연구진이 소개했다.

2025년 7월 19일 오후 6시 56분
Amazon SageMaker AI에서 Amazon Nova LLM을 이용해 생성형 AI 모델 평가하기

대형 언어 모델의 성능평가는 헷갈리거나 BLEU 점수와 같은 통계적 지표를 넘어섭니다. 실제 생성형 AI 시나리오에서 모델이 기준선이나 이전 버전보다 나은 출력물을 생성하는지 이해하는 것이 중요합니다. 특히 요약, 콘텐츠 생성과 같은 응용 분야에서 더욱 중요합니다.

2025년 7월 17일 오후 6시 12분AWS Blog
Amazon Bedrock 지식베이스와 Amazon S3 벡터로 비용 효율적인 RAG 애플리케이션 구축하기

이 포스트에서는 Amazon S3 벡터를 Amazon Bedrock 지식베이스와 통합하여 RAG 애플리케이션에 활용하는 방법을 소개합니다. 수백만 문서를 처리하면서도 검색 품질을 유지하고 S3 벡터를 사용하여 비용을 절감하는 실용적인 방법을 배울 수 있습니다.

2025년 7월 17일 오후 6시 09분AWS Blog
Amazon Bedrock에서 사용자 지정 Amazon Nova 모델을 활용한 온디맨드 배포 구현

이 글에서는 Amazon Bedrock를 사용하여 사용자 지정 모델의 온디맨드 배포 워크플로우를 안내하고, AWS 관리 콘솔 및 API 또는 AWS SDK를 사용한 단계별 구현 가이드를 제공합니다. 또한 Amazon Bedrock에서 사용자 지정 Amazon Nova 모델을 배포하는 데 있어 최적의 사례와 고려 사항에 대해 논의합니다.

2025년 7월 17일 오후 3시 36분AWS Blog
NeuralOS: 상호작용하는 운영 체제 인터페이스를 시뮬레이션하는 생성 프레임워크

최근 생성 모델의 발전은 컴퓨터와 상호작용하는 방식을 변화시켰으며, 사용자 경험을 더 자연스럽고 적응적이며 맞춤화된 것으로 만들고 있다. 초기 인터페이스와 명령줄 도구는 사용자가 기계에 적응해야 했지만, LLMs와 멀티모달 인공지능의 등장으로 사용자는 상호작용하고 있다.

2025년 7월 17일 오전 12시 37분
Gemini Embedding-001 이제 사용 가능: Google API를 통한 다국어 AI 텍스트 임베딩

구글의 Gemini Embedding 텍스트 모델 gemini-embedding-001이 Gemini API와 Google AI Studio를 통해 개발자들에게 일반적으로 제공되었으며, 강력한 다국어 및 유연한 텍스트 표현 기능을 AI 생태계로 확대시켰다. 다국어 지원, 차원적 유연성 기술 명세 및 모델 성능 주요 기능 메트릭/작업 Gemini-embedding-001 레거시 구글 모델 Cohere v3.0 OpenAI-3-large MTEB (다국어) 평균 […]

2025년 7월 15일 오전 2시 55분
LLMs에서의 분수적 추론: 추론 깊이 제어하는 새로운 방법

이 기사에는 LLMs에서의 현재 테스트 시간 계산 전략의 한계, 훈련 무료 및 모델에 중립적인 프레임워크로서의 분수적 추론(FR)의 소개, 추론 프롬프트 및 조정 가능한 스케일링을 사용한 잠재 상태 조작 기술, GSM8K, MATH500 및 GPQA에서의 너비 및 깊이 기반 스케일링 이점 등이 포함되어 있습니다. FR의 우수성을 보여주는 평가 결과 및 분석이 제시됩니다.

2025년 7월 14일 오후 1시 29분
Amazon Bedrock를 활용한 차량 데이터 수집 및 자동화를 위한 AI 기반 정책 생성 구축

Sonatus가 AWS Generative AI Innovation Center와 협력하여 생성적 AI를 활용해 데이터 수집 및 자동화 정책을 생성하는 자연어 인터페이스를 개발했다. 이 혁신은 정책 생성 과정을 몇 분 내지 몇 시간으로 줄이고 엔지니어 및 비전문가 모두에게 접근 가능하게 만들었다.

2025년 7월 14일 오후 12시 58분AWS Blog
Amazon SageMaker AI에서의 고급 파인 튜닝 방법

AWS에서 ML 모델을 세밀하게 튜닝할 때 특정한 필요에 맞는 적절한 도구를 선택할 수 있다. AWS는 데이터 과학자, ML 엔지니어, 비즈니스 사용자들이 ML 목표를 달성할 수 있도록 포괄적인 도구 모음을 제공한다. SageMaker 훈련 작업부터 HyperPod까지 다양한 ML 심도를 지원하는 솔루션을 구축했다. 현재 필요에 맞는 것부터 시작하여 접근 방식을 발전시켜가는 것을 권장한다.

2025년 7월 11일 오후 1시 26분AWS Blog
아마존 세이지메이커 AI에서 Flower 프레임워크를 활용한 연합 학습으로 강화된 사기 탐지

금융 기관이 확장 가능하고 개인정보 보호를 우선시하는 사기 탐지 시스템을 구축하는 데 세이지메이커와 연합 학습이 어떻게 도움이 되는지 탐구한다.

2025년 7월 11일 오후 12시 03분AWS Blog
NVIDIA AI가 DiffusionRenderer를 공개: 단일 비디오에서 편집 가능하고 사실적인 3D 장면을 위한 AI 모델

AI 기반 비디오 생성 기술이 빠르게 발전하고 있으며, NVIDIA의 DiffusionRenderer는 단일 비디오에서 편집 가능하고 사실적인 3D 장면을 생성하는 AI 모델을 소개했다. 이 모델은 놀라운 현실감을 가진 비디오를 생성하는 능력을 갖추고 있다. 그러나 이제는 전문적이고 현실적인 편집 기능이 추가되어 사용자가 비디오를 보다 전문적으로 수정할 수 있다.

2025년 7월 10일 오후 5시 25분
K8sGPT와 Amazon Bedrock를 사용하여 간편한 Kubernetes 클러스터 유지보수하기

이 포스트는 K8sGPT를 AWS의 Amazon Bedrock에서 K8sGPT CLI 및 K8sGPT Operator 두 가지 모드로 실행하는 최상의 방법을 보여준다. 이 솔루션이 어떻게 SRE들이 지속적인 모니터링과 운영 지능을 통해 Kubernetes 클러스터 관리를 간편화하는 데 도움이 되는지를 보여준다.

2025년 7월 10일 오전 11시 26분AWS Blog
구글 AI가 스켈러블 다중 모달 의학 추론을 위해 MedGemma 27B와 MedSigLIP를 오픈 소스로 공개

구글 DeepMind와 구글 연구가 MedGemma 우산 아래 두 가지 새로운 모델을 소개했습니다. MedGemma 27B는 대규모 비전-언어 기반 모델이며 MedSigLIP는 가벼운 의학 이미지-텍스트 인코더입니다. 이들은 건강 인공지능 분야에서 가장 능력있는 오픈 소스 모델입니다.

2025년 7월 10일 오전 3시 35분
AWS AI 인프라스트럭처와 NVIDIA Blackwell: AI의 다음 지평을 열어줄 두 강력한 컴퓨팅 솔루션

아마존 EC2 P6e-GB200 UltraServers와 P6-B200 인스턴스의 일반 공급을 발표하며, NVIDIA Blackwell GPU를 사용하여 가장 크고 정교한 AI 모델의 교육 및 배포에 적합한 솔루션을 소개합니다.

2025년 7월 9일 오후 5시 01분AWS Blog
Amazon SageMaker 통합 스튜디오를 활용하여 Amazon Bedrock 모델에 세밀한 접근 권한 구성하기

SageMaker 통합 스튜디오와 AWS IAM을 사용하여 Amazon Bedrock 모델을 위한 견고한 권한 프레임워크를 설정하는 방법을 소개하며, 어드민이 안전하고 협업 가능한 환경 내에서 특정 모델에 누가 접근할 수 있는지 정확히 관리하는 방법을 안내합니다. 기업의 관리 시나리오에 대한 코드 예시와 함께 모델 접근을 제어하기 위한 세밀한 권한을 생성하는 방법을 안내합니다.

2025년 7월 9일 오후 12시 45분AWS Blog
Hugging Face, SmolLM3 공개: 3B 길이의 다국어 추론 모델

Hugging Face가 SmolLM3을 공개했다. 3B 파라미터 아키텍처를 사용하여 강력한 다국어 추론을 제공하며 상태-of-the-art 성능을 획득하였다. 더 적은 파라미터로 비용 효율적이고 제약된 환경에서도 배포 가능하다.

2025년 7월 8일 오후 9시 04분
Amazon Bedrock API 키로 AI 개발 가속화

Amazon Bedrock의 개발자 경험을 향상시키는 중요한 업데이트로 API 키가 도입되었다. API 키는 Amazon Bedrock API에 빠르게 액세스할 수 있도록 제공되어, 개발자들이 설정보다는 개발에 집중할 수 있게 인증 프로세스를 간소화한다.

2025년 7월 8일 오후 4시 04분AWS Blog
바이엘 작물 과학이 AWS AI/ML 서비스를 활용하여 다음 세대 MLOps 서비스 구축 가속화

바이엘 작물 과학이 대규모 데이터 과학 작업을 관리하고 데이터 분석 요구에 맞게 모델을 훈련하며 개발자 지원을 위해 고품질 코드 문서를 유지함으로써 개발자 입사 시간을 최대 70% 줄이고 개발자 생산성을 최대 30% 향상시키는 방법을 소개합니다.

2025년 7월 8일 오후 12시 12분AWS Blog
아마존 베드락 배치 추론으로 콜센터 대화 분류하기

이 블로그에서는 Anthropic의 Claude Haiku 모델을 활용하여 텍스트 분류를 위한 종단간 솔루션을 구축하는 방법을 소개합니다. 여행사 콜센터 대화를 범주로 분류하는 과정을 안내하며 합성 훈련 데이터 생성, 대량 텍스트 데이터 처리, AWS 서비스를 활용한 전체 워크플로우 자동화 방법을 보여줍니다.

2025년 7월 8일 오후 12시 05분AWS Blog
Cohere Embed 4 다중 모달 임베딩 모델이 Amazon SageMaker JumpStart에서 이용 가능해

Cohere Embed 4 다중 모달 임베딩 모델이 Amazon SageMaker JumpStart에서 이용 가능하다. 이 모델은 다중 모달 비즈니스 문서용으로 설계되었으며, Embed 3 대비 주요 벤치마크에서 혁신적인 성능을 제공한다. 이번 포스트에서는 이 새로운 모델의 장점과 기능, 그리고 SageMaker JumpStart를 통해 모델을 배포하고 사용하는 방법에 대해 살펴본다.

2025년 7월 8일 오전 11시 43분AWS Blog
INRIX가 Amazon Bedrock을 활용해 교통 계획 가속화하는 방법

INRIX는 연결된 차량의 GPS 데이터를 활용한 교통 지능의 선구자이다. Amazon Bedrock을 활용하여 풍부한 교통 데이터를 활용해 특정 도시 지역에 대한 최적의 대책을 결정하고, 이를 거리 사진에서 자동으로 시각화하는 방법을 소개한다. 이 방법은 개념적인 도면을 사용한 기존 접근법과 비교해 상당한 계획 가속화를 가능하게 한다.

2025년 7월 7일 오후 4시 40분AWS Blog
비디오 확산에서 원형 주의가 품질 저하 없이 비용을 4.4배 줄이는 방법

비디오 확산 모델과 계산적 도전에 대한 소개. 이미지 합성의 성공을 바탕으로 확산 모델이 뛰어난 질과 일관성 있는 비디오를 생성하는 데 큰 진전을 이루었지만, 비디오의 추가적인 시간적 차원 처리는 계산 요구를 크게 증가시킴. 이로 인해 자기 주의는 시퀀스 길이에 따라 늘어나는데, 이는 이러한 모델을 훈련하거나 실행하는 것을 어렵게 만듦.

2025년 7월 7일 오후 4시 26분
SynPref-40M 및 Skywork-Reward-V2: 최첨단 보상 모델을 위한 확장 가능한 인간-인공지능 정렬

현재의 보상 모델의 한계를 이해하는 것은 중요하다. 오늘날의 최고의 모델들도 여전히 복잡한 인간 선호도의 전체 범위를 반영하는 데 어려움을 겪고 있다. 훈련 기술이 발전해도 의미 있는 진전이 제한되어있는데, 주요 이유는 모델의 한계 때문이다.

2025년 7월 6일 오후 10시 09분
Meta와 뉴욕대학교의 새로운 AI 방법, 반 온라인 강화 학습을 사용하여 LLM 정렬 향상

대형 언어 모델은 인간 사용을 최적화하기 위해 추가 정렬 단계가 필요한데, 강화 학습을 통해 모델이 인간 피드백이나 작업 기반 정확성에 따라 결정을 내릴 수 있게 함. 이를 통해 모델이 더 밀접하게 정렬될 수 있음.

2025년 7월 6일 오후 6시 05분
Chai Discovery Team가 Chai-2를 발표: AI 모델이 De Novo 항체 디자인에서 16%의 성공률 달성

Chai Discovery Team이 Chai-2를 소개했다. 이는 제로샷 De Novo 항체 디자인을 가능케 하는 멀티모달 AI 모델로, 각각의 대상에 대해 최대 20명의 후보자를 사용하여 52가지의 신규 대상에서 16%의 성공률을 달성했다. Chai-2는 이전 방법보다 100배 이상 우수한 결과를 보여주며, 2주 미만의 시간 내에 유효한 결합체를 제공하여 대규모 스크리닝의 필요성을 없앴다.

2025년 7월 6일 오전 1시 23분
AbstRaL: LLM에 추상적 추론 가르치기, GSM 벤치마크에서 강건성 향상을 위해

작은 LLM은 강건한 추론에 어려움을 겪는데, 익숙한 문제에서는 잘 작동하지만 이름이나 숫자를 바꾸거나 관련 없는 정보를 추가하는 등 약간의 변경으로 성능이 급격히 감소하는 것이 보고되고 있다.

2025년 7월 5일 오후 8시 46분
Crome: 구글 딥마인드의 LLM 정렬을 위한 견고한 보상 모델링을 위한 인과적 프레임워크

보상 모델은 LLM과 인간 피드백을 일치시키는 데 필수적이지만, 보상 해킹 문제에 직면한다. 이 모델들은 응답 길이나 형식과 같은 표면적 특성에 초점을 맞추고 사실성 및 관련성과 같은 진정한 품질 지표를 식별하지 못한다. 이 문제는 표준 훈련 목표가 의미 없는 상관 관계를 구별하지 못하기 때문에 발생한다.

2025년 7월 3일 오후 9시 11분
대형 언어 모델에서 주요 추론 단계를 식별하고 측정하는 머신러닝 프레임워크: Thought Anchors

대규모 언어 모델의 핵심 추론 단계를 식별하고 측정하는 머신러닝 프레임워크인 Thought Anchors 소개. 현재 해석 도구의 한계를 이해하는데 중점을 두며, DeepSeek 및 GPT 변형과 같은 AI 모델이 복잡한 추론 작업을 처리하는 데 어려움을 겪고 있음을 설명.

2025년 7월 3일 오후 8시 48분
AI로 네트워크 작업 변환: Amazon Bedrock를 활용한 Swisscom의 네트워크 어시스턴트 구축

Swisscom이 어떻게 네트워크 어시스턴트를 개발했는지, 초기 어려움과 해결책 구현 방법, 측정 가능한 혜택을 제공하는 솔루션에 대해 탐구합니다. 기술 아키텍처를 살펴보고 핵심 교훈을 논의하며 네트워크 작업을 더욱 변형할 수 있는 미래 개선 사항을 살펴봅니다.

2025년 7월 3일 오전 10시 07분AWS Blog
DeepSeek R1T2 Chimera: R1-0528보다 200% 빠르며 개선된 추론과 간결한 출력

TNG 기술 컨설팅이 새로운 AoE 모델인 DeepSeek-TNG R1T2 Chimera를 발표했다. R1-0528, R1, V3-0324 세 부모 모델로 구성된 R1T2는 전문가 계층 보간을 통해 대형 언어 모델에서 새로운 효율성을 발휘한다.

2025년 7월 3일 오전 7시 39분
ReasonFlux-PRM: LLM에서 사고 연쇄 추론을 향상시키는 궤적 인식 보상 모델

대형 언어 모델은 논리적 사고 과정을 시뮬레이션하는 중간 단계를 통해 추론 정확도를 향상시키고 오류를 명확히 합니다. ReasonFlux-PRM은 LLM에서 이러한 사고 연쇄를 향상시키는 궤적 인식 보상 모델입니다.

2025년 7월 2일 오후 8시 42분
바이두 연구원들, 더 스마트한 정보 검색을 위한 AI 검색 패러다임 제안

최신 검색 시스템은 사용자 쿼리의 부피와 복잡성이 증가함에 따라 콘텍스트 인식 및 적응형 정보 검색 수요가 높아지고 있습니다. 이에 바이두 연구원들은 단순 키워드 일치나 문서 순위 매기기에 그치던 시스템을 넘어 계층적 추론이 필요한 사용자 쿼리에 대응하는 지능적이고 적응형 검색 엔진을 제안합니다.

2025년 7월 1일 오후 10시 14분
AI 혁신 가속화: Amazon Bedrock을 활용한 기업 워크로드용 MCP 서버 확장

Amazon Bedrock을 활용한 중앙 집중식 Model Context Protocol (MCP) 서버 구현을 통해 기업 AI 워크로드에 대한 공유 리소스 및 도구 접근을 표준화하고 중앙 집중식 접근을 통해 보안과 거버넌스를 유지하면서 AI 혁신을 가속화하는 솔루션을 소개합니다.

2025년 7월 1일 오후 2시 16분AWS Blog
바이두, ERNIE 4.5 공개 소스화: 0.3B에서 424B 파라미터까지 스케일링하는 LLM 시리즈

바이두가 최신 ERNIE 4.5 시리즈를 오픈 소스로 공개했다. 이는 언어 이해, 추론 및 생성을 강화하기 위해 설계된 강력한 foundation 모델의 가족이다. 공개된 모델은 0.3B 밀집 모델부터 424B 파라미터를 가진 거대한 MoE(Mixture-of-Experts) 아키텍처까지 10가지 모델 변형을 포함하고 있다.

2025년 7월 1일 오전 11시 40분
LLMs의 추론 한계를 탐구하는 구조화된 수학 벤치마크 OMEGA

DeepSeek-R1과 같은 대규모 언어 모델이 수학 문제에서 우수한 결과를 보이지만, 일부 모델은 알려진 대수 규칙을 반복하거나 다이어그램 문제에서 좌표 기하학을 사용하는 등 한정된 기법에 의존한다. OMEGA는 이러한 모델의 추론 한계를 탐구하기 위한 구조화된 수학 벤치마크이다.

2025년 7월 1일 오전 10시 22분
LongWriter-Zero: 합성 데이터 없이 초장문 텍스트 생성을 위한 강화 학습 프레임워크

LongWriter-Zero는 강화 학습 기반의 프레임워크로, 수천 단어에 걸쳐 있는 초장문 텍스트 생성에 도전하는 것을 소개하며, 대규모 언어 모델이 직면한 문제점들을 다루고 있다. 주요 문제로는 불일치, 주제 이탈 등이 있다.

2025년 6월 30일 오후 9시 04분
Amazon SageMaker Python SDK를 향상시킨 새로운 업데이트로 AI 추론 워크플로우 구축 및 배포하기

이 포스트에서는 SageMaker Python SDK를 사용하여 여러 모델을 활용하여 워크플로우를 설정하고 배포하는 방법을 상세히 설명하고 있습니다. 복잡한 추론 워크플로우를 구축하고 SageMaker 엔드포인트에 배포하며 실시간 추론을 수행하는 예시를 살펴봅니다.

2025년 6월 30일 오후 5시 51분AWS Blog
Amazon Q Business에서 LLMs를 활용한 이미지 파일의 컨텍스트 추출

이 포스트에서는 Amazon Q Business 애플리케이션 내의 사용자 정의 문서 보강 (CDE) 기능을 사용하여 독립적인 이미지 파일을 처리하는 단계별 구현을 살펴봅니다. AWS Lambda 함수를 CDE 내에서 구성하여 여러 이미지 파일 유형을 처리하고, 이 통합이 Amazon Q Business의 포괄적인 통찰력 제공 능력을 향상시키는 예시 시나리오를 소개합니다.

2025년 6월 30일 오전 10시 03분AWS Blog
AI 에이전트를 위한 기계 학습과 통계 분석을 결합한 사용자 정의 AI 도구 구축

Python을 사용하여 LangChain으로 구동되는 AI 에이전트에 통합할 수 있는 강력하고 지능적인 데이터 분석 도구를 만드는 방법을 안내하는 튜토리얼. 사용자 입력을 위한 구조화된 스키마를 정의하고 상관 분석과 같은 주요 기능을 구현함으로써 사용자 정의 AI 에이전트를 구축하는 중요성을 강조.

2025년 6월 29일 오전 6시 03분
텐센트, 훈유안-A13B 공개: 이중 모드 추론과 256K 컨텍스트를 갖춘 13B 액티브 파라미터 MoE 모델

텐센트의 훈유안 팀이 희소 MoE 아키텍처로 구축한 새로운 오픈소스 대형 언어 모델인 훈유안-A13B를 소개했다. 이 모델은 80억 개의 총 파라미터 중 추론 중에는 13억 개만 활성화되어 성능과 계산 비용 사이에 뛰어난 효율을 제공한다. 그룹화된 쿼리 어텐션 (GQA), 256K 컨텍스트 길이 등을 지원한다.

2025년 6월 28일 오후 4시 33분
알리바바 Qwen 팀, Qwen-VLo 출시: 통합 멀티모달 이해 및 생성 모델

알리바바 Qwen 팀이 Qwen 모델 패밀리에 새로운 모델인 Qwen-VLo를 소개했습니다. 이 모델은 멀티모달 이해와 생성을 단일 프레임워크 내에서 통합하는 데 중점을 두었습니다. Qwen-VLo는 강력한 창의적 엔진으로 사용자들이 여러 언어로 텍스트, 스케치 및 명령에서 고품질 시각 콘텐츠를 생성, 편집 및 개선할 수 있도록 지원합니다.

2025년 6월 28일 오전 3시 03분
Unbabel, 고품질 번역 및 다국어 LLMs에서 지시를 따르는 통합 프레임워크 TOWER+ 소개

대형 언어 모델은 대량의 학습 말뭉치를 활용하여 수십 개의 언어 및 방양을 번역하고, 언어적 미묘성을 포착함으로써 기계 번역 분야의 진전을 이끌어왔다. 그러나 이러한 모델을 번역 정확도를 위해 세밀하게 조정하는 것은 종종 그들의 지시 따르기 및 대화 기술을 손상시키며, 일반 목적의 버전들은 전문적인 충실성 기준을 충족시키기 어렵다. TOWER+는 정확하고 문화적으로 인식된 번역과 함께 다국어 LLMs에서 지시를 따르는 것을 균형잡아준다.

2025년 6월 27일 오후 3시 36분