
Cohere Embed 4 다중 모달 임베딩 모델이 Amazon SageMaker JumpStart에서 이용 가능하다. 이 모델은 다중 모달 비즈니스 문서용으로 설계되었으며, Embed 3 대비 주요 벤치마크에서 혁신적인 성능을 제공한다. 이번 포스트에서는 이 새로운 모델의 장점과 기능, 그리고 SageMaker JumpStart를 통해 모델을 배포하고 사용하는 방법에 대해 살펴본다.

Cohere Embed 4 다중 모달 임베딩 모델이 Amazon SageMaker JumpStart에서 이용 가능하다. 이 모델은 다중 모달 비즈니스 문서용으로 설계되었으며, Embed 3 대비 주요 벤치마크에서 혁신적인 성능을 제공한다. 이번 포스트에서는 이 새로운 모델의 장점과 기능, 그리고 SageMaker JumpStart를 통해 모델을 배포하고 사용하는 방법에 대해 살펴본다.

INRIX는 연결된 차량의 GPS 데이터를 활용한 교통 지능의 선구자이다. Amazon Bedrock을 활용하여 풍부한 교통 데이터를 활용해 특정 도시 지역에 대한 최적의 대책을 결정하고, 이를 거리 사진에서 자동으로 시각화하는 방법을 소개한다. 이 방법은 개념적인 도면을 사용한 기존 접근법과 비교해 상당한 계획 가속화를 가능하게 한다.

이 기사는 전통적인 RAG 시스템이 불필요한 비용을 발생시키고 효율성을 저하시키는 문제를 해결하기 위해 실시간 지식베이스 솔루션을 제안한다. 이 솔루션은 필요할 때만 문서를 처리하고 사용되지 않는 자원을 자동으로 제거하여 조직이 문서 저장소를 확장할 수 있게 도와준다.

Swisscom이 어떻게 네트워크 어시스턴트를 개발했는지, 초기 어려움과 해결책 구현 방법, 측정 가능한 혜택을 제공하는 솔루션에 대해 탐구합니다. 기술 아키텍처를 살펴보고 핵심 교훈을 논의하며 네트워크 작업을 더욱 변형할 수 있는 미래 개선 사항을 살펴봅니다.

SageMaker Unified Studio 및 SageMaker AI를 활용하여 대규모 언어 모델(LLMs)을 맞춤화하는 단계를 안내하며, 데이터 발견부터 SageMaker AI 분산 훈련을 통한 FMs 세밀한 조정, MLflow를 사용한 메트릭 추적, 실시간 추론을 위한 SageMaker AI 추론 모델 배포까지 엔드투엔드 과정을 다룬다. JupyterLab 노트북을 활용할 때 올바른 인스턴스 크기 선택과 디버깅의 최상의 실천법에 대해서도 논의한다.

Amazon Bedrock을 활용한 중앙 집중식 Model Context Protocol (MCP) 서버 구현을 통해 기업 AI 워크로드에 대한 공유 리소스 및 도구 접근을 표준화하고 중앙 집중식 접근을 통해 보안과 거버넌스를 유지하면서 AI 혁신을 가속화하는 솔루션을 소개합니다.

이 글에서는 AWS에서 LLM을 활용한 구조화된 데이터 쿼리 기능을 구현하는 다섯 가지 패턴을 탐색하며, 직접적인 대화형 인터페이스, BI 도구 향상, 그리고 맞춤형 텍스트-SQL 솔루션 등을 다룹니다.

이 포스트에서는 Amazon Q Business 애플리케이션 내의 사용자 정의 문서 보강 (CDE) 기능을 사용하여 독립적인 이미지 파일을 처리하는 단계별 구현을 살펴봅니다. AWS Lambda 함수를 CDE 내에서 구성하여 여러 이미지 파일 유형을 처리하고, 이 통합이 Amazon Q Business의 포괄적인 통찰력 제공 능력을 향상시키는 예시 시나리오를 소개합니다.

Amazon Q 개발자 CLI를 사용하여 AWS Diagram MCP 및 AWS Documentation MCP 서버와 함께 고급 아키텍처 다이어그램을 생성하는 방법에 대해 살펴봅니다. 기본 다이어그램과 실제 다이어그램에 대한 기술, 자세한 예제 및 단계별 지침에 대해 설명합니다.

이 포스트에서는 Amazon Q CLI를 AWS Cost Analysis MCP 서버와 함께 사용하여 AWS 최상의 실천 방법을 따르는 정교한 비용 분석을 수행하는 방법을 탐색합니다. 기본 설정과 고급 기술, 자세한 예제 및 단계별 지침에 대해 설명합니다.

이 포스트에서는 Amazon Bedrock Guardrails에서 제공하는 새로운 안전장치 계층을 소개하고, 이점 및 사용 사례를 설명하며, AI 애플리케이션에서 이를 구현하고 평가하는 방법에 대한 지침을 제공합니다.

이 게시물에서는 아마존 베드락 에이전트의 다중 에이전트 협업을 사용하여 생명 과학 산업의 복잡한 비즈니스 문제를 해결하는 방법을 소개합니다. 연구 및 개발(R&D), 법률 및 재무 분야의 전문 에이전트가 다중 소스에서 데이터를 분석하여 종합적인 비즈니스 통찰을 제공하는 방법을 보여줍니다.

아마존 내부 기술 팀이 아마존 노바 모델을 평가하여 추론 속도와 비용 효율성을 현저히 향상시킨 사례를 소개했다.

SageMaker AI 고객을 위해 텍스트 랭킹 및 질의응답 UI 템플릿을 소개합니다. SageMaker에서 이러한 템플릿을 설정하여 대규모 언어 모델 훈련을 위한 고품질 데이터셋을 만드는 방법에 대해 안내합니다.

NewDay는 4백만 명의 고객에게 신용 책임성을 제공하고 자체 기술 시스템을 통해 우수한 고객 경험을 제공함. NewDay의 연락 센터는 연간 250만 통화를 처리하며, 90% 이상의 정확도로 작동하는 생성 모델 기반 고객 서비스 에이전트 어시스트를 구축함.

이 게시물에서는 RAG(검색 증강 생성), 멀티툴 오케스트레이션, LangGraph를 통한 조건부 라우팅과 같은 적극적인 워크플로 패턴이 어떻게 인공지능 및 기계 학습(AI/ML) 개발자와 기업 아키텍트가 채택하고 확장할 수 있는 엔드 투 엔드 솔루션을 가능하게 하는지를 보여줍니다. 재정 관리 AI 어시스턴트의 예제를 통해, 수입 통화(오디오) 및 프레젠테이션 슬라이드(이미지)를 분석하고 관련 재정 데이터 피드와 함께 양적 연구 및 근거 있는 재정 상담을 제공할 수 있는 방법을 안내합니다.

이 게시물에서는 Amazon Bedrock에서 사용 가능한 Amazon Nova 패밀리의 다양한 이해 모델의 벤치마킹을 제시하여 회의 요약 작업에 최적의 모델을 선택하는 방법에 대한 통찰을 제공합니다.

Anomalo는 AWS AI 및 머신러닝과 함께 사용되어 비정형 데이터를 프로파일링, 유효성 검사, 정리하여 데이터 레이크를 신뢰할 수 있는 소스로 변환시켜 생산 준비된 AI 프로젝트를 위한 자산으로 제공하는 방법을 탐구합니다.

Amazon Bedrock Knowledge Bases를 사용하여 구조화된 데이터 검색 솔루션을 구성하는 방법과 실용적인 코드 예제 및 템플릿을 제공한다. 이를 통해 대화형 데이터 인터페이스를 신속하게 구축하고 확장할 수 있는 구현 샘플과 추가 고려 사항을 다룬다.

대형 언어 모델은 AI 시스템에서 중요한 역할을 하고 있지만, 클라우드 인프라를 필요로 하기 때문에 레이턴시, 높은 비용 및 개인 정보 보호 문제가 발생한다. OpenBMB의 MiniCPM4는 희소 어텐션과 빠른 추론을 통해 엣지 장치를 위한 초 효율적인 언어 모델을 제공한다.

이 포스트에서는 PagerDuty Advance를 통합하여 사고 관리 능력을 향상시킬 수 있는 방법을 보여줍니다. 이는 응답 워크플로우를 자동화하고 운영 건강에 대한 실시간 통찰력을 제공하는 혁신적인 AI 기능을 포함합니다. Amazon Q 비즈니스용 데이터 액세서로 PagerDuty Advance를 구성하는 방법을 보여주며, 이를 통해 사고 대응 중에 여러 시스템 전체에서 기업 지식을 검색하고 액세스할 수 있습니다.

이제 Qwen2, Qwen2_VL, Qwen2_5_VL 아키텍처의 사용자 정의 가중치를 가져올 수 있으며, Qwen 2, 2.5 Coder, Qwen 2.5 VL, QwQ 32B와 같은 모델을 포함합니다. 이 게시물에서는 Amazon Bedrock Custom Model Import를 사용하여 Qwen 2.5 모델을 배포하는 방법을 다루며, AWS 인프라 내에서 최신 AI 기능을 효율적인 비용으로 활용할 수 있습니다.

이 포스트에서는 Amazon Bedrock의 기능을 활용하여 Amazon Web Services (AWS)에서 생성적 AI 애플리케이션을 구축하는 방법을 소개합니다. Amazon Bedrock를 사용하여 생성적 AI 여정의 각 단계에서 어떻게 활용할 수 있는지 강조하며, 숙련된 AI 엔지니어와 새로운 생성적 AI 분야의 입문자 모두에게 가치 있는 가이드입니다.

Articul8가 일반적인 LLM을 능가하는 도메인 특화 모델로 기업용 생성적 AI를 재정의하고, Amazon SageMaker HyperPod가 이를 어떻게 가속화했는지 살펴봅니다. Articul8의 반도체 모델은 최고의 오픈 소스 모델 대비 2배 높은 정확도를 달성하며 배포 시간을 4배 단축했습니다.

아마존 베드록과 LangGraph를 활용하여 전자 상거래 소매업체를 위한 맞춤형 고객 지원 경험 구축하는 방법을 소개하고, Mistral Large 2 및 Pixtral Large 모델을 통합하여 티켓 분류, 주문 세부 정보 추출, 손상 평가, 문맥적 응답 생성 등 핵심 고객 지원 업무를 자동화하는 방법을 안내합니다.

Amazon Bedrock Guardrails를 사용하여 해로운 다중 모달 콘텐츠를 차단하는 방법을 소개하고, 의료 보험 콜 센터 시나리오를 활용하여 다양한 가드레일을 구성하고 테스트하는 과정을 안내합니다.

Amazon Bedrock의 채택이 증가함에 따라, 비용 최적화는 필수적이며 조직의 예산과 일치시키고 관리 가능한 생성적 AI 애플리케이션의 배포 및 운영 비용을 돕는다. 이 글에서는 Amazon Bedrock을 사용하면서 전략적 비용 최적화 기술에 대해 배울 수 있다.

Pipecat과 Amazon Bedrock을 활용해 지능적인 AI 음성 에이전트를 구축하는 방법을 배울 수 있는 시리즈 포스트. Amazon Bedrock의 foundation 모델을 활용하는 이 프레임워크는 음성 및 멀티모달 대화형 AI 에이전트를 위한 오픈소스이며, 구현을 안내하기 위한 고수준 참조 아키텍처, 모범 사례 및 코드 샘플이 포함되어 있다.

글로벌 풀서비스 디지털 마케팅 기관 Kepler는 아마존 Q Business를 도입하여 AI 접근을 민주화하고 엄격한 보안 기준을 유지함으로써 직원 당 주당 평균 2.7시간의 수동 작업 시간을 절약하고 고객 서비스 제공을 개선했다.

이 포스트에서는 Amazon Bedrock Marketplace에서 제공되는 Open AI Whisper foundation model Whisper Large V3 Turbo를 사용하여 거의 실시간 트랜스크립션을 생성하는 방법을 보여줍니다. 이 트랜스크립션은 Amazon Bedrock에 의해 처리되어 요약 및 민감한 정보의 마스킹이 이루어집니다.

이 블로그 포스트에서는 자연어 및 이미지 쿼리를 사용하여 시맨틱 비디오 검색을 위해 대형 비전 모델(LVMs)을 활용하는 방법을 소개합니다. 시간 프레임 부드럽게 하는 등의 사용 사례별 메소드를 소개하여 비디오 검색 성능을 향상시킵니다. 또한, Hugging Face Model Hub의 공개 LVMs를 활용하여 비디오, 이미지 및 텍스트 처리를 수행하기 위해 Amazon SageMaker AI에서 비동기 및 실시간 호스팅 옵션을 사용하여 이 접근 방식의 엔드 투 엔드 기능을 설명합니다. 마지막으로 Amazon OpenSearch Serverless를 사용하여 저지연 시맨틱 비디오 검색을 수행합니다.

맥락적 검색은 각 청크에 설명적 맥락을 추가하여 임베딩을 생성함으로써 전통적인 RAG를 향상시킨다. 이 접근 방식은 관련 맥락 정보로 벡터 표현을 보강하여 사용자 쿼리에 응답할 때 의미적으로 관련된 콘텐츠를 더 정확하게 검색할 수 있게 한다.

Anthropic에서 출시된 코딩 에이전트인 Claude Code와 Amazon Bedrock 프롬프트 캐싱을 결합하여 개발 워크플로우를 개선하는 방법을 살펴볼 것이다. 이 강력한 조합은 추론 응답 대기 시간을 줄이고 입력 토큰 비용을 절감함으로써 빠른 응답을 제공하게 된다.

최근 생산적 AI 기업들이 자사의 제품을 개발하는 데 투자함에 따라 모델 능력에서 놀라운 발전이 있었습니다. Anthropic의 Claude Opus 4 & Sonnet 4와 Amazon Bedrock의 Amazon Nova와 같은 언어 모델은 점점 더 정교하게 추론, 작성 및 응답 생성이 가능해졌습니다. 그러나 이러한 모델이 강력해지더라도, 그들은 여전히 […]

Bevar Ukraine은 우크라이나 난민들을 위한 AI 어시스턴트 Victor를 개발했다. 이는 AWS 서비스를 활용하여 다국어 지원, 자동화된 지원 및 데이터 보안 및 GDPR 준수를 유지하면서 난민들의 요구를 해결하는데 중점을 둔다.

Noodoe가 AI와 Amazon Bedrock을 활용하여 전기차 충전 운영을 최적화하는 방법을 탐색합니다. LLM 통합을 통해 Noodoe는 역동적인 가격 책정과 다국어 지원을 가능하게 하며, 이러한 혁신은 다운타임을 줄이고 효율성을 극대화하며 지속가능성을 향상시킵니다.

실시간 사용자 피드백과 감독을 통해 이점을 얻는 대화형 응용 프로그램과 달리, 비대화형 응용 프로그램은 더 강력한 가드레일과 철저한 품질 보증이 필요하며 Amazon.com의 네 가지 생성 AI 응용 사례를 살펴봅니다.

글에서는 성숙한 생성형 AI 기반의 개요를 제시하고 구성 요소를 탐구하며 종단간의 전망을 제시합니다. 다양한 운영 모델을 살펴보고 해당 기반이 그 한계 내에서 운영될 수 있는 방법을 탐구합니다. 마지막으로 기업이 진화 경로를 평가하는 데 도움이 되는 성숙도 모델을 제시합니다.

Amazon Bedrock의 Model Copy 및 Model Share 기능은 AI 애플리케이션의 라이프사이클을 개발부터 프로덕션까지 효과적으로 관리하는 강력한 옵션을 제공한다. 본문에서는 Model Share와 Model Copy 기능에 대해 심층적으로 살펴보고, 전형적인 개발부터 프로덕션 시나리오에서의 기능, 장점, 실용적인 적용을 탐구한다.

이 글에서는 아마존 노바 캔버스 이미지 생성 모델에 초점을 맞추고, 이미지 생성 과정(확산)의 개요를 제공하며, 아마존 노바 캔버스를 활용한 텍스트-이미지 생성을 위한 입력 매개변수에 대해 깊이 파헤칩니다.

아마존 노바 캔버스가 고급 이미지 생성 기술을 통해 실제 비즈니스 문제를 해결하는 방법을 탐구합니다. 이 기술의 강력함과 유연성을 보여주는 인테리어 디자인 및 제품 사진 촬영 두 가지 구체적인 사용 사례에 초점을 맞춥니다.

Gemma 3 27B 모델이 Amazon Bedrock Marketplace와 SageMaker JumpStart를 통해 이용 가능하다. 어떻게 시작하고 강력한 지시 지향 기능을 활용하는지 안내.

이 글에서는 Amazon Bedrock 데이터 자동화를 사용하여 멀티모달 콘텐츠를 처리하고 추출된 정보를 Amazon Bedrock 지식 베이스에 저장한 다음 RAG 기반 Q&A 인터페이스를 통해 자연어 질의를 가능하게 하는 풀 스택 애플리케이션을 구축하는 방법에 대해 안내합니다.

AI 쇼핑 어시스턴트인 Rufus는 AWS AI 칩과 병렬 디코딩을 활용하여 프라임 데이의 수요를 충족시키며 응답 시간을 2배로 빠르게 하고 추론 비용을 50% 절감하며 피크 트래픽 중에도 원활한 확장성을 달성했습니다.

아마존 베드락 데이터 자동화는 조직이 개발을 간소화하고 효율성을 향상시키는데 도움이 됩니다. 비디오 또는 오디오에 대한 구조화되지 않은 콘텐츠 처리를 대규모로 간소화하며, 새로운 기능을 통해 비디오와 오디오에서 장면 요약, 주요 주제, 고객 의도 등을 더 빠르게 추출할 수 있게 해줍니다. 이는 영상과 오디오의 가치를 끌어내어 판매 생산성 향상 및 고객 경험 향상과 같은 사용 사례에 활용할 수 있습니다.

GuardianGamer는 Amazon Nova와 Amazon Bedrock을 활용하여 확장 가능하고 효율적인 감독 플랫폼을 제공합니다. 부모에게 의미 있는 인사이트를 제공하면서도 게임 활동과 소셜 상호작용을 감시하는 비침입적인 방법을 유지합니다.

이 게시물은 Amazon Bedrock, 사용자 피드백 데이터셋 및 퓨-샷 프롬프팅을 결합하여 응답을 미세조정하여 사용자 만족도를 높일 수 있는 방법을 보여줍니다. Amazon Titan Text Embeddings v2를 사용하여 응답 품질을 통계적으로 유의미하게 향상시켰으며, 정확하고 개인화된 응답을 원하는 애플리케이션에 유용한 도구로 나타냈습니다.

이 글에서는 Amazon Bedrock 에이전트를 Slack 워크스페이스에 통합하는 솔루션을 제시합니다. Slack 워크스페이스 구성, Amazon Web Services에 통합 구성 요소 배포, 이 솔루션 활용 방법에 대해 안내합니다.

아마존 베드락과 랭체인을 활용하여 안전한 분산 로깅을 위한 솔루션을 소개합니다.

이 블로그 포스트에서는 Amazon Bedrock를 활용하여 보험 데이터를 처리하는 다중 에이전트 협업 파이프라인을 소개하며, 분류, 변환 및 메타데이터 추출을 위한 전문 에이전트를 특징으로 합니다. 이 도메인에 대한 인식 접근 방식이 청구 문서, 비디오 및 오디오 파일과 같은 다양한 데이터 형식을 메타데이터로 변환하여 사기 탐지, 고객 360도 전망 및 고급 분석을 가능하게 하는 방법을 보여줍니다.

Onity Group은 Amazon Bedrock 및 기타 AWS 서비스를 활용하여 문서 처리 능력을 혁신하였습니다. 새로운 솔루션 덕분에 이전 OCR 및 AI/ML 솔루션 대비 20%의 정확도 향상과 50%의 문서 추출 비용 절감 효과를 거뒀습니다.

HERE 기술은 GenAIIC와 협력하여 사용자의 자연어 질의에 대한 설명과 실행 가능한 코드 솔루션을 제공하는 지능형 AI 코딩 어시스턴트를 만들었습니다. 사용자의 질문을 자연어로 HTML 코드로 번역하고 JavaScript를 삽입하여 즉시 상호작용 지도로 렌더링할 수 있는 확장 가능한 시스템을 구축하는 것이 요구되었습니다.

본 포스트는 RAG 기반 응용 프로그램을 위한 기본 환각 탐지 시스템을 만드는 방법을 안내하며, 정확도, 정밀도, 재현율 및 비용 측면에서 다른 방법의 장단점을 고려합니다.

Apoidea 그룹은 Amazon SageMaker HyperPod를 활용하여 대형 비전 언어 모델(LVLMs)을 사용하여 은행 및 금융 문서에서 테이블 구조 인식 성능을 더욱 향상시키는 방법을 탐구한다. Qwen2-VL-7B-Instruct 모델을 LLaMA-Factory를 사용하여 세밀하게 조정하는 방법을 소개한다.

Qualtrics가 Amazon SageMaker와 Amazon Bedrock을 활용해 구축한 AI 플랫폼인 소크라테스에 대해 소개합니다. Qualtrics는 이를 통해 고객 솔루션과 생성 모델 AI를 구현하고 있습니다.

본문은 Trainium과 Inferentia로 여러 확산 트랜스포머를 실행하는 시리즈 중 첫 번째 게시물이다. 이 게시물에서는 PixArt-Sigma를 Trainium과 Inferentia 기반 인스턴스에 배포하는 방법을 소개한다.

본 포스트는 Trainium 및 Inferentia 기반 인스턴스에서 여러 확산 트랜스포머를 실행하는 시리즈 중 첫 번째로, PixArt-Sigma를 Trainium 및 Inferentia 기반 인스턴스에 배포하는 방법을 소개합니다.

본 포스트에서는 Amazon Elastic Kubernetes Service (EKS)와 Amazon Bedrock을 사용하여 AWS에서 생성형 AI 애플리케이션을 위한 확장 가능하고 컨테이너화된 RAG 솔루션을 구축하는 방법을 소개하며, 비정형 사용자 파일 데이터를 Amazon Bedrock으로 안전하고 신속하게 가져오는 방법을 제시합니다.

Hexagon은 AWS와 협력하여 HxGN Alix라는 AI 기반 디지털 워커를 개발했는데, 기업을 위한 생성 AI의 혁신적인 혜택을 인식하고 사용자가 기업 자산 관리 제품과 상호 작용하는 방식을 개선하고자 했다. 특화된 AI 솔루션이 효율성을 증대시키고 사용자 만족도를 향상시키는 방법을 보여준다.

Amazon Bedrock을 통해 모델 및 RAG 평가를 위한 사용자 정의 평가 지표를 개발할 수 있게 되었다. 특정 비즈니스 요구 사항과 평가 기준에 따라 생성형 AI 애플리케이션의 성능을 측정하고 향상시키는 방법을 소개하고 있다.

이 글은 포트폴리오 작성, 기업 연구, 커뮤니케이션을 전문으로 하는 금융 어시스턴트 시스템에 대해 탐구합니다. 아마존 베드락 다중 에이전트 협업 능력 내에서 여러 전문화된 에이전트의 활용을 설명하며, 특히 금융 분석에 적용된 사례를 강조합니다.

WordFinder는 AWS의 생성 적 AI 기술을 활용하여 실어증을 가진 개인들이 독립성을 증가시키는 데 도움을 주는 모바일 클라우드 솔루션입니다. QARC의 Kori Ramajoo 박사, Sonia Brownsett 박사, David Copland 교수, 그리고 실어증을 가진 Scott Harding이 AWS 서비스를 사용하여 이 앱을 개발했습니다.

이 포스트에서는 Jira 통합을 사용한 Amazon Q Business 애플리케이션을 생성하는 방법과 Trusted Advisor 상세 보고서를 포함한 데이터셋을 활용하는 방법을 소개합니다. 이 솔루션은 Amazon Q Business와 같은 새로운 생성적 AI 서비스를 활용하여 데이터 인사이트를 신속하게 얻고 실질적으로 활용하는 방법을 보여줍니다.

Amazon Bedrock에서 Meta Llama 3.2 다중 모달 모델을 파인튜닝하는 포괄적인 최상의 방법과 과학적 통찰을 공유합니다. 이 가이드라인을 따르면 작고 비용 효율적인 모델을 파인튜닝하여 더 큰 모델과 어느 정도 견줄 만한 성능을 달성할 수 있으며, 추론 비용과 지연 시간을 줄이면서도 특정 사용 사례에 대한 높은 정확도를 유지할 수 있습니다.
Anthropic의 MCP는 데이터 소스에 FMs를 연결하는 표준화된 방법을 제공하며, SageMaker AI와 함께 이 기능을 사용할 수 있게 되었다. 글에서는 SageMaker AI와 MCP의 힘을 결합하여 특화된 역할과 자동화된 워크플로를 통해 대출 심사에 새로운 시각을 제공하는 응용 프로그램을 구축하는 예시를 소개했다.
Amazon Bedrock Model Distillation은 Meta의 Llama 모델 패밀리와 고급 데이터 증강 기술 및 성능 향상을 강조합니다. 이 기술은 더 크고 능력 있는 Foundation 모델(FM)에서 더 작고 효율적인 모델(student)로 지식을 전이시켜 특정 작업에 뛰어난 특화 모델을 만듭니다.
FloQast가 Anthropics의 Claude 3를 아마존 베드락에서 활용해 AI 기반 회계 변환 솔루션을 구축하는 방법을 소개합니다.
이 게시물에서는 LLM 마이그레이션 패러다임과 아키텍처를 소개하며, Amazon Bedrock를 사용하여 모델 평가, 프롬프트 생성 및 데이터 인식 최적화를 거친 지속적인 프로세스를 제시합니다.
이 포스트에서는 Amazon Nova를 사용하여 도구 사용을 위한 모델 맞춤화(미세 조정)를 보여줍니다. 도구 사용 사례를 소개하고 데이터셋에 대한 세부 정보를 제공한 후, Amazon Nova 특정 데이터 형식 지정에 대해 안내하고 Amazon Bedrock의 Converse 및 Invoke API를 통해 도구 호출하는 방법을 보여줍니다. Amazon Nova 모델에서 기준선 결과를 얻은 후, 미세 조정 프로세스, 예비 처리량으로 호스팅된 미세 조정된 모델, 그리고 추론에 사용되는 미세 조정된 Amazon Nova 모델을 자세히 설명합니다.
AWS와 Cisco 팀이 기업급 SQL 생성의 과제를 해결하기 위한 새로운 방법론을 소개했다. NL2SQL 프로세스의 복잡성을 줄이면서 더 높은 정확성과 성능을 제공했다.
AFX 팀은 Nova Lite 모델로 제품 이전하여 매출 업무 프로세스를 향상시켰습니다. 이전으로 비용 절감과 저지연을 달성하며 판매자에게 지능적이고 신뢰할 수 있는 솔루션을 제공했습니다.
이 글에서는 Amazon SageMaker에서 오픈 소스 NER 및 LLM을 활용하여 AI 기반 문서 처리 플랫폼을 구축하는 방법에 대해 소개합니다.
Amazon Bedrock Intelligent Prompt Routing의 일반 공개를 발표했다. 내부 테스트 결과, 시작 방법, 주의사항 및 모베스트 프랙티스에 대해 안내하며, Amazon Bedrock Intelligent Prompt Routing을 새로운 및 기존 생성형 AI 애플리케이션에 통합할 것을 권장한다.
이 포스트에서는 인포시스가 이벤트 및 회의에서 생성된 통찰력을 개방하기 위해 Infosys 이벤트 AI를 개발한 방법을 탐구합니다. 실시간 전사, 지능적인 요약 및 대화형 챗봇 어시스턴트를 포함한 기능 세트를 통해 Infosys 이벤트 AI는 이벤트 지식에 접근 가능하게 하고 참석자들을 위한 몰입형 참여 솔루션을 제공합니다.
이 포스트는 Zoom 사용자가 Zoom 인터페이스 내에서 Amazon Q 비즈니스 엔터프라이즈 데이터에 직접 액세스할 수 있는 방법을 보여줍니다. 이를 통해 기업 보안 경계를 유지하면서 응용 프로그램 간 전환 없이 데이터에 접근할 수 있습니다. 기업은 이제 Amazon Q 비즈니스에서 Zoom을 데이터 액세서로 구성할 수 있어 Amazon Q 인덱스와 Zoom AI Companion 간의 원활한 통합이 가능해집니다.
Low-Rank Adaptation (LoRA)를 사용하여 동시성 모델 호스팅의 도전을 효과적으로 해결하는 방법을 살펴본다. LoRA 서빙과 LoRA 교환을 함께 사용하여 Amazon EC2 GPU 인스턴스로 LoRAX를 실행함으로써 조직이 세밀하게 조정된 모델 포트폴리오를 효율적으로 관리하고 제공하는 방법을 논의한다.
이 포스트는 비용 효율적이고 고성능 추론을 위해 AWS Inferentia2 인스턴스에 Mixtral 8x7B 언어 모델을 배포하고 제공하는 방법을 보여줍니다. Hugging Face Optimum Neuron을 사용한 모델 컴파일 및 Text Generation Inference (TGI) Container를 통해 LLMs를 배포하고 제공하는 방법을 안내합니다.
이 글에서는 Amazon Connect 내에서 Amazon Q를 활용하여 비즈니스 생산성을 높이는 방법을 소개하며, 연구, 데이터 분석, 사기 사례 보고 등을 가능하게 하는 통찰력 제공에 초점을 맞춥니다.
이 포스트는 오픈소스 다중 에이전트 프레임워크인 LangGraph를 Amazon Bedrock과 통합하는 방법을 보여준다. LangGraph와 Amazon Bedrock을 사용하여 그래프 기반 오케스트레이션을 활용하는 강력하고 대화형 다중 에이전트 응용 프로그램을 구축하는 방법을 설명한다.
이 기사는 Amazon Bedrock 에이전트를 활용하여 기업이 고급 오류 처리 도구와 자동 스키마 탐지를 통해 데이터베이스 쿼리 효율성을 향상시키는 확장 가능한 텍스트-SQL 솔루션을 구현하는 방법을 보여줍니다.
이 포스트에서는 Amazon Bedrock과 CrewAI를 활용하여 AI 에이전트가 금융 기관의 규정 준수를 간소화하고 이행하는 방법을 탐구합니다. 새 규정을 요약하고 영향을 평가하며 기술적 가이드를 제공하는 다중 에이전트 시스템을 구축하는 방법을 소개합니다.
Pixtral Large 모델을 Amazon Bedrock에서 시작하는 방법을 소개합니다. 이 모델은 문서 이해, 논리 추론, 필기 인식, 이미지 비교, 엔티티 추출, 스캔된 이미지에서 구조화된 데이터 추출, 캡션 생성과 같은 다양한 용도에 활용할 수 있습니다.