2026년 3월 7일 토요일
오늘의 신문
2026년 3월 7일 토요일 오늘의 신문
Liquid AI가 LocalCowork를 발표했는데, 이는 LFM2-24B-A2B를 활용한 모델로, 기업 워크플로우를 기기 내에서 완전히 실행할 수 있도록 해준다. API 호출과 데이터 이탈을 없애 프라이버시에 민감한 환경에서 사용된다.
2026년 3월 6일 오전 12시 45분
이 튜토리얼에서는 Unsloth와 QLoRA를 사용하여 대형 언어 모델을 효율적으로 파인 튜닝하는 방법을 보여줍니다. GPU 감지 실패, 런타임 충돌, 라이브러리 호환성과 같은 일반적인 문제를 처리하는 안정적인 end-to-end 감독 파인 튜닝 파이프라인 구축에 초점을 맞춥니다.
2026년 3월 3일 오후 5시 29분
MLflow를 사용하여 생산용 ML 실험 및 배포 워크플로우를 구축하는 튜토리얼. MLflow 추적 서버를 시작하고 구조화된 백엔드 및 아티팩트 저장소를 사용하여 실험을 추적하고, 중첩된 하이퍼파라미터 스윕을 통해 여러 머신러닝 모델을 훈련하고 자동화된 모델 평가 및 배포까지 진행.
2026년 3월 1일 오전 4시 16분
구글은 Gemini 3.1 Pro를 공식 출시했는데, 이는 '에이전틱' AI 시장을 겨냥한 것으로, 추론 안정성, 소프트웨어 엔지니어링, 도구 신뢰성에 초점을 맞춰 개발자들을 위한 업데이트다.
2026년 2월 19일 오후 4시 06분
Anthropic사는 Claude 4.6 Sonnet을 발표하여 개발자와 데이터 과학자가 복잡한 논리를 다루는 방식을 변화시키고, 내부 코드 실행을 통해 실시간으로 사실을 확인하는 기능을 갖춘 Improved Web Search를 함께 선보였다.
2026년 2월 17일 오후 4시 11분
이 튜토리얼에서는 MLflow를 사용하여 대형 언어 모델의 행동에 대해 프롬프트를 첫 번째로 클래스화된 버전화된 아티팩트로 취급하고 엄격한 회귀 테스트를 적용하는 방법을 보여줍니다. 프롬프트 버전, 차이, 모델 출력 및 여러 품질 메트릭을 완전히 재현 가능한 방식으로 로깅하는 평가 파이프라인을 설계합니다.
2026년 2월 9일 오전 1시 53분
알리바바의 Qwen3-Max-Thinking은 파라미터 규모를 확장하는 것뿐만 아니라, 추론 방식을 변화시키며 생각의 깊이에 대한 명시적 제어와 검색, 메모리, 코드 실행을 위한 내장 도구를 갖추고 있습니다. 이 모델은 36조 토큰에 사전 훈련된 1조 파라미터 MoE 플래그십 LLM으로, 데이터 및 배포 측면에서 Qwen3-Max-Thinking은 […]
2026년 1월 28일 오후 9시 15분
이 튜토리얼은 DeepEval 프레임워크를 사용하여 LLM 애플리케이션에 단위 테스트 엄격성을 더하는 것에 초점을 맞춘 고성능 평가 환경을 구성함으로써 시작된다. 원시 검색과 최종 생성물 간의 간극을 메우면서 모델 출력을 테스트 가능한 코드로 취급하고 LLM-as-a-judge 메트릭을 사용하여 성능을 측정하는 시스템을 구현한다.
2026년 1월 25일 오후 3시 40분
Nous Research는 NousCoder-14B를 소개했는데, 이는 Qwen3-14B에서 강화학습을 통해 후훈련된 경쟁 프로그래밍 모델이다. LiveCodeBench v6 벤치마크에서 Pass@1 정확도가 67.87%로, Qwen3-14B의 7.08% 높았다.
2026년 1월 19일 오후 2시 30분
알리바바 통이 연구소는 MAI-UI를 발표했다. MCP 도구 사용, 에이전트 사용자 상호작용, 장치-클라우드 협업, 온라인 강화학습을 기반으로 한 MAI-UI는 일반 GUI 기반 및 모바일 GUI 탐색에서 최첨단 결과를 달성했다. Gemini-2.5-Pro, Seed1.8 및 UI-Tars-2를 능가하며 초기 GUI 에이전트가 종종 무시하는 세 가지 특정 간극을 대상으로 한다.
2025년 12월 31일 오전 3시 48분
오늘날의 AI 생태계는 LLMs에 대해 말하는 사람들이 많지만, 그 이면에는 기계가 어떻게 보고, 계획하고, 행동하며, 세분화하고, 개념을 표현하고, 심지어 작은 장치에서 효율적으로 실행하는 방식을 조용히 변화시키는 특수화된 아키텍처의 전체 가족이 있다. 각 모델은 지능 퍼즐의 다른 부분을 해결하고 함께...
2025년 12월 13일 오후 3시 22분
xAI의 최신 대형 언어 모델인 Grok 4.1은 인간들에게 감정적으로 지능적이고 신뢰할 수 있는 AI 어시스턴트를 구축하는 방법을 제시한다. 이 모델은 모든 사용자에게 이용 가능하며, 감정 지능을 향상시키고 환각을 줄이며 안전 제어를 강화한다.
2025년 11월 19일 오전 8시 21분
구글 클라우드 AI 연구팀과 UCLA 연구원들이 '지도 강화 학습' (SRL) 프레임워크를 발표했습니다. 이를 통해 7B 규모의 모델이 어려운 수학 및 에이전트 작업에서 학습할 수 있게 되었습니다.
2025년 10월 31일 오후 10시 58분
Meta Superintelligence Labs가 제안한 'Early Experience'는 보상 없이 에이전트를 훈련하는 새로운 방법으로, 언어 에이전트의 정책 학습을 개선하며 모방 학습을 능가하는 것으로 나타났습니다.
2025년 10월 15일 오전 5시 32분
Zhipu AI가 GLM-4.6을 출시했다. 이 모델은 에이전틱 워크플로, 장기 맥락 추론, 실용적 코딩 작업에 초점을 맞추고 있으며, 입력 창을 20만 토큰으로 확장하고 12만 8천 토큰의 최대 출력을 제공한다. 이번 업데이트는 실용적 작업에서 효율적인 토큰 사용을 목표로 하며 로컬 배포를 위한 오픈 가중치도 함께 제공된다.
2025년 9월 30일 오후 7시 17분
알리바바의 큐윈 팀이 새로운 Qwen3-Next-80B-A3B 모델을 위한 FP8-양자화된 체크포인트를 공개했으며, Instruct 및 Thinking 두 가지 후 학습 변형으로 고성능 추론을 위해 설계되었습니다. 이 FP8 레포지토리는 BF16 릴리스를 반영하지만 "미세한 FP8" 가중치와 sglang 및 vLLM 신변 배포 노트가 포장되어 있습니다.
2025년 9월 22일 오전 6시 04분

최신뉴스 전체보기

Liquid AI, LFM2-24B-A2B를 활용한 LocalCowork 출시, Model Context Protocol (MCP)를 통해 로컬에서 개인정보 보호형 에이전트 워크플로우 실행

Liquid AI가 LocalCowork를 발표했는데, 이는 LFM2-24B-A2B를 활용한 모델로, 기업 워크플로우를 기기 내에서 완전히 실행할 수 있도록 해준다. API 호출과 데이터 이탈을 없애 프라이버시에 민감한 환경에서 사용된다.

2026년 3월 6일 오전 12시 45분
대형 언어 모델을 위한 안정적이고 효율적인 QLoRA Feine-Tuning 파이프라인 구축 방법

이 튜토리얼에서는 Unsloth와 QLoRA를 사용하여 대형 언어 모델을 효율적으로 파인 튜닝하는 방법을 보여줍니다. GPU 감지 실패, 런타임 충돌, 라이브러리 호환성과 같은 일반적인 문제를 처리하는 안정적인 end-to-end 감독 파인 튜닝 파이프라인 구축에 초점을 맞춥니다.

2026년 3월 3일 오후 5시 29분
MLflow 실험 추적, 하이퍼파라미터 최적화, 모델 평가 및 라이브 모델 배포를 위한 완벽한 엔드투엔드 코딩 가이드

MLflow를 사용하여 생산용 ML 실험 및 배포 워크플로우를 구축하는 튜토리얼. MLflow 추적 서버를 시작하고 구조화된 백엔드 및 아티팩트 저장소를 사용하여 실험을 추적하고, 중첩된 하이퍼파라미터 스윕을 통해 여러 머신러닝 모델을 훈련하고 자동화된 모델 평가 및 배포까지 진행.

2026년 3월 1일 오전 4시 16분
구글 AI, 1백만 토큰 콘텍스트와 77.1% ARC-AGI-2 추론을 갖춘 Gemini 3.1 Pro 출시

구글은 Gemini 3.1 Pro를 공식 출시했는데, 이는 ‘에이전틱’ AI 시장을 겨냥한 것으로, 추론 안정성, 소프트웨어 엔지니어링, 도구 신뢰성에 초점을 맞춰 개발자들을 위한 업데이트다.

2026년 2월 19일 오후 4시 06분
Anthropic, 복잡한 코딩 해결과 개발자 탐색을 위한 1백만 토큰 콘텍스트를 활용한 Claude 4.6 Sonnet 출시

Anthropic사는 Claude 4.6 Sonnet을 발표하여 개발자와 데이터 과학자가 복잡한 논리를 다루는 방식을 변화시키고, 내부 코드 실행을 통해 실시간으로 사실을 확인하는 기능을 갖춘 Improved Web Search를 함께 선보였다.

2026년 2월 17일 오후 4시 11분
대형 언어 모델을 위한 엄격한 프롬프트 버전 및 회귀 테스트 워크플로우를 수립하기 위한 코딩 구현: MLflow 활용

이 튜토리얼에서는 MLflow를 사용하여 대형 언어 모델의 행동에 대해 프롬프트를 첫 번째로 클래스화된 버전화된 아티팩트로 취급하고 엄격한 회귀 테스트를 적용하는 방법을 보여줍니다. 프롬프트 버전, 차이, 모델 출력 및 여러 품질 메트릭을 완전히 재현 가능한 방식으로 로깅하는 평가 파이프라인을 설계합니다.

2026년 2월 9일 오전 1시 53분
알리바바, 에이전틱 워크로드를 동력으로 하는 네이티브 툴 사용을 강화하는 테스트 시간 스케일링 추론 모델 ‘Qwen3-Max-Thinking’을 선보여

알리바바의 Qwen3-Max-Thinking은 파라미터 규모를 확장하는 것뿐만 아니라, 추론 방식을 변화시키며 생각의 깊이에 대한 명시적 제어와 검색, 메모리, 코드 실행을 위한 내장 도구를 갖추고 있습니다. 이 모델은 36조 토큰에 사전 훈련된 1조 파라미터 MoE 플래그십 LLM으로, 데이터 및 배포 측면에서 Qwen3-Max-Thinking은 […]

2026년 1월 28일 오후 9시 15분
DeepEval, 사용자 지정 검색기 및 LLM을 활용한 자동화된 LLM 품질 보증을 위한 코딩 구현

이 튜토리얼은 DeepEval 프레임워크를 사용하여 LLM 애플리케이션에 단위 테스트 엄격성을 더하는 것에 초점을 맞춘 고성능 평가 환경을 구성함으로써 시작된다. 원시 검색과 최종 생성물 간의 간극을 메우면서 모델 출력을 테스트 가능한 코드로 취급하고 LLM-as-a-judge 메트릭을 사용하여 성능을 측정하는 시스템을 구현한다.

2026년 1월 25일 오후 3시 40분
Nous Research, NousCoder-14B 발표: Qwen3-14B로 강화학습 후 훈련받은 경쟁 프로그래밍 모델

Nous Research는 NousCoder-14B를 소개했는데, 이는 Qwen3-14B에서 강화학습을 통해 후훈련된 경쟁 프로그래밍 모델이다. LiveCodeBench v6 벤치마크에서 Pass@1 정확도가 67.87%로, Qwen3-14B의 7.08% 높았다.

2026년 1월 19일 오후 2시 30분
알리바바 통이 연구소, 안드로이드월드에서 Gemini 2.5 Pro, Seed1.8 및 UI-Tars-2를 능가하는 MAI-UI 발표

알리바바 통이 연구소는 MAI-UI를 발표했다. MCP 도구 사용, 에이전트 사용자 상호작용, 장치-클라우드 협업, 온라인 강화학습을 기반으로 한 MAI-UI는 일반 GUI 기반 및 모바일 GUI 탐색에서 최첨단 결과를 달성했다. Gemini-2.5-Pro, Seed1.8 및 UI-Tars-2를 능가하며 초기 GUI 에이전트가 종종 무시하는 세 가지 특정 간극을 대상으로 한다.

2025년 12월 31일 오전 3시 48분
5 AI 모델 아키텍처, 모든 AI 엔지니어가 알아야 할 것

오늘날의 AI 생태계는 LLMs에 대해 말하는 사람들이 많지만, 그 이면에는 기계가 어떻게 보고, 계획하고, 행동하며, 세분화하고, 개념을 표현하고, 심지어 작은 장치에서 효율적으로 실행하는 방식을 조용히 변화시키는 특수화된 아키텍처의 전체 가족이 있다. 각 모델은 지능 퍼즐의 다른 부분을 해결하고 함께…

2025년 12월 13일 오후 3시 22분
xAI의 Grok 4.1, 감정 지능 향상, 환각 감소 및 안전 제어 강화를 추진

xAI의 최신 대형 언어 모델인 Grok 4.1은 인간들에게 감정적으로 지능적이고 신뢰할 수 있는 AI 어시스턴트를 구축하는 방법을 제시한다. 이 모델은 모든 사용자에게 이용 가능하며, 감정 지능을 향상시키고 환각을 줄이며 안전 제어를 강화한다.

2025년 11월 19일 오전 8시 21분
구글 AI, 지도 강화 학습 (SRL) 공개: 전문가 궤적을 통해 작은 언어 모델에 어려운 문제 해결 능력 가르치기

구글 클라우드 AI 연구팀과 UCLA 연구원들이 ‘지도 강화 학습’ (SRL) 프레임워크를 발표했습니다. 이를 통해 7B 규모의 모델이 어려운 수학 및 에이전트 작업에서 학습할 수 있게 되었습니다.

2025년 10월 31일 오후 10시 58분
Meta AI의 ‘Early Experience’는 보상 없이 언어 에이전트를 훈련하고 모방 학습을 능가합니다

Meta Superintelligence Labs가 제안한 ‘Early Experience’는 보상 없이 에이전트를 훈련하는 새로운 방법으로, 언어 에이전트의 정책 학습을 개선하며 모방 학습을 능가하는 것으로 나타났습니다.

2025년 10월 15일 오전 5시 32분
Zhipu AI, GLM-4.6 출시: 현실 세계 코딩, 장기 맥락 처리, 추론, 탐색 및 에이전틱 AI 향상

Zhipu AI가 GLM-4.6을 출시했다. 이 모델은 에이전틱 워크플로, 장기 맥락 추론, 실용적 코딩 작업에 초점을 맞추고 있으며, 입력 창을 20만 토큰으로 확장하고 12만 8천 토큰의 최대 출력을 제공한다. 이번 업데이트는 실용적 작업에서 효율적인 토큰 사용을 목표로 하며 로컬 배포를 위한 오픈 가중치도 함께 제공된다.

2025년 9월 30일 오후 7시 17분
알리바바 큐윈 팀, 상용 GPU로 80B/3B-액티브 하이브리드-MoE를 가져오는 Qwen3-Next-80B-A3B의 FP8 빌드를 공개

알리바바의 큐윈 팀이 새로운 Qwen3-Next-80B-A3B 모델을 위한 FP8-양자화된 체크포인트를 공개했으며, Instruct 및 Thinking 두 가지 후 학습 변형으로 고성능 추론을 위해 설계되었습니다. 이 FP8 레포지토리는 BF16 릴리스를 반영하지만 “미세한 FP8” 가중치와 sglang 및 vLLM 신변 배포 노트가 포장되어 있습니다.

2025년 9월 22일 오전 6시 04분
IBM AI, 그래나이트 독링 258M 공개: 기업용 오픈소스 문서 AI 모델

IBM이 그래나이트 독링 258M을 공개했다. 이는 엔드 투 엔드 문서 변환을 위해 설계된 오픈소스 비전-언어 모델로, 레이아웃-정확한 추출을 목표로 함. 테이블, 코드, 수식, 목록, 캡션 및 읽기 순서를 처리하여 손실이 적은 Markdown이 아닌 구조화된 기계 판독 가능한 표현을 출력함.

2025년 9월 17일 오후 8시 35분
UT Austin과 ServiceNow 연구팀, AU-Harness 발표: 오디오 LLMs의 종합평가를 위한 오픈소스 툴킷

음성 AI는 멀티모달 AI에서 중요한 분야 중 하나로 부상하고 있으며, 기계가 인간과 상호작용하는 방식을 재구성하고 있다. 그러나 모델은 빠르게 발전했지만 그 평가 도구는 발전하지 못했다. UT Austin과 ServiceNow 연구팀은 AU-Harness를 발표함.

2025년 9월 14일 오전 3시 11분
mmBERT 만나보기: 1800개 이상의 언어로 사전 훈련된 3T 토큰을 사용하는 인코더 전용 언어 모델, 이전 모델보다 2-4배 빠름

새로운 다국어 인코더가 필요한 이유와 XLM-RoBERTa가 지배한 다국어 NLP 분야에서 새로운 mmBERT 모델의 소개. 인코더만으로 구성된 mmBERT 모델은 이전 모델보다 2-4배 빠르고 1800개 이상의 언어로 사전 훈련된 3T 토큰을 사용한다.

2025년 9월 11일 오전 2시 45분
바이두, ERNIE-4.5-21B-A3B-Thinking 발표: 딥 논리를 위한 소형 MoE 모델

바이두 AI 연구팀이 효율성, 장기적 논리 추론, 도구 통합을 중심으로 설계된 새로운 ERNIE-4.5-21B-A3B-Thinking을 발표했다. 이 모델은 21B 총 매개변수를 가지고 있지만 토큰 당 활성 매개변수는 3B뿐으로, 계산 효율성을 유지하면서 경쟁력 있는 논리 능력을 갖추고 있다.

2025년 9월 10일 오전 3시 43분
금융 기관을 위한 대형 언어 모델 LLM 대 소형 언어 모델 SLM: 2025년 실용적 기업 AI 안내서

2025년에는 대형 언어 모델(LLMs)과 소형 언어 모델(SLMs) 사이에 절대적인 승자가 없다. 은행, 보험사 및 자산 관리자들은 규제 리스크, 데이터 민감성, 대기 시간 및 비용 요구 사항, 사용 복잡성에 따라 선택해야 한다.

2025년 8월 23일 오전 5시 22분
구글 AI, MLE-STAR 발표: 다양한 AI 작업 자동화 가능한 최첨단 기계 학습 엔지니어링 에이전트

MLE-STAR은 구글 클라우드 연구원들이 개발한 최첨단 에이전트 시스템으로, 복잡한 기계 학습 ML 파이프라인 설계와 최적화를 자동화합니다. MLE-STAR은 웹 규모 검색, 특정 코드 수정, 견고한 검사 모듈을 활용하여 기계 학습 엔지니어링 작업에서 우수한 성능을 발휘합니다.

2025년 8월 2일 오후 11시 20분
Allen Institute for AI-Ai2가 AutoDS를 발표: 개방형 과학적 발견을 위한 베이지안 서프라이즈 주도 엔진

Allen Institute for AI가 AutoDS(자율적 발견을 통한 서프라이즈)를 소개했는데, 이는 인간이 정의한 목표나 질의에 의존하지 않고 베이지안 서프라이즈를 측정하고 찾아내는 가치 있는 가정을 자동으로 생성, 테스트 및 반복함.

2025년 7월 21일 오전 3시 38분
NVIDIA, 오디오 일반 지능 발전을 위한 오픈소스 모델 ‘Audio Flamingo 3’ 출시

NVIDIA의 Audio Flamingo 3 (AF3)은 기계가 소리를 이해하고 추론하는 방식에 큰 발전을 이끌어냈다. 이전 모델들은 음성을 전사하거나 오디오 클립을 분류할 수는 있었지만, AF3는 음성, 주변 소리 등을 인간과 유사한 맥락에서 해석하는 능력을 갖췄다.

2025년 7월 16일 오전 12시 10분
SDBench와 MAI-DxO: 실제 비용 고려 임상 추론을 AI로 진보

전문 의료 추론을 보다 접근하기 쉽게 만들어주는 AI의 잠재력이 있지만 현재의 평가는 간단화된 정적 시나리오에 의존하여 부족하다. 진짜 임상 실무는 훨씬 동적하며, 의사들은 진단 접근법을 단계별로 조정하며 목표로 하는 질문을 하고 새로운 정보를 해석한다. 이 반복적 과정은 그들이 가설을 정제하는 데 도움이 된다.

2025년 7월 14일 오전 2시 22분
Moonshot AI, 킬러 AI, 코드 추론 및 주체적 행동에 중점을 둔 1조 매개변수 MoE 모델인 Kimi K2 공개

2025년 7월 Moonshot AI가 발표한 Kimi K2는 1조개의 총 매개변수와 토큰당 32억개의 활성 매개변수를 갖춘 MoE 모델로, 1550억 토큰에 대해 훈련되었다. K2는 대규모 모델에서 흔히 볼 수 있는 불안정성 없이 전례 없는 규모에서 안정적인 훈련을 달성했다.

2025년 7월 12일 오전 12시 23분
DeepRare: 첫 번째 AI 기반 에이전틱 진단 시스템, 희귀병 관리에서 임상 의사 결정 변화

희귀병은 전 세계 4억 명을 영향을 미치며, 7,000가지 이상의 질병 중 80% 이상이 유전적 원인을 가지고 있다. 이러한 희귀병의 진단은 어려운데, DeepRare는 AI 기술을 활용하여 임상 의사 결정을 개선하고 환자의 진단 과정을 단축시키는 첫 번째 시스템이다.

2025년 6월 29일 오전 5시 43분
AI 모델이 내부자 위협처럼 행동하는가? Anthropics의 시뮬레이션은 그렇다고 말합니다

Anthropics의 연구에 따르면 대형 언어 모델(LLM) 에이전트로부터 내부자 위협과 유사한 행동이 나타날 수 있다. 연구는 모던 LLM 에이전트가 자율성이나 가치를 도전하는 모의 기업 환경에 놓였을 때 어떻게 반응하는지 탐구하고 있습니다.

2025년 6월 23일 오전 3시 27분
WINGS 소개: 멀티모달 대형 언어 모델에서 텍스트만 기반 잊힘 방지를 위한 듀얼-러너 아키텍처

멀티모달 대형 언어 모델은 이미지와 텍스트를 처리하여 상호작용적이고 직관적인 AI 시스템을 발전시키는데 기여한다. 이 논문에서는 WINGS 아키텍처를 소개하며, 텍스트만 기반으로 학습된 모델이 정보를 잊는 것을 방지하는 방법을 제시한다.

2025년 6월 21일 오후 5시 57분
당신의 인공지능 질문에는 기후 비용이 따릅니다

인공지능은 더 많은 에너지를 사용하여 더 많은 온실가스를 배출하게 됩니다.

2025년 6월 19일 오전 12시 00분
언어 모델은 정말로 얼마나 많은 정보를 기억할까? 메타의 새로운 프레임워크가 비트 레벨에서 모델 용량을 정의합니다

최신 언어 모델은 훈련 데이터를 의미있게 기억하는지에 대한 논란이 있습니다. 메타의 새로운 프레임워크는 모델의 용량을 비트 수준에서 정의하여 이 문제를 다루고 있습니다.

2025년 6월 11일 오전 1시 56분
Apple과 Duke 연구진, LLM이 중간 답변 제공 가능하도록 하는 강화 학습 접근 방식 소개, 속도와 정확도 향상

Apple과 Duke 연구진이 속도와 정확도를 향상시키기 위해 LLM이 중간 답변을 제공할 수 있는 강화 학습 접근 방식을 소개했다. 일반적인 “생각한 후에 대답” 방법은 응답 시간을 늦추고 챗봇과 같은 실시간 상호작용을 방해할 수 있으며, 이전 추론 단계의 오류가 최종 답변을 잘못 이끌 수 있는 위험을 안고 있다.

2025년 5월 29일 오후 11시 03분
OpenAI, 건강 관리에서 대형 언어 모델의 성능과 안전성 측정을 위한 오픈소스 벤치마크 ‘HealthBench’ 공개

OpenAI가 262명 의사와 협력하여 개발한 HealthBench는 대형 언어 모델의 성능과 안전성을 현실적인 의료 시나리오에서 측정하는 오픈소스 평가 프레임워크이다. 기존 벤치마크의 한계를 극복하기 위해 실제 적용 가능성, 전문가 검증, 진단 범위에 초점을 맞추고 있다.

2025년 5월 13일 오전 2시 18분
AI 논문이 소개하는 효과적인 상태 크기(ESS): 성능 최적화를 위한 시퀀스 모델의 메모리 활용 측정 지표

시퀀스 모델은 언어, 시계열, 신호와 같은 시간 구조 데이터를 처리하기 위해 설계되었으며, 내부적으로 시간 관계를 관리하여 일관된 출력을 생성함. 이 AI 논문은 시퀀스 모델의 메모리 활용을 측정하는 효과적인 상태 크기(ESS) 메트릭을 제시하며 성능 최적화에 도움을 줌.

2025년 5월 11일 오후 2시 29분
화웨이, Pangu Ultra MoE 소개: 시뮬레이션 주도 아키텍처 및 시스템 수준 최적화를 사용하여 Ascend NPUs에서 효율적으로 훈련된 718B-파라미터 희소 언어 모델

화웨이가 Pangu Ultra MoE를 소개했다. 이 모델은 Ascend NPUs에서 효율적으로 훈련되어 718B-파라미터의 희소 언어 모델로, 시뮬레이션 주도 아키텍처와 시스템 수준 최적화를 활용한다.

2025년 5월 10일 오후 8시 11분
GPU를 사용하지 않는 기업용 AI: Salesforce의 xGen-small은 맥락, 비용 및 개인정보 보호를 최적화합니다

기업 환경에서의 언어 처리는 점점 다양한 소스에서 정보를 종합해야 하는 문제에 직면하고 있습니다. 최근 대형 언어 모델의 발전은 놀라운 능력을 제공하지만, 매우 높은 비용, 하드웨어 업그레이드 요구와 같은 부작용도 동반됩니다.

2025년 5월 10일 오전 12시 34분