2026년 3월 7일 토요일
오늘의 신문
2026년 3월 7일 토요일 오늘의 신문
알리바바가 오픈소스 도구인 OpenSandbox를 출시했습니다. 이 도구는 AI 에이전트에 안전하고 격리된 환경을 제공하여 코드 실행, 웹 브라우징, 모델 훈련을 가능하게 합니다. Apache 2.0 라이선스 하에 공개된 OpenSandbox는 AI 에이전트 스택의 '실행 레이어'를 표준화하고 여러 프로그래밍 언어에서 작동하는 통일된 API를 제공합니다.
2026년 3월 3일 오전 3시 32분
Google AI가 Gemma 3 기반의 55개 언어를 지원하는 오픈 기계 번역 모델인 TranslateGemma를 출시했다. 4B, 12B, 27B 파라미터 크기로 출시되었으며, 모바일부터 노트북, 단일 H100 GPU나 TPU 인스턴스까지 다양한 디바이스에서 동작 가능하다.
2026년 1월 16일 오후 2시 39분
Meta 연구진은 PEAV(Perception Encoder Audiovisual)를 소개했는데, 이는 오디오와 비디오의 통합 이해를 위한 새로운 인코더 패밀리로, 약 100M개의 오디오 비디오 쌍과 텍스트 캡션을 대규모 대조적 학습을 통해 단일 임베딩 공간에서 정렬된 오디오, 비디오 및 텍스트 표현을 학습한다.
2025년 12월 23일 오전 5시 32분
OpenAI팀이 Hugging Face에서 openai/circuit-sparsity 모델과 GitHub에서 openai/circuit_sparsity 툴킷을 공개했다. 'Weight-sparse transformers have interpretable circuits' 논문의 모델과 회로를 패키징했는데, 이는 Python 코드로 훈련된 GPT-2 스타일 디코더 전용 트랜스포머다. 희소성은 훈련 후에 추가되지 않았다.
2025년 12월 14일 오후 12시 01분
Boss Zhipin의 Nanbeige LLM Lab이 발표한 Nanbeige4-3B는 데이터 품질, 커리큘럼 스케줄링, 디스틸레이션, 강화 학습에 중점을 둔 3B 파라미터 작은 언어 모델 패밀리로, 30B 클래스 추론을 제공하는 훈련 레시피를 수정함으로써 가능한가에 대한 연구 결과를 소개한다.
2025년 12월 13일 오후 3시 00분
MIT 에너지 이니셔티브가 개발한 모델링 도구 Macro는 탄소 중립, 신뢰성, 저비용의 전력 그리드를 지원하기 위한 인프라 구축 옵션을 탐색할 수 있게 해준다.
2025년 12월 4일 오전 1시 00분MIT News
NVIDIA는 하나의 탄력 있는 모델로 여러 크기의 모델을 생성할 수 있게 하여 AI 개발팀이 여러 대규모 언어 모델을 훈련하고 저장할 필요성을 없앴다. NVIDIA AI팀은 Nemotron-Elastic-12B를 발표했는데, 이는 12B 파라미터 추론 모델로, 추가 훈련 비용 없이 6B, 9B, 12B 변형을 제공한다.
2025년 11월 24일 오후 3시 54분
Cerebras가 MiniMax-M2-REAP-162B-A10B를 발표했다. 이 모델은 MiniMax-M2에서 파생된 압축된 희소 Mixture-of-Experts (SMoE) 인과 언어 모델로, Router 가중 전문가 활성화 가지치기(REAP) 방법을 사용하여 전문가를 가지치기하고 코딩 에이전트 및 도구와 같은 배포 중심 워크로드의 메모리를 줄였다.
2025년 11월 15일 오후 9시 53분
Prior Labs가 TabPFN-2.5를 발표했다. 이는 탭피에프엔의 규모와 속도를 높여준다. 금융, 의료, 에너지 및 산업팀은 행과 열의 테이블로 작업하며, 이 모델은 50,000개 샘플과 2,000개 피처로 학습 범위를 확장한다.
2025년 11월 8일 오전 5시 44분
Moonshot AI사가 Kimi K2 Thinking을 공개했다. 이 모델은 Kimi K2 Mixture of Experts 아키텍처의 전체 추론 스트림을 노출하는 오픈 소스 사고 에이전트 모델로, 깊은 추론이 필요한 작업을 대상으로 한다.
2025년 11월 6일 오후 9시 19분
IBM AI 팀이 Granite 4.0 Nano를 출시했다. 이 모델은 로컬 및 엣지 추론을 대상으로 하는 소형 모델로, 기업 제어 및 오픈 라이선스를 갖추고 있으며, 350M과 1B 정도의 두 가지 크기의 8개 모델로 구성되어 있다.
2025년 10월 30일 오전 12시 10분
Microsoft AI 팀이 출시한 '에이전트 라이트닝'은 기존 AI 에이전트 스택을 변경하지 않고도 강화 학습을 통해 정책 LLM을 개선하는 데 도와주는 오픈소스 프레임워크이다. 훈련과 실행을 분리하여 강화 학습을 모든 AI 에이전트에 대해 가능케 한다.
2025년 10월 29일 오후 5시 39분
Sentient AI가 고성능의 다중 에이전트 시스템을 구축하기 위한 오픈 소스 메타 에이전트 프레임워크 ROMA를 공개했다. ROMA는 복잡한 목표를 하위 작업으로 분해하고 하위 노드로 전달하여 솔루션을 집계하는 계층적 작업 트리로 에이전트 워크플로우를 구조화한다.
2025년 10월 12일 오전 2시 08분
oLLM은 Huggingface Transformers와 PyTorch 기반의 가벼운 Python 라이브러리로, NVIDIA GPU에서 대규모 컨텍스트 Transformers를 빠른 지역 SSD로 가중치와 KV-캐시를 공격적으로 오프로드하여 실행합니다. 이 프로젝트는 오프라인, 단일 GPU 워크로드를 대상으로 하며 명시적으로 양자화를 피하며 FP16/BF16 가중치를 사용합니다.
2025년 9월 29일 오후 1시 43분
알리바바의 Qwen 팀은 실시간 LLM에 안전성을 유지할 수 있는지 의문에 대답하며, Qwen3Guard를 출시했다. Qwen3Guard는 프롬프트 및 스트리밍 응답을 실시간으로 조절하는 다국어 가드레일 모델로, Qwen3Guard-Gen과 Qwen3Guard-Stream 두 가지 변형이 있다.
2025년 9월 27일 오전 1시 04분
KTH의 Speech, Music and Hearing 그룹이 공개한 VoXtream은 실시간 TTS 모델로, 사람이 음성을 듣기 전에 잠시의 침묵 없이 말을 시작한다. 이는 실시간 에이전트, 실시간 더빙, 동시 통역 등에 혁명을 일으킬 것으로 기대된다.
2025년 9월 23일 오전 5시 24분

최신뉴스 전체보기

알리바바, 자율 AI 에이전트 실행을 위한 통합, 안전하고 확장 가능한 API 제공하는 OpenSandbox 출시

알리바바가 오픈소스 도구인 OpenSandbox를 출시했습니다. 이 도구는 AI 에이전트에 안전하고 격리된 환경을 제공하여 코드 실행, 웹 브라우징, 모델 훈련을 가능하게 합니다. Apache 2.0 라이선스 하에 공개된 OpenSandbox는 AI 에이전트 스택의 ‘실행 레이어’를 표준화하고 여러 프로그래밍 언어에서 작동하는 통일된 API를 제공합니다.

2026년 3월 3일 오전 3시 32분
Google AI, 55개 언어 지원하는 새로운 번역 모델 ‘TranslateGemma’ 출시

Google AI가 Gemma 3 기반의 55개 언어를 지원하는 오픈 기계 번역 모델인 TranslateGemma를 출시했다. 4B, 12B, 27B 파라미터 크기로 출시되었으며, 모바일부터 노트북, 단일 H100 GPU나 TPU 인스턴스까지 다양한 디바이스에서 동작 가능하다.

2026년 1월 16일 오후 2시 39분
Meta AI, 오픈소스로 공개된 Perception Encoder Audiovisual (PE-AV): SAM Audio 및 대규모 다중 모달 검색을 동력으로 하는 오디오비주얼 인코더

Meta 연구진은 PEAV(Perception Encoder Audiovisual)를 소개했는데, 이는 오디오와 비디오의 통합 이해를 위한 새로운 인코더 패밀리로, 약 100M개의 오디오 비디오 쌍과 텍스트 캡션을 대규모 대조적 학습을 통해 단일 임베딩 공간에서 정렬된 오디오, 비디오 및 텍스트 표현을 학습한다.

2025년 12월 23일 오전 5시 32분
OpenAI가 ‘circuit-sparsity’를 발표: Activation Bridges를 통해 Weight Sparse 모델과 밀집 베이스라인을 연결하는 오픈 도구 세트

OpenAI팀이 Hugging Face에서 openai/circuit-sparsity 모델과 GitHub에서 openai/circuit_sparsity 툴킷을 공개했다. ‘Weight-sparse transformers have interpretable circuits’ 논문의 모델과 회로를 패키징했는데, 이는 Python 코드로 훈련된 GPT-2 스타일 디코더 전용 트랜스포머다. 희소성은 훈련 후에 추가되지 않았다.

2025년 12월 14일 오후 12시 01분
Nanbeige4-3B-Thinking: 23T 토큰 파이프라인이 3B 모델을 30B 클래스 추론으로 끌어올리는 방법

Boss Zhipin의 Nanbeige LLM Lab이 발표한 Nanbeige4-3B는 데이터 품질, 커리큘럼 스케줄링, 디스틸레이션, 강화 학습에 중점을 둔 3B 파라미터 작은 언어 모델 패밀리로, 30B 클래스 추론을 제공하는 훈련 레시피를 수정함으로써 가능한가에 대한 연구 결과를 소개한다.

2025년 12월 13일 오후 3시 00분
미래를 준비하는 전력 시스템 기획자들을 돕는 도구

MIT 에너지 이니셔티브가 개발한 모델링 도구 Macro는 탄소 중립, 신뢰성, 저비용의 전력 그리드를 지원하기 위한 인프라 구축 옵션을 탐색할 수 있게 해준다.

2025년 12월 4일 오전 1시 00분MIT News
NVIDIA AI, Nemotron-Elastic-12B 발표: 추가 훈련 비용 없이 6B/9B/12B 변형 제공하는 단일 AI 모델

NVIDIA는 하나의 탄력 있는 모델로 여러 크기의 모델을 생성할 수 있게 하여 AI 개발팀이 여러 대규모 언어 모델을 훈련하고 저장할 필요성을 없앴다. NVIDIA AI팀은 Nemotron-Elastic-12B를 발표했는데, 이는 12B 파라미터 추론 모델로, 추가 훈련 비용 없이 6B, 9B, 12B 변형을 제공한다.

2025년 11월 24일 오후 3시 54분
Cerebras, 롱 컨텍스트 코딩 에이전트를 위한 MiniMax-M2-REAP-162B-A10B 출시

Cerebras가 MiniMax-M2-REAP-162B-A10B를 발표했다. 이 모델은 MiniMax-M2에서 파생된 압축된 희소 Mixture-of-Experts (SMoE) 인과 언어 모델로, Router 가중 전문가 활성화 가지치기(REAP) 방법을 사용하여 전문가를 가지치기하고 코딩 에이전트 및 도구와 같은 배포 중심 워크로드의 메모리를 줄였다.

2025년 11월 15일 오후 9시 53분
Prior Labs, TabPFN-2.5 발표: 탭피에프엔의 규모와 속도를 높이는 최신 버전

Prior Labs가 TabPFN-2.5를 발표했다. 이는 탭피에프엔의 규모와 속도를 높여준다. 금융, 의료, 에너지 및 산업팀은 행과 열의 테이블로 작업하며, 이 모델은 50,000개 샘플과 2,000개 피처로 학습 범위를 확장한다.

2025년 11월 8일 오전 5시 44분
Moonshot AI, 인간 개입 없이 200-300개의 순차 도구 호출을 실행할 수 있는 인상적인 사고 모델 Kimi K2 Thinking 출시

Moonshot AI사가 Kimi K2 Thinking을 공개했다. 이 모델은 Kimi K2 Mixture of Experts 아키텍처의 전체 추론 스트림을 노출하는 오픈 소스 사고 에이전트 모델로, 깊은 추론이 필요한 작업을 대상으로 한다.

2025년 11월 6일 오후 9시 19분
IBM AI 팀이 출시한 Granite 4.0 Nano 시리즈: 엣지 AI용 소형 오픈소스 모델

IBM AI 팀이 Granite 4.0 Nano를 출시했다. 이 모델은 로컬 및 엣지 추론을 대상으로 하는 소형 모델로, 기업 제어 및 오픈 라이선스를 갖추고 있으며, 350M과 1B 정도의 두 가지 크기의 8개 모델로 구성되어 있다.

2025년 10월 30일 오전 12시 10분
Microsoft, 새 AI 프레임워크 ‘에이전트 라이트닝’ 출시

Microsoft AI 팀이 출시한 ‘에이전트 라이트닝’은 기존 AI 에이전트 스택을 변경하지 않고도 강화 학습을 통해 정책 LLM을 개선하는 데 도와주는 오픈소스 프레임워크이다. 훈련과 실행을 분리하여 강화 학습을 모든 AI 에이전트에 대해 가능케 한다.

2025년 10월 29일 오후 5시 39분
Sentient AI가 ROMA를 공개: 계층적 작업 실행을 통해 AI 에이전트를 구축하는 AGI 중심의 메타 에이전트 프레임워크

Sentient AI가 고성능의 다중 에이전트 시스템을 구축하기 위한 오픈 소스 메타 에이전트 프레임워크 ROMA를 공개했다. ROMA는 복잡한 목표를 하위 작업으로 분해하고 하위 노드로 전달하여 솔루션을 집계하는 계층적 작업 트리로 에이전트 워크플로우를 구조화한다.

2025년 10월 12일 오전 2시 08분
oLLM 만나보기: 8 GB 소비자 GPU로 100K-컨텍스트 LLM 추론을 SSD 오프로드를 통해 제공하는 가벼운 Python 라이브러리—양자화 불필요

oLLM은 Huggingface Transformers와 PyTorch 기반의 가벼운 Python 라이브러리로, NVIDIA GPU에서 대규모 컨텍스트 Transformers를 빠른 지역 SSD로 가중치와 KV-캐시를 공격적으로 오프로드하여 실행합니다. 이 프로젝트는 오프라인, 단일 GPU 워크로드를 대상으로 하며 명시적으로 양자화를 피하며 FP16/BF16 가중치를 사용합니다.

2025년 9월 29일 오후 1시 43분
Qwen3Guard 소개: 글로벌 실시간 AI 안전을 위해 구축된 Qwen3 기반의 다국어 안전 가드레일 모델

알리바바의 Qwen 팀은 실시간 LLM에 안전성을 유지할 수 있는지 의문에 대답하며, Qwen3Guard를 출시했다. Qwen3Guard는 프롬프트 및 스트리밍 응답을 실시간으로 조절하는 다국어 가드레일 모델로, Qwen3Guard-Gen과 Qwen3Guard-Stream 두 가지 변형이 있다.

2025년 9월 27일 오전 1시 04분
VoXtream 만나보기: 첫 단어부터 말을 시작하는 실시간 사용을 위한 오픈소스 풀 스트림 제로샷 TTS 모델

KTH의 Speech, Music and Hearing 그룹이 공개한 VoXtream은 실시간 TTS 모델로, 사람이 음성을 듣기 전에 잠시의 침묵 없이 말을 시작한다. 이는 실시간 에이전트, 실시간 더빙, 동시 통역 등에 혁명을 일으킬 것으로 기대된다.

2025년 9월 23일 오전 5시 24분
Xiaomi, 100백만 시간 학습한 7B 말/언어 모델 ‘MiMo-Audio’ 공개

Xiaomi의 MiMo 팀이 100백만 시간 이상의 오디오를 기반으로 한 7조 파라미터 음성 언어 모델 ‘MiMo-Audio’를 공개했다. 새로운 점은 과업별 헤드나 손실 악센트 토큰에 의존하는 대신, RVQ 토크나이저를 사용하여 의미론적 정보 및 음성을 타깃팅한다.

2025년 9월 20일 오전 4시 23분
알리바바, 통이 딥리서치 공개: 장기연구용 최적화된 30B 파라미터 오픈소스 에이전틱 LLM

알리바바의 통이 랩이 통이-딥리서치-30B-A3B를 오픈소스로 공개했다. 이 모델은 웹 도구를 활용한 장기, 심층 정보탐색을 위해 구축된 에이전트 특화 대형 언어 모델로, 약 30.5B의 총 파라미터와 토큰당 약 3-3.3B의 활성 파라미터를 사용하여 강력한 추론 성능을 유지하면서 고 처리량을 가능케 한다. ReAct 스타일 하의 멀티턴 연구 워크플로우를 대상으로 한다.

2025년 9월 18일 오전 3시 31분
UT Austin과 ServiceNow 연구팀, AU-Harness 발표: 오디오 LLMs의 종합평가를 위한 오픈소스 툴킷

음성 AI는 멀티모달 AI에서 중요한 분야 중 하나로 부상하고 있으며, 기계가 인간과 상호작용하는 방식을 재구성하고 있다. 그러나 모델은 빠르게 발전했지만 그 평가 도구는 발전하지 못했다. UT Austin과 ServiceNow 연구팀은 AU-Harness를 발표함.

2025년 9월 14일 오전 3시 11분
구글 AI, EmbeddingGemma 공개: 308백만 파라미터 장치 내 임베딩 모델과 최신 MTEB 결과

구글의 EmbeddingGemma는 장치 내 AI용으로 최적화된 새로운 텍스트 임베딩 모델로, 효율성과 최신 검색 성능을 균형 있게 유지하도록 설계되었습니다. 308백만 파라미터로 구성된 이 모델은 경량화되어 모바일 기기 및 오프라인 환경에서 작동할 수 있습니다. 크기에도 불구하고 다른 훨씬 큰 모델들과 경쟁력 있는 성능을 보여줍니다.

2025년 9월 4일 오후 5시 39분
구글 AI의 새로운 회귀 언어 모델(RLM) 프레임워크, LLM이 원시 텍스트 데이터에서 산업 시스템 성능 예측 가능하게 함

구글의 새로운 회귀 언어 모델(RLM) 접근 방식은 복잡한 피쳐 엔지니어링이나 엄격한 테이블 형식에 의존하지 않고 대용량 언어 모델(LLMs)이 원시 텍스트 데이터에서 산업 시스템 성능을 예측할 수 있게 합니다.

2025년 8월 27일 오전 3시 04분
Hugging Face, AI Sheets 공개: LLM-Powered 데이터셋을 위한 무료 오픈소스 노코드 툴킷

Hugging Face사가 AI Sheets를 출시했는데, 이는 무료이자 오픈소스이며 로컬 기반의 노코드 툴로, AI를 활용한 데이터셋 생성과 보강을 혁신적으로 간소화하는 데 목적이 있다. AI Sheets는 직관적인 스프레드시트 인터페이스를 대표하는 오픈소스 대형 언어 모델(Qwen, Kimi, Llama 3 등)과 직접적으로 결합하여 AI 기반 데이터 처리에 대한 접근성을 민주화하고 있다.

2025년 8월 17일 오후 4시 06분
Salesforce AI가 Moirai 2.0를 발표: Salesforce의 최신 타임 시리즈 기반 모델은 디코더 전용 트랜스포머 아키텍처로 구축되었습니다

Salesforce AI Research가 Moirai 2.0을 공개했다. 이는 타임 시리즈 기반 모델의 최신 진보로, 디코더 전용 트랜스포머 아키텍처 위에 구축되어 성능과 효율성에서 새로운 기준을 세우며 GIFT-Eval 벤치마크에서 1위를 차지했다.

2025년 8월 15일 오후 4시 27분
Trackio 만나보기: 머신 러닝 워크플로우를 간소화하고 향상시키는 무료 지역 우선 오픈 소스 실험 추적기 파이썬 라이브러리

Trackio는 머신 러닝 워크플로우에서 중요한 실험 추적을 간편하고 통찰력 있게 만들어주는 파이썬 라이브러리다. 다양한 실험 추적 솔루션들과는 달리 복잡한 설정이 필요 없으며 라이선스 비용도 없다. 사용자 데이터를 소유권이 있는 프로토콜에 가둬두지 않는다.

2025년 8월 2일 오전 3시 47분
MiroMind-M1: 콘텍스트 인식 다단계 강화 학습을 통한 오픈소스 수학적 추론 발전

MiroMind-M1은 오픈소스 파이프라인으로, 수학 문제 해결을 위한 고급 기능을 평가하는 엄격한 기준으로 자리 잡은 다단계 추론에 높은 성과를 보이고 있습니다. 기존의 프로프리어터리 모델에 비해 투명성과 재현성을 향상시키는 MiroMind-M1 시리즈가 출시되었습니다.

2025년 7월 30일 오전 12시 37분
Zhipu AI, GLM-4.5 시리즈 공개: 하이브리드 추론으로 오픈소스 에이전틱 AI 재정의

Zhipu AI가 공개한 GLM-4.5 시리즈는 통합된 에이전틱 능력과 오픈 액세스에 높은 기준을 제시하여 추론과의 간극을 줄이고 있다. GLM-4.5 및 GLM-4.5-Air은 인공지능 기반 모델의 경관을 빠르게 변화시키고 있다.

2025년 7월 28일 오후 1시 17분
NVIDIA, 오디오 일반 지능 발전을 위한 오픈소스 모델 ‘Audio Flamingo 3’ 출시

NVIDIA의 Audio Flamingo 3 (AF3)은 기계가 소리를 이해하고 추론하는 방식에 큰 발전을 이끌어냈다. 이전 모델들은 음성을 전사하거나 오디오 클립을 분류할 수는 있었지만, AF3는 음성, 주변 소리 등을 인간과 유사한 맥락에서 해석하는 능력을 갖췄다.

2025년 7월 16일 오전 12시 10분
Liquid AI가 LFM2를 오픈소스로 공개: 새로운 세대의 엣지 LLMs

Liquid AI가 새로운 엣지 LLMs인 LFM2를 오픈소스로 공개했다. 이 모델은 2배 빠른 추론과 3배 빠른 학습 성능을 제공하며, 컨볼루션과 어텐션 블록을 혼합한 하이브리드 설계를 특징으로 한다. 350M, 700M, 1.2B 파라미터 크기의 세 가지 모델이 제공되며, 유사한 크기의 모델과 비교했을 때 우수한 성능을 보여준다.

2025년 7월 14일 오전 2시 48분
Microsoft, 효율적인 장기 문맥 추론을 위한 콤팩트 아키텍처를 갖춘 Phi-4-mini-Flash-Reasoning 출시

Microsoft의 Phi-4 모델 패밀리에 최신 추가인 Phi-4-mini-Flash-Reasoning은 장기 문맥 추론에 뛰어나면서 높은 추론 효율성을 유지하는 경량 언어 모델이다. 3.8B 파라미터 모델은 밀도 높은 추론 작업(수학 문제 해결, 다중 점프 질문 응답)에 적합하도록 Fine-tuned 되었다.

2025년 7월 10일 오후 11시 26분
구글 연구자들이 Magenta RealTime을 공개: 실시간 AI 음악 생성용 개방형 가중치 모델

구글의 Magenta 팀이 Magenta RealTime(Magenta RT)을 소개했다. Magenta RT는 실시간 음악 생성 모델로, 사용자가 스타일을 제어할 수 있는 동적한 실시간 추론을 지원하는 최초의 대규모 음악 생성 모델이다. Apache 2.0 라이선스로 GitHub와 Hugging Face에서 제공된다.

2025년 6월 22일 오전 3시 53분
데이터 없이 샘플링이 이제 확장 가능해졌습니다: Meta AI, 보상 주도적 생성 모델링을 위한 역순 샘플링 출시

기존 생성 모델은 대규모 고품질 데이터셋에 의존하는데, Meta AI가 발표한 역순 샘플링 기술은 이를 극복하고 데이터 부족 상황에서도 보상 주도적 생성 모델링을 가능하게 합니다.

2025년 5월 21일 오전 3시 06분
바이트댄스, 딥 연구 자동화를 위한 모듈화된 멀티 에이전트 프레임워크 DeerFlow 오픈소스화

바이트댄스가 DeerFlow를 공개했는데, 이는 대형 언어 모델(Large Language Models)의 기능을 도메인별 도구와 통합하여 복잡한 연구 워크플로우를 향상시키는 오픈소스 멀티 에이전트 프레임워크이다. DeerFlow는 LangChain과 LangGraph 위에 구축되어 정보 검색부터 다중 모달 콘텐츠 생성까지 협력적인 인간 중심 환경에서 고급 연구 작업을 자동화하는 구조화된, 확장 가능한 플랫폼을 제공한다.

2025년 5월 10일 오전 2시 02분
Ming-Lite-Uni: 텍스트와 비전을 통합하기 위해 설계된 오픈소스 AI 프레임워크

Ming-Lite-Uni는 텍스트, 이미지, 비디오, 오디오 등 다양한 데이터 유형을 이해하고 생성하는 멀티모달 AI 시스템을 구축하는 데 사용되는 오픈소스 프레임워크이다. 이는 다양한 상호작용 형식을 통해 보다 원활한 인간-인공지능 커뮤니케이션을 가능하게 한다.

2025년 5월 9일 오전 2시 26분
NVIDIA, 파라킷 TDT 0.6B 공개: 음성인식에서 새로운 표준 세우며 오디오 1시간을 1초에 전사

NVIDIA가 파라킷 TDT 0.6B를 공개했다. 이는 6억 개의 파라미터, 상용 허용 라이센스, 놀라운 실시간 요소 (RTF) 3386을 가지고 있어 음성 AI의 성능과 접근성에서 새로운 기준을 세우고 있다.

2025년 5월 6일 오전 1시 47분
Meta와 부즈 앨런, 우주 산양 배치: 온보드 의사 결정을 위해 국제우주정거장으로 향하는 오픈소스 AI

Meta와 부즈 앨런이 Meta의 오픈소스 대형 언어 모델 ‘Llama 3.2’의 맞춤형 인스턴스인 Space Llama을 국제우주정거장(ISS) 미국 국립 연구소에 배치했다. 이는 우주에서 자율 AI 시스템을 가능하게 하는 중요한 한걸음이며, LLM의 실용적인 통합 사례 중 하나로 주목받고 있다.

2025년 5월 2일 오전 3시 00분
AWS, SWE-PolyBench 소개: AI 코딩 에이전트 평가를 위한 새로운 오픈소스 다국어 벤치마크

최근 대형 언어 모델의 발전으로 소프트웨어 코드를 생성, 수정, 이해하는 AI 기반 코딩 에이전트 개발이 가능해졌으나, 이러한 시스템의 평가는 주로 파이썬에 국한된 합성 또는 범위가 제한된 벤치마크로 제한되어 있습니다. AWS가 SWE-PolyBench를 소개하며 이 문제에 대처하고 있습니다.

2025년 4월 23일 오후 6시 29분
뇌를 해독하는 새로운 오픈소스 도구 출시

NeuroTrALE 소프트웨어 도구는 대량의 뇌 이미징 데이터를 빠르고 효율적으로 반 자동으로 처리하는 데 도움을 준다.

2024년 8월 14일 오후 2시 30분MIT News