본문 바로가기
events

이벤트

총 3059건

Qwen3.6-35B-A3B (코딩 에이전트용) 공개

Qwen3.6-35B-A3B는 MoE(Mixture, of Experts, 전문가 혼합) 아키텍처를 사용하며, 에이전틱 코딩 성능이 대폭 좋아진 오픈소스 모델.

Qwen1.5 공개

Qwen 1.5에서는 0.5B, 1.8B, 4B, 7B, 14B, 32B, 72B, 110B의 6가지 크기에 대한 기본 모델과 채팅 모델을 오픈소스로 공개.

Qwen2.5 공개

Qwen2.5: 0.5B, 1.5B, 3B, 7B, 14B, 32B, 72B. Qwen2.5-Coder: 1.5B, 7B, 32B (예정). Qwen2.5-Math: 1.5B, 7B, and 72B.

Qwen3 공개

0.6B, 1.7B, 4B, 8B, 14B, 32B 6개 모델, MoE 모델로는 30B-A3B, 235B-A22B 2개 모델 발표 기

Qwen3-Coder-Next 모델 공개

코딩 특화 AI 모델로 80B MoE 구조를 기반으로 3B 활성 파라미터만 사용, 소형 모델급 속도로 상용 모델 수준의 복잡한 코딩 및 에이전트 성능을 낸다는 것이 알라바바가 밝힌 특징

ChatGPT에서 한컴오피스 '한글' 문서 형식인 HWP, HWPX 파일 지원 발표

사용자들은 별도의 파일 변환 없이 한글 문서를 직접 게재해 내용을 확인하고 분석 가능. 긴 보고서나 행정 문서, 회의 자료 등 방대한 문서를 빠르게 검토해야 하는 업무 환경에서도 활용 가능.