알리바바, 270억 개 파라미터 Qwen3.6 모델 공개
알리바바가 이전 모델보다 연산 효율과 코딩 성능을 개선한 Qwen3.6-27B 모델을 공개했습니다. 해당 모델은 밀집형 구조를 채택하여 제한적인 하드웨어 환경에서도 고성능을 구현합니다.
주장알리바바가 새롭게 공개한 Qwen3.6-27B 모델은 이전의 대규모 인공지능 모델보다 코딩 작업에서 우수한 성능을 보입니다. 이는 모델의 크기가 반드시 성능과 비례하지 않는다는 사실을 증명합니다.
팩트Qwen3.6-27B는 270억 개의 파라미터를 가진 밀집형 오픈 소스 모델입니다. 이전 모델인 Qwen3.5-397B-A17B는 3970억 개의 파라미터를 갖추고 있었습니다.
팩트코딩 성능 평가인 SWE-bench Verified 테스트에서 Qwen3.6-27B는 77.2점을 기록했습니다. 이는 이전 모델이 기록한 76.2점보다 높은 수치입니다.
팩트Terminal-Bench 2.0에서도 Qwen3.6-27B는 59.3점을 획득했습니다. 이전 모델은 해당 테스트에서 52.5점을 기록했습니다.
주장Qwen3.6-27B는 밀집형 구조를 채택하여 복잡한 전문가 혼합 구조보다 실행이 용이합니다. 이는 하드웨어 자원이 제한적인 개발 환경에서 큰 이점으로 작용합니다.
팩트Qwen3.6-27B는 텍스트 처리와 멀티모달 추론 기능을 모두 지원합니다. 다양한 작업을 수행하면서도 효율적인 연산이 가능하도록 설계했습니다.
팩트해당 모델은 Qwen 스튜디오와 알리바바 클라우드 모델 스튜디오 API를 통해 이용할 수 있습니다. 허깅페이스와 모델스코프에서는 오픈 웨이트 형태로 배포합니다.
교차검증벤치마크 결과는 실제 사용 환경에서의 성능을 완벽하게 대변하지 못합니다. 실제 운용 시에는 다양한 변수가 존재하므로 신중한 평가가 필요합니다.
교차검증중국의 오픈 소스 모델은 서구권 인공지능 연구소의 성과로부터 영향을 받을 가능성이 존재합니다. 기술 생태계의 상호 의존성을 고려해야 합니다.
주장이번 모델은 거대한 모델을 운영하기 부담스러운 개발자를 위해 설계했습니다. 고성능 코딩 기능을 제공하면서 운영 효율성을 극대화하는 것이 목표입니다.
출처더 디코더 보도와 알리바바 Qwen 공식 발표 자료를 교차 검증했습니다.
본 기사는 전문가의 분석과 공개 자료를 기반으로 AI가 작성 후 다른 AI의 검증을 거쳐 작성됐으며 정보의 정확성과 완전성을 보장하지 않습니다. 기사 내용은 특정 투자·의사결정의 권유가 아니며, Wittgenhaus는 이를 근거로 한 행위의 결과에 책임을 지지 않습니다.