취리히연방공과大, 다국어 언어모델 ‘아페르투스’ 오픈소스 공개
■
스위스 취리히연방공과大와 스위스 국립 컴퓨팅센터 등이 공익 목적으로 스위스 최초의 다국어 LLM ‘아페르투스’를 개발해 허깅페이스에 오픈소스로 공개
■
아페르투스는 스위스 독일어, 로만슈어 등 기존 LLM 훈련에 포함되지 않은 1,000개 이상 언어를 학습 데이터로 포함하며, 벤치마크 평가에서 유사 크기의 개방형 모델과 비슷한 성능을 달성
스위스 연구진, 공익 목적으로 다국어 지원과 투명성 강화한 아페르투스 개발■
스위스 취리히연방공과大(ETH Zurich), 스위스 로잔공과大(EPFL), 스위스 국립 컴퓨팅센터(CSCS)가 2025년 9월 2일 스위스 최초의 다국어 LLM ‘아페르투스(Apertus)’를 허깅페이스에 공개
∙
연구진은 ‘스위스 AI 이니셔티브(Swiss AI Initiative)’의 일환으로 아페르투스를 개발했으며, 80억 개와 700억 개 매개변수의 두 가지 크기로 모델을 제공
* 스위스 취리히연방공과大와 스위스 로잔공과大, CSCS가 공익적 AI를 위해 2023년 12월 출범한 오픈소스 프로젝트
∙
아페르투스는 라틴어로 ‘개방(Open)’을 뜻하며, 개발 과정과 모델 구조, 가중치, 학습 데이터와 모델 구현 설명서(Recipes)를 모두 공개하고 교육과 연구 용도뿐 아니라 상업적 활용도 허용
∙
연구진은 아페르투스 모델을 정기적으로 업데이트할 계획으로, 향후 버전에서는 모델군 확장과 효율성 개선 및 법률, 기후, 보건, 교육 등 분야별 특화를 모색
■
공익을 위해 개발된 아페르투스는 다국어 지원, 투명성, 규정 준수를 기본 설계 원칙으로 구현∙
스위스 독일어, 로만슈어 등 기존 LLM에서 충분히 표현되지 않았던 1,000개 이상의 언어를 학습 데이터로 포함하여, 전체 학습 데이터 중 40%가 非영어에 해당
아페르투스, 일반 지식 벤치마크 평가에서 유사 크기의 개방형 모델과 비슷한 성능을 달성■
모델 테크니컬 리포트(Technical Report)에 따르면, 아페르투스는 일반 지식에서 유사 크기의 완전 개방형 모델 및 개방형 가중치(Open-Weight) 모델과 비슷한 성능을 달성
∙
사전훈련 단계에서 일반 지식* 벤치마크 평가 평균 점수는 8B 모델은 65.8점, 70B 모델은 67.5점으로 올모2-7B(64.0점), 라마3.1-8B(65.4점)를 앞섰고, 라마3.1-70B(67.3점), 큐원 2.5-72B(69.8점)와 비슷한
수준을 기록
* ARC, HellaSwag, WinoGrande, XNLI, XCOPA, PIQA
∙
사후훈련을 통해 지시 이행 능력을 강화한 아페르투스 8B 모델은 지식 회상(Knowledge Recall) 벤치마크* 평가에서 유사 크기 모델 대비 경쟁력 있는 성능을 달성**
* 학습한 정보를 기억하는 능력: MMLU, Global-MMLU, TruthfulQA, TruthfulQA Multilingual
** 평균 점수: 아페르투스-8B(58.8점), 라마-3.1-8B(59.2점), Qwen3-8B(57.8점), 올모2-7B(53.7점)
∙
그러나 수학과 코딩 벤치마크* 평가에서는 70B와 8B 모델 모두 최고 수준의 완전 개방형 모델 및 개방형 가중치 모델에 미달하는 것으로 확인
* 코딩 벤치마크 HumanEval, MBPP 및 수학 벤치마크 GSM8K, MGSM, Hendrycks Math, MathQA
** 평균 점수: 아페르투스 70B(54.4점), 아페르투스 8B(44.2점), Qwen3-32B(76.3점), 라마-3.1-8B(60.0점), 올모2-32B(56.7점)