![서울 중구 소재 SK텔레콤 T타워 [출처=김채린 기자]](https://cdn.ebn.co.kr/news/photo/202507/1670215_685800_428.jpeg)
SK텔레콤이 독자 개발한 한국형 경량 대규모언어모델(LLM) ‘A.X 3.1 라이트’를 글로벌 오픈소스 커뮤니티 허깅페이스(Hugging Face)에 11일 공개하며, 국내 AI 생태계 자립화를 위한 기술 공개 행보에 속도를 내고 있다.
이번 모델은 SK텔레콤이 프롬 스크래치(From Scratch) 방식으로 개발한 순수 자체 모델로, 70억 개 매개변수(7B) 기반의 경량화와 효율성, 한국어 특화 성능을 동시에 달성했다는 평가를 받고 있다.
A.X 3.1 라이트는 앞서 에이닷(A.) 전화 통화요약 기능에 사용됐던 A.X 3.0 라이트의 후속 모델로, 모바일 환경에 최적화된 낮은 연산 부담과 에너지 효율성을 이어가면서도, 한국어 처리 능력에서 대형 모델에 근접하는 성과를 기록했다.
KMMLU(한국어 대규모 다중과제 이해 평가)에서는 자매 모델인 A.X 4.0 라이트 대비 96% 수준, CLIcK(한국 문화·언어 이해 평가)에서는 오히려 102% 성능을 나타내며, 국산 모델로서의 기술적 완성도를 입증했다.
SK텔레콤은 향후 A.X 3.1의 확장형 모델인 340억 매개변수(34B) 규모의 모델도 이달 중 오픈소스로 공개할 계획이다. 이로써 SK텔레콤은 경량화 기술력과 범용 확장성을 동시에 확보한 LLM 공개 전략을 본격화하고 있다.
특히 이번 공개는 SK텔레콤의 AI 전략 중 하나인 ‘소버린 AI’ 역량 확보와 직결된다. A.X 3 계열은 처음부터 끝까지 순수 자체 기술로 개발하는 방식이며, 이는 향후 정부가 추진하는 AI 파운데이션 모델 개발 사업 참여의 핵심 자산으로도 작용할 전망이다.
반면 A.X 4 계열은 대규모 사전학습(CPT: Continual Pre-Training) 방식으로 구축돼 고성능 환경에 특화된 쓰임새를 갖는 구조다.
이 같은 ‘투 트랙 전략’은 AI 기술 활용이 점차 다변화되고 있는 산업계 현실에 맞춘 전략적 분기점이다.
경량화된 모델은 AI 콜센터, 챗봇, 모바일 앱 등 실시간 반응성과 연산 최적화가 필요한 분야에, 대형 모델은 생성형 AI, 초대규모 데이터 분석 등 고성능을 요구하는 환경에 적합하다.
SK텔레콤은 이를 통해 다양한 산업군의 니즈를 충족시키며 기술 접근성을 확대하겠다는 구상이다.
김태윤 SK텔레콤 파운데이션 모델 담당은 “한국형 LLM 개발을 통해 국가 AI 경쟁력 제고에 실질적 기여를 목표로 하고 있다”며, “오픈소스를 통한 협업 생태계 확대와 GPU 인프라 고도화로 글로벌 수준의 LLM 경쟁력을 확보해 나갈 것”이라고 밝혔다.