이상준 네이버클라우드 운영총괄본부장(CIO)이 지난 27일 자사 데이터센터인  ‘각 세종’에서 열린 테크밋업에서 발표하고 있다. [출처=네이버클라우드]
이상준 네이버클라우드 운영총괄본부장(CIO)이 지난 27일 자사 데이터센터인  ‘각 세종’에서 열린 테크밋업에서 발표하고 있다. [출처=네이버클라우드]

네이버클라우드가 국내 최초 인공지능(AI) 데이터센터 '각 세종'으로 GPU 클라우드 서비스(GPUaaS) 시장 공략에 나선다. 그래픽처리장치(GPU) 확보·운영 기술 등을 바탕으로 실제 산업 현장에서 AI를 편리하게 활용할 수 있는 환경을 제공한다는 방침이다. 

이상준 네이버클라우드 운영총괄본부장(CIO)은 지난 27일 자사 데이터센터인  ‘각 세종’에서 열린 테크밋업에서  “AI 인프라의 경쟁력은 GPU를 얼마나 많이 확보하는가를 넘어 확보한 자원을 얼마나 안정적이고 효율적으로 운영하는지에 달려 있다”며 “네이버클라우드는 GPU 확보와 운영 기술 내재화의 균형을 통해 AI 인프라 경쟁력을 완성하고 있다”고 말했다. 

네이버는 지난 2019년 엔비디아의 슈퍼컴퓨팅 인프라인 ‘슈퍼팟(SuperPod’)을 세계에서 가장 빠르게 상용화 한 기업이다. 초고성능 GPU 클러스터를 직접 설계·운영한 경험을 보유하고 있다. 이러한 실증 경험을 바탕으로, ‘각 세종’에서 대규모 GPU 클러스터를 직접 설계·운영하고 있다. 냉각·전력·네트워크 등 데이터센터 핵심 인프라를 자체적으로 설계하고 AI 워크로드에 최적화하는 기술을 내재화했다. 

이 CIO는 “네이버의 데이터센터는 AI 워크로드 전체를 통합적으로 제어할 수 있는 풀스택 AI 인프라”라며 “이처럼 인프라를 하나의 시스템으로 통합적으로 설계·운영할 수 있는 역량은 국내는 물론 글로벌에서도 손꼽힌다”고 강조했다. 

‘각 세종’은 기존 IDC가 수행하던 저장·처리 기능을 넘어 AI 학습과 추론이 동시에 이뤄지는 고밀도 GPU 연산 공간으로 설계됐다. 이를 위해 전력과 냉각 효율, 무정지 운영까지 모두 고려해 AI 인프라가 24시간 안정적으로 작동할 수 있는 환경을 구축했다. 

AI 연산이 집중되는 데이터센터에서 가장 중요한 요소는 발열 관리다. GPU 전력 밀도가 높아지면서 냉각은 효율과 안정성을 좌우하는 핵심 요소가 됐다.

이에 ‘각 세종’은 ‘각 춘천’ 운영으로 축적한 실데이터와 열환경 분석을 바탕으로 직접외기·간접외기·냉수를 병행하는 하이브리드 냉각 시스템을 적용했다. 

또한 액침냉각 컨테이너 인프라를 구축해 냉각 용액의 안정성, 에너지 효율, 운영 안정성 등을 검증 중이다. 이를 기반으로 네이버클라우드는 고전력·고밀도 환경에 대응하는 차세대 냉각 기술 로드맵을 구체화하고, 수냉식 서버 냉각 관련 자체 특허도 출원 완료했다.

‘각 세종’은 장애 상황에서도 서비스가 멈추지 않도록 전력과 냉각, 서버 운용 체계를 완전히 분리하면서도 유기적으로 통합한 이중화 구조로 설계됐다.

GPU 서버의 고전력 특성에 맞게 무정전 전원 장치(UPS)와 배전 설비를 재배치해 장애 전파를 구조적으로 차단했다. 이를 통해 ‘각 세종’이 24시간 안정적으로 운영될 수 있는 기반을 구축했다. 

이러한 운영 기반 위에서 네이버의 AI 플랫폼은 모델 개발부터 학습·추론·서빙까지 AI의 전 과정을 하나로 연결하는 통합 운영 체계로 작동한다. 내부적으로는 네이버가 자체 개발한 거대언어모델(LLM) '하이퍼클로바(HyperCLOVA)'의 학습과 운영이 모두 이 플랫폼 위에서 이뤄진다. GPU 자원 배분·모델 관리·스케줄링까지 효율적으로 통제된다. 

이에 개발자는 인프라 제약 없이 학습·실험을 진행할 수 있고, 운영자는 GPU 사용 현황과 전력 효율을 실시간으로 모니터링하고 적재적소에 최적화 요소를 적용할 수 있다. 네이버의 AI 플랫폼은 단순한 실행 환경이 아닌 AI 개발과 운영이 하나로 통합된 ‘AI 인프라의 두뇌’로 자리잡고 있다는 설명이다. 

네이버클라우드는 이렇게 내부에 축적한 기술과 운영 역량을 기반으로 GPUaaS(GPU as a Service) 모델을 통해 국내 주요 기업에 AI 인프라 서비스를 제공하고 있다.  

이 CIO는 “네이버클라우드는 축적한 AI 인프라 운영 역량을 GPU 클라우드 서비스(GPUaaS) 모델로 발전시켜 국내 기업들이 손쉽게 AI를 활용할 수 있는 생태계를 만들 것”이라며 “이를 통해 AI 인프라가 특정 기업의 자산을 넘어 산업 전반의 성장 기반이 될 수 있도록 하겠다”고 포부를 밝혔다. 

저작권자 © 이비엔(EBN)뉴스센터 무단전재 및 재배포 금지