
Naver announced on Thursday the completion of Korea's largest artificial intelligence (AI) computing cluster, consisting of 4,000 Nvidia B200 graphics processing units (GPUs).
This new infrastructure equips the company with world-class computing capacity, aimed at enhancing its foundation models and expanding AI applications across various products and industries.
The B200 cluster integrates Naver's proprietary technologies in cooling, power distribution, and network optimization, drawing on its experience from previous large-scale GPU systems, including Nvidia’s DGX SuperPOD developed in 2019.
Naver CEO Choi Soo-yeon emphasized the importance of this AI infrastructure, stating it represents not just a technology investment but a critical asset for strengthening the nation’s AI competitiveness and technological sovereignty.
According to the company, the cluster is designed for massive parallel computing and high-speed interconnects, providing performance akin to top-ranking systems on the world’s top 500 supercomputers, which will facilitate quicker AI development.
Simulations conducted by Naver indicated that training a 72-billion-parameter model, which previously required around 18 months on its A100-based infrastructure utilizing 2,048 GPUs, can now be completed in approximately six weeks with the new B200 cluster.
This efficiency improvement of more than twelvefold is expected to enable Naver to conduct more experiments and iterative training cycles, thereby enhancing model quality while significantly increasing speed and flexibility in AI model development.
Naver also plans to use this cluster to expedite the development of its proprietary foundation models, with the goal of scaling up training of its Omni models, which can process text, images, video, and audio, to meet global performance standards and gradually roll them out across services and industries.
네이버가 목요일에 4,000개의 Nvidia B200 그래픽 처리 장치(GPU)로 구동되는 한국 최대의 인공지능(AI) 컴퓨팅 클러스터를 완료했다고 밝혔다.
회사는 새로운 인프라를 통해 세계적 수준의 컴퓨팅 용량을 확보하게 되었으며, 이는 인터넷 거인의 자체 기초 모델 발전과 AI 응용 프로그램의 제품 및 산업 전반 확장 노력을 가속화할 예정이다.
네이버는 새롭게 구축된 B200 클러스터가 2019년에 설계 및 운영한 Nvidia DGX SuperPOD와 같은 대규모 GPU 시스템의 경험을 바탕으로 자체 기술인 냉각, 전력 분배, 네트워크 최적화를 결합하고 있다고 밝혔다.
네이버 CEO인 최 수연은 “최신 AI 인프라의 완공은 단순한 기술 투자를 넘어 국가의 AI 경쟁력과 기술 주권을 강화하는 핵심 자산이 되는 점에서 중요하다”고 말했다.
“더 빠른 훈련과 반복적인 개발이 가능해짐에 따라, 네이버 팀은 서비스와 산업 전반에 걸쳐 고급 AI를 제공하여 실질적인 가치를 지속적으로 창출할 것이다.”
대규모 병렬 컴퓨팅 및 고속 상호 연결을 위해 설계된 이 클러스터는 세계 상위 500대 슈퍼컴퓨터 중 일부와 유사한 성능을 제공할 것으로 예상되며, AI 개발을 더 빠르게 할 수 있는 환경을 조성할 것이다.
회사의 자체 시뮬레이션에 따르면, 이전에 2,048개의 GPU를 이용한 네이버 A100 기반 인프라에서 약 18개월이 걸렸던 720억 개 매개변수 모델 교육을 새로운 B200 클러스터를 통해 약 6주 만에 완료할 수 있게 되었다.
네이버는 훈련 효율성이 12배 이상 개선됨에 따라 모델 품질을 높이기 위한 실험과 반복 교육 주기를 더 많이 진행할 것으로 예상하며, AI 모델 개발 전반에서 속도와 유연성을 크게 향상시킬 계획이다.
회사는 이 새로운 클러스터를 활용하여 자사의 기초 모델 개발을 가속화할 계획이며, 텍스트, 이미지, 비디오 및 오디오를 처리할 수 있는 Omni 모델의 훈련을 규모를 키워 글로벌 기준에 맞춰 성능을 향상시키고 서비스 및 산업에 단계적으로 롤아웃할 예정이다.