Loading...

AI 경쟁 병목은 데이터센터…전력 인프라가 성패

AI 경쟁 병목은 데이터센터…전력 인프라가 성패
▲ 엔비디아의 주력 AI용 반도체인 H100

정부가 '인공지능(AI) 3강' 도약을 국정 과제로 내걸었지만 승패의 열쇠는 소프트웨어가 아닌 '물리적 인프라'가 쥐고 있다는 분석이 나옵니다.

아무리 뛰어난 AI 모델(두뇌)을 개발해도 이를 가동할 AI 반도체와 데이터센터(몸통), 그리고 막대한 전력(혈액)이 공급되지 않으면 '뇌사' 상태나 다름없기 때문입니다.

특히 '전기 먹는 하마'로 불리는 고성능 GPU(그래픽처리장치)가 뿜어내는 고열을 식히고 안정적인 전력을 공급하는 문제는 이제 기업 차원을 넘어 국가적 생존 과제로 떠올랐습니다.

AI 패권 경쟁의 전선이 알고리즘 개발을 넘어 전력·냉각·부지 등 '하드웨어 인프라' 확보전으로 급격히 이동하고 있다는 지적입니다.

전력은 AI 사업의 성패를 가를 대표적인 필수 인프라로 지목됩니다.

먼저 AI 모델은 학습과 추론 과정에서 방대한 데이터를 처리해야 하는데 이를 지원할 대규모 AI 데이터센터를 구축해야 합니다.

이때 AI 데이터센터는 그래픽처리장치(GPU)나 텐서처리장치(TPU) 등 AI 반도체를 사용하는데 AI 반도체는 막대한 전력을 소모합니다.

일반적인 데이터센터는 랙당 10∼15kW의 전력을 소비하지만, 고성능 GPU로 이뤄진 AI 데이터센터는 랙당 100kW가 필요합니다.

특히 AI 반도체를 선도하는 엔비디아 루빈 플랫폼의 경우 랙당 600kW를 소비한다고 알려졌습니다.

AI 반도체는 이렇듯 막대한 전력을 소모하는 만큼 고온의 열을 뿜어내기 때문에 냉각과 공조 기술 역시 필수적으로 요구됩니다.

결국 AI 반도체, 냉각 기술 모두 막대한 전력을 바탕으로 돌아가기 때문에 AI 데이터센터가 '전기 먹는 하마'로 불리고 있습니다.

미국 전력연구소(EPRI)에 따르면 구글로 한 번 검색할 때 사용되는 전력은 0.3Wh(와트시)에 불과하지만 챗GPT의 경우 2.9Wh가 사용됩니다.

더 나아가 구글 등 빅테크에서 기존 검색 포털에 AI 검색 서비스를 추가하면서 검색 포털의 전력 소모량도 현재 대비 30배가량 늘어날 수 있다는 전망도 나오고 있습니다.

한국의 데이터센터 전력 소모량은 2025년 8.2TWh(테라와트시)에서 2038년 30TWh로 폭증할 것이란 전망이 나왔습니다.

이에 전력 인프라는 AI 산업의 확장 가능성을 판단하는 가늠자이자 데이터센터 시장의 사업성을 결정짓는 핵심 인프라로 여겨지고 있습니다.

한편 서버를 비전도성 액체에 담가 냉각하는 액침 냉각 기술은 AI 데이터 센터의 전력 소비를 획기적으로 줄일 수 있어 차세대 냉각 기술로 주목받고 있습니다.

AI 업계에 따르면 국내 민간 데이터센터 시장은 6조 원 규모로 2028년 10조 원 규모에 이를 것으로 전망되고 있습니다.

챗GPT, 하이퍼클로바 등 대규모 대형언어모델(LLM)이 등장하면서 데이터센터에 대한 수요는 앞으로 더욱 늘어난 것이라는 게 정설입니다.

SKT와 KT가 가산디지털단지에 데이터센터를 열었고, 삼성SDS와 NHN클라우드는 각각 구미와 광주에 데이터센터 건립을 진행 중입니다.

그뿐만 아니라 글로벌 빅테크 기업인 아마존웹서비스(AWS)와 오픈AI가 국내 데이터센터 구축에 참여하기로 결정하면서 한국은 데이터센터 허브로 부상하고 있습니다.

데이터센터의 수요가 날로 증가하고 있지만 관련 업계에서는 데이터센터 공급 여건이 이미 한계에 다다랐다는 목소리가 나옵니다.

도심에 집중된 전력 수요를 분산하기 위한 정부 규제가 강화되면서 데이터센터 건설에 대한 투자가 위축됐기 때문입니다.

지난해 10월 광주 북구 오룡동 광주AI데이터센터에서 국회 과학기술정보방송통신위원회 위원들이 국정감사 현장 시찰을 하고 있다. (사진=연합뉴스)

정부는 전기사업법 시행령을 개정해 한전이 데이터센터 수전에 필요한 송배전망 확충이 어려운 경우 전력 공급을 거부할 수 있는 규정을 추가하는 등 규제를 도입한 바 있습니다.

AI 데이터센터는 크게 하이퍼스케일 데이터센터와 엣지 데이터센터로 나뉩니다.

대규모 AI 모델 학습과 빅데이터 분석을 담당하는 하이퍼스케일은 넓은 상면이 필요해 농촌이나 외곽지역에 위치하고, 엣지 데이터센터는 신속한 처리와 실시간 추론을 위해 도심이나 수요 기업 인근에 자리 잡고 있습니다.

수도권 전력 과밀화로 송배전망이 한계에 도달한 데다 정부 규제가 강화되면서 수도권에 하이퍼스케일 데이터센터를 구축하는 건 현실적으로 어려운 상황입니다.

따라서 하이퍼스케일 데이터센터를 건설하려면 지방에 건립해야 하는데 지방의 전력 인프라가 부족할 것을 우려해 일본으로 눈을 돌리는 AI 기업이 나오는 등 투자가 얼어붙은 것입니다.

엣지 데이터센터의 경우 수도권에 위치하는 만큼 수전 공급을 일정 규모로 제한하는 등 규제를 받고 있어 이 역시 투자가 위축됐다는 지적이 잇따르고 있습니다.

업계 관계자는 "수도권은 수전량 한계로 경제성 있는 AI 데이터 센터 구축이 어렵고 지방 지역은 유지보수 인프라 부족과 불안정한 송배전망으로 인해 글로벌 AI 데이터센터를 유치할 유인이 부족한 상황이다"라며 "지방 지역에 대규모 AI 데이터센터를 짓는 것이 아니라 중간 지역에 거점 역할을 할 수 있는 AI 데이터센터를 투자하는 방안도 고려할 필요가 있다"고 조언했습니다.

(사진=엔비디아 홈페이지 캡처, 연합뉴스)
Copyright Ⓒ SBS. All rights reserved.
무단 전재, 재배포 및 AI학습 이용 금지
경제 365

댓글

방금 달린 댓글
댓글 작성
첫 번째 댓글을 남겨주세요.
0 / 300
  • 최신순
  • 공감순
  • 비공감순
매너봇 이미지
매너봇이 작동 중입니다.

댓글

방금 달린 댓글
댓글 작성
첫 번째 댓글을 남겨주세요.
0 / 300
  • 최신순
  • 공감순
  • 비공감순
매너봇 이미지
매너봇이 작동 중입니다.

댓글 ∙ 답글 수 0
  • 최신순
  • 공감순
  • 비공감순
매너봇 이미지
매너봇이 작동 중입니다.
>