|
여기에 추가되어야 할 필수불가결한 요소가 있는데 그것은 바로 데이터센터에 제공되는 전력이다. 따라서 인공지능은 전자공학과 전기공학 사이에서 태어난 옥동자라고 할 수 있다.
19세기에 미국 캘리포니아주를 중심으로 펼쳐졌던 골드러시 시절에 실질적으로 번창했던 산업은 청바지와 같은 의류, 곡괭이과 같은 도구였다. 마찬가지로 요즈음 인공지능과 관련하여 시장에서 각광받고 있는 산업은 반도체와 전력이라고 할 수 있다.
반도체의 관건은 어떻게 하면 속도는 빠르고 전력은 적게 소모는 반도체를 설계할 수 있느냐에 달려 있다. 인공지능이 개발되기 전에는 연산을 순차적으로 실행하는 CPU만으로도 연산처리가 가능했다. 하지만 CPU는 인공지능이 요구하는 방대한 데이터를 고속으로 처리하기에는 역부족이다. 이때 CPU의 구원투수로 떠오른 반도체가 바로 병렬연산처리가 가능한 GPU이다.
그러다 보니 GPU를 대량생산하고 있는 엔비디아에 세상의 이목이 집중될 수 밖에 없다. 하지만 GPU도 인공지능의 파라미터가 증가할수록 한계에 직면하게 될 것이다. 최근 신경망처리장치(NPU:Neural Processing Unit)가 그 대안으로 부상하고 있다. NPU는 인공지능 작업에 특화된 하드웨어이다. CPU나 GPU와는 다른 아키텍처를 가지고 있어 복잡한 계산을 더욱 빠르게 수행할 수 있다. 낮은 전력을 소모하므로 높은 에너지 효율성을 제공한다.
인공지능의 데이터센터는 전기먹는 하마라고 불리고 있다. 2027년쯤 전 세계에 세워진 인공지능 데이터센터의 전력소모량은 연간 100테라와트시(TWh) 내외가 될 것으로 추산되고 있다. 이는 스웨덴이나 네덜란드가 1년에 걸쳐 소비하는 전력량과 맞먹는다. 전기는 화력, 수력, 원자력 등과 같은 발전소에서 혹은 풍력, 태양광 등과 같은 신재생에너지원으로부터 제공된다.
이러한 전력공급원은 실제 수요자가 있는 도심에서 멀리 떨어져 있기 때문에 송전선, 변전소, 배전선을 통해 수요자에게 공급된다. 그러다 보니 전선의 재료인 구리와 변전소의 핵심장치인 변압기의 가격이 천정부지로 치솟을 수 밖에 없다. 국내 송배전 과정에서 전력손실은 16.8테라와트시(TWh)로 추산된다.
이는 대한민국에서 1년간 태양광 발전으로 생산한 전력량에 맞먹는 수준이다. 인공지능이 진화할수록 데이터센터의 전력수요는 증가할 것이다. 이에 대한 해결책의 일환으로 최근 급부상하고 있는 것이 소형원자로(SMR: Small Modular Reactor)이다. SMR이 데이터센터 인근에 설치된다면 전력공급원과 수요자간 장거리에서 비롯되는 전력손실 등의 여러가지 문제가 해결될 수 있게 된다. 빌게이츠가 SMR에 막대한 투자를 하는 것도 이유가 있는 것이다.
향후 인공지능이 인간의 지능을 능가하는 특이점(Singularity)에 도달하기 위해서는 초고속 저전력의 특성을 가진 반도체와 데이터센터의 막대한 전력수요를 감당할 에너지원이 뒷받침되어야 한다. 인공지능의 핵심두뇌인 인공지능반도체와 핵심에너지원인 SMR 분야에서 대한민국이 글로벌 선도국가가 되길 기대해 본다.
용홍택 한양대 공과대학 전기생체공학부 교수
<저작권자 경제포커스 무단전재 및 재배포금지>