default_top_notch
default_setNet1_2

인공지능과 전기전자공학

기사승인 24-05-29 16:41

공유
default_news_ad1

 
용홍택 교수
 
인공지능이 작동하기 위해서는 몇 가지 필수적인 요소가 갖추어져야 한다. 텍스트, 이미지, 음성 등과 같은 다양한 형태의 데이터와 딥러닝, 컴퓨터비전, 생성모델 등과 같은 알고리즘, 그리고 중앙처리장치(CPU:Central Processing Unit), 그래픽처리장치(GPU;Graphics Processing Unit) 등과 같은 하드웨어가 있어야 한다.

여기에 추가되어야 할 필수불가결한 요소가 있는데 그것은 바로 데이터센터에 제공되는 전력이다. 따라서 인공지능은 전자공학과 전기공학 사이에서 태어난 옥동자라고 할 수 있다.

19세기에 미국 캘리포니아주를 중심으로 펼쳐졌던 골드러시 시절에 실질적으로 번창했던 산업은 청바지와 같은 의류, 곡괭이과 같은 도구였다. 마찬가지로 요즈음 인공지능과 관련하여 시장에서 각광받고 있는 산업은 반도체와 전력이라고 할 수 있다.

반도체의 관건은 어떻게 하면 속도는 빠르고 전력은 적게 소모는 반도체를 설계할 수 있느냐에 달려 있다. 인공지능이 개발되기 전에는 연산을 순차적으로 실행하는 CPU만으로도 연산처리가 가능했다. 하지만 CPU는 인공지능이 요구하는 방대한 데이터를 고속으로 처리하기에는 역부족이다. 이때 CPU의 구원투수로 떠오른 반도체가 바로 병렬연산처리가 가능한 GPU이다.

그러다 보니 GPU를 대량생산하고 있는 엔비디아에 세상의 이목이 집중될 수 밖에 없다. 하지만 GPU도 인공지능의 파라미터가 증가할수록 한계에 직면하게 될 것이다. 최근 신경망처리장치(NPU:Neural Processing Unit)가 그 대안으로 부상하고 있다. NPU는 인공지능 작업에 특화된 하드웨어이다. CPU나 GPU와는 다른 아키텍처를 가지고 있어 복잡한 계산을 더욱 빠르게 수행할 수 있다. 낮은 전력을 소모하므로 높은 에너지 효율성을 제공한다.

인공지능의 데이터센터는 전기먹는 하마라고 불리고 있다. 2027년쯤 전 세계에 세워진 인공지능 데이터센터의 전력소모량은 연간 100테라와트시(TWh) 내외가 될 것으로 추산되고 있다. 이는 스웨덴이나 네덜란드가 1년에 걸쳐 소비하는 전력량과 맞먹는다. 전기는 화력, 수력, 원자력 등과 같은 발전소에서 혹은 풍력, 태양광 등과 같은 신재생에너지원으로부터 제공된다.

이러한 전력공급원은 실제 수요자가 있는 도심에서 멀리 떨어져 있기 때문에 송전선, 변전소, 배전선을 통해 수요자에게 공급된다. 그러다 보니 전선의 재료인 구리와 변전소의 핵심장치인 변압기의 가격이 천정부지로 치솟을 수 밖에 없다. 국내 송배전 과정에서 전력손실은 16.8테라와트시(TWh)로 추산된다.

이는 대한민국에서 1년간 태양광 발전으로 생산한 전력량에 맞먹는 수준이다. 인공지능이 진화할수록 데이터센터의 전력수요는 증가할 것이다. 이에 대한 해결책의 일환으로 최근 급부상하고 있는 것이 소형원자로(SMR: Small Modular Reactor)이다. SMR이 데이터센터 인근에 설치된다면 전력공급원과 수요자간 장거리에서 비롯되는 전력손실 등의 여러가지 문제가 해결될 수 있게 된다. 빌게이츠가 SMR에 막대한 투자를 하는 것도 이유가 있는 것이다.

향후 인공지능이 인간의 지능을 능가하는 특이점(Singularity)에 도달하기 위해서는 초고속 저전력의 특성을 가진 반도체와 데이터센터의 막대한 전력수요를 감당할 에너지원이 뒷받침되어야 한다. 인공지능의 핵심두뇌인 인공지능반도체와 핵심에너지원인 SMR 분야에서 대한민국이 글로벌 선도국가가 되길 기대해 본다.

용홍택 한양대 공과대학 전기생체공학부 교수

<저작권자 경제포커스 무단전재 및 재배포금지>

 

default_news_ad3
default_setImage2
default_news_ad4
default_side_ad1

인기기사

default_side_ad2

그래픽

1 2 3
set_P1
default_side_ad3

섹션별 인기기사 및 최근기사

default_setNet2
default_bottom

#top
default_bottom_notch