생성 AI(Generative AI)가 기업 업무 전반을 뒤흔들면서 연산 능력이 경쟁력인 시대가 됐다. 문제는 인공지능(AI)을 운영하기 위해 필요한 연산 및 전력에 대한 수요가 상상을 뛰어넘는 속도로 늘어난다는 점이다.
AI 연산 수요는 지난 10년간 반도체 성능 향상의 상징인 ‘무어의 법칙’보다 두 배 이상 빠르게 증가했다. 이런 추세가 이어지면 2030년 전 세계 AI 연산 관련 전력 수요는 200 (기가와트)까지 치솟고, 미국에서만 추가로 100 의 전력이 더 필요하다는 분석이 나온다. 지난 20년간 전력망 수요 증가가 상대적으로 평탄했던 상황에서, AI가 전력 수요의 새로운 변수가 된 셈이다. 이를 뒷받침하려면 매년 5000억달러(약 729조8000억원) 규모의 데이터센터 투자가 요구된다. 거대한 투자 사이클이 변곡점을 맞았다는 말이 나오는 배경이다.
5000억달러의 덩치⋯ 민간만으론 모자라는 투자의 벽
AI 인프라 투자는 이제 속도전이 아니라 지속 가능성의 시험대로 넘어가고 있다. 2030년 수요를 맞추려면 연간 5000억달러의 데이터센터 자본 지출이 필요하다는 계산은 정부 보조금만으로는 감당하기 어려운 규모다. 더 큰 문제는 투자 재원이다. 클라우드 서비스 사업자 매출 대비 투자 비율을 감안하면, 연간 5000억달러의 자본 지출을 감당하려면 연간 2조달러(약 2919조2000억원) 매출이 필요하다는 분석이 제시된다. 쉽게 말해 ‘투자를 지속하려면 그만큼의 새 매출이 생겨야 한다’는 의미다.
정부가 이러한 자본 수요를 지원해 줄 것이라는 기대는 현실과 거리가 멀다. 연간 5000억달러라는 수치는 상상할 수 있는 어떤 보조금 규모도 뛰어넘는다. 결국 민간이 투자 재원을 마련하되, 전력 인허가·송배전 투자처럼 민간만으로 풀기 어려운 영역에서는 정책 지원이 함께 움직여야 한다는 분석이 나온다. 인프라·전력·반도체 공급망을 둘러싼 조달 시장이 투명하고 효율적으로 작동하는지도 관건이다.
기업이 현 수준의 예산으로 이 격차를 좁히는 것은 쉬운 과제가 아니다. 자체 서버 정보기술(IT) 예산을 모두 클라우드로 옮기고, 세일즈·마케팅·연구개발(R&D)과 고객 지원 등에 AI를 적용해 절감되는 비용을 재투자해 예산의 약 20%를 절감한다고 가정하더라도, 여전히 8000억달러(약 1167조6800억원)가 부족하다는 추정이 나온다. IT 예산 전환과 AI 절감분 재투자가 최대한 이뤄져도 재원이 부족하다는 뜻이다. 결국 민간투자만으로는 한계가 있고, 기술혁신과 공공 지원이 동시에 뒷받침돼야 한다는 결론으로 이어진다.
스타트업 생태계에선 대규모 벤처캐피털 자금이 몰리고 있지만, 돈이 AI 모델 개발에만 집중되면 인프라의 병목을 풀기 어렵다. 데이터센터 증설을 정당화할 만큼의 새로운 매출원이 AI 생태계 안착의 관건으로 꼽히는 이유다. 생산성 향상만으로는 부족하고, AI가 경제의 새로운 가치와 수요를 만들어내는국면으로 넘어가야 ‘2조달러 매출’이라는 큰 수치가 현실성 있다.
알고리즘·칩 혁신이 '숨통'
자금의 벽을 낮추는 첫 번째 변수는 효율이다. 대규모 연산 능력을 구축하는 것이 비싸질수록 돌파구는 완전히 새로운 방식에서 나오는 경우가 많다. 예컨대 분산 처리 방식을 바꾼 맵리듀스(MapReduce) 방식, 순차 데이터를 효율적으로 다루게 한 트랜스포머(transformer) 방식처럼 알고리즘 혁신이 연산 비용을 낮출 수 있는 또 하나의 방법이라는 뜻이다.
실제로 혼합 정밀도 연산(mixed-preci-sion) 같은 학습·추론 기법은 같은 성능을 더 적은 계산으로 구현하는 길을 열었다. 연산 부담을 줄이는 추론 전략이나 대형 모델을 압축하는 증류(distillation) 방식도 효율을 끌어올리는 방법으로 거론된다. 최근 딥시크(DeepSeek)가 ‘알고리즘 개선’으로 연산 효율의 경계를 밀었다는 평가도 있다.
하지만 효율 혁신이 모든 것을 해결하진 못한다. 알고리즘이 개선돼도 2030년까지 미국에서만 100 의 추가 연산 능력이 필요하다는 전제 자체는 크게 바뀌지 않는다는 분석이 뒤따른다. 결국 적은 전기로 더 많은 일을 하기 위한 노력과 절대적인 설비 및 인프라 증설이 동시에 필요한 상황이다.
반도체 기술의 또 다른 혁신도 변수다. 양자 컴퓨터가 미래의 대안으로 거론되지만,생성 AI의 학습·추론을 대체할 만큼 안정적인 양자 컴퓨터가 등장하려면 최소 10~15년은 더 필요하다는 전망이 제시된다. 그 사이에는 그래픽처리장치(GPU)보다 효율이 높은 학습·추론 전용 주문형 반도체(ASIC), 새로운 메모리, 첨단 패키징 등 전력 효율을 높이는 기술 경쟁이 이어질 가능성이 크다. 기술혁신이 궤적을 바꾸면 투자 규모와 방식도 달라질 수 있지만, 혁신이 늦어지면 인프라 증설 압력은 오히려 커진다.
4년 이상 소요 전력망 구축, 투자 리스크 키운다
인프라 투자 경쟁을 더 어렵게 하는 건 공급망이다. 데이터센터를 필요한 속도로 짓기 어렵다는 지적은 네 갈래 병목에서 나온다. 전력 공급, 건설 서비스, GPU 같은 연산 핵심 부품 그리고 배전반과 고도 냉각 장비 등 데이터센터 설비의 공급이 동시에 제약받는다는 것이다.
특히 전력 확보가 가장 까다로운 축으로 꼽힌다. 전력 산업은 규제가 촘촘해 발전·송전·배전 설비를 새로 깔고 가동하기까지 4년 이상 걸릴 수 있다. 전력망을 늘리는 속도가 연산 수요 증가 속도를 따라가지 못하면, 데이터센터를 지어도 기대만큼 가동률이 나오지 않는 ‘전력 리스크’를 떠안게 된다. 이런 불확실성으로 인해 AI 인프라 투자 전략을 양으로 밀어붙이는 방식에서 정교한 포트폴리오로 접근하는 것이 요구된다. 연산 수요가 계속 치솟는다고 보고 전력과 서버를 과도하게 늘리면, 추세가 둔화하는 순간 유휴 설비가 재무적 폭탄이 될 수 있다. 반대로 수요가 꺾일 것으로 보고 투자를 늦추면, 성장 파도를 놓치고 시장점유율을 잃을 수 있다. 이러한 딜레마로 인해, 투자 사이클은 새로운 변곡점을 맞고 있다.
결국 해법은 한 가지가 아니다. 알고리즘과 하드웨어의 혁신, 공공 지원, 효율적인 시장 메커니즘이 함께 작동해야 격차를 줄일 수 있다는 지적이 나온다. AI는 생산성을 높이는 도구를 넘어 신약 개발, 자율주행, 물류 등 다양한 산업에서 새로운 사업과 기술혁신을 촉발할 잠재력이 있다. 그러나 국내에서 이러한 혁신이 제때 진행되지 않으면, 전력과 공공 재원이 풍부한 일부 지역·플레이어 중심으로 글로벌 생태계가 재편될 수 있다는 경고도 제기된다. 현재 글로벌 테크 기업은 전력망 부족과 확충을 위한 시간 간극을 메우기 위해 기존 발전원 대비 통상 세 배 이상 비싼 자체 전력 시스템(behind the meter) 확보에도 공격적으로 투자하고 있다.
국내 기업도 ‘AI 도입’만 외칠 단계는 지났다. AI가 절감하는 비용을 단순히 이익으로 남기기보다 데이터·모델·인프라에 재투자해 생산성을 확실히 끌어올리는 설계가 필요하다. 전력·냉각·설비 조달 리스크를 감안해 클라우드, 자체 데이터센터, 파트너십을 섞는 방식의 투자 포트폴리오도 요구된다. 마지막으로, 결국 관건은 매출이다. 연간 2조달러 규모의 새로운 매출원이 뒷받침되지 않으면 5000억달러의 연간 인프라 투자도 지속되기 어렵다는 메시지는 한국 기업에도 ‘AI로 무엇을 팔 것인가’라는 질문을 더 날카롭게 던진다.