AI는 얼마나 전력을 소비하고 있는가 (2/3)
== 의외의 사실과 복잡한 배경==
데이터센터란 무엇인가
AI는 다른 종류의 기술보다 더 많은 자원을 필요로 한다. 그 이유는 AI 시스템이 다루는 데이터량과 작동에 필요한 연산 능력이 단순한 컴퓨터 작업과는 차원이 다르기 때문이다. AI 시스템은 사실상 인공적인 뇌이며, 수십억 개의 데이터를 입력해 데이터 간 패턴을 찾아야 한다. 그래서 매개변수(parameter)가 클수록 특정 작업에서 더 뛰어난 성능을 보이는 경향이 있다. 예를 들어, 40억 장의 고양이 이미지를 학습한 모델은 1억 장으로 학습한 모델보다 훨씬 더 사실적인 고양이 이미지를 생성할 수 있다.
그러나 그 모든 지식은 어딘가에 저장되어야 한다. 흔히 말하는 ‘클라우드’는 막연한 저장소가 아니라, 데이터를 처리·보관하고 복잡한 질의를 실행하는 방대한 컴퓨터 네트워크를 수용하는 물리적 데이터센터를 의미한다.
이러한 대규모 컴퓨팅팜은 주로 기업용 클라우드 서비스를 위해 예전부터 존재해 왔다. 하지만 AI 경쟁이 치열해지고, AI 도구 자체가 저렴하고 친숙해지면서 수요는 그 어느 때보다 커지고 있다.
Moody’s의 수석 부사장(SVP) 존 메디나(John Medina)는 “대기업은 그동안 이를 부동산 자산처럼 관리해 왔다.”며 “당시에는 누구도 대규모 용량을 필요로 하지 않았다.”고 설명했다.
그러나 지금은 급격히 확대되는 고객 기반을 감당해야 하는 압박이 존재한다고 지적했다.
이러한 수요가 에너지 사용량을 끌어올리고 있으며, 매개변수가 많을수록 연산량도 늘어난다고 MIT 링컨 연구소 선임 연구원이자 AI 인프라 기업 Radium의 CTO인 비제이 가데팔리(Vijay Gadepally)는 말한다. “모델을 저장하고 실행하는 것만으로도 더 많은 계산이 필요하다.”
AI 투자는 계속 가속화되고 있고 데이터센터의 성장은 멈출 기미가 없다. 2025년 1월, 도널드 트럼프 미국 대통령은 취임 직후 5,000억 달러 규모의 ‘프로젝트 스타게이트(Project Stargate)’를 발표했다. 이는 OpenAI, 소프트뱅크, 오라클 등이 후원하며, 50만 평방피트에 달하는 ‘거대한’ 데이터센터를 건설하는 계획이다. 이 기업들은 마이크로소프트, 구글, 메타, 아마존처럼 인프라의 대부분을 구축하는 지배적 기업 집단으로, ‘하이퍼스케일러(hyperscaler)’라 불린다.
메디나는 AI 특화 데이터센터의 성장이 실제보다 과장되었을 수 있다고 지적한다. “하이퍼스케일러, 대규모 데이터센터, AI 데이터센터라는 용어는 자주 혼동되지만, 대부분은 사실 클라우드를 위한 것이고, 즉 저장과 데이터 처리 같은 서비스를 위한 것”이라고 설명한다. 또 많은 논의가 이뤄지고 있지만, 실제 데이터센터가 처리하는 AI 관련 작업은 극히 일부에 불과하다고 한다.
AI의 급속한 발전은 데이터센터의 ‘대규모’ 기준마저 바꿔버렸다. 과거에는 전력 용량 4MW만 되어도 ‘하이퍼스케일’이라 불렸지만, 현재는 50MW~100MW가 최소 기준이 되었다고 메디나는 말한다. 이는 AI 수요가 기존 기준을 훨씬 뛰어넘고 있음을 보여준다.
* 출처=https://japan.zdnet.com › CIO

'AI(인공지능)' 카테고리의 다른 글
| AI의 ‘새로운 기계학습’에 양자컴퓨터 활용이 기대된다 (1) | 2026.01.07 |
|---|---|
| AI는 얼마나 전력을 소비하고 있는가 (3/3) (1) | 2025.12.31 |
| AI는 얼마나 전력을 소비하고 있는가. (1/3) (0) | 2025.12.29 |
| AI는 사회의 무엇을 바꾸어 놓을 것인가? (0) | 2025.12.23 |
| AI가 본격적으로 활용되면 11.7%의 일자리가 사라진다. (0) | 2025.12.18 |