AI 데이터센터 늘면서 물·전력 사용 급증
- hjifep
- 4월 23일
- 2분 분량
ㅡ 환경 발자국의 규모는 어느 정도일까?

챗봇에서 첨단 과학 모델링에 이르기까지 다양한 인공지능(AI) 시스템은 데이터센터라고 불리는 특수 컴퓨터로 가득 찬 거대한 건물 안에서 운영된다. 이러한 시설은 데이터를 저장하고, 인터넷 서비스를 운영하며, 강력한 AI 모델을 훈련시킨다. 디지털 경제가 확장됨에 따라 이를 뒷받침하는 물리적 인프라도 함께 확장되고 있다.
하지만 AI 혁명은 점점 커지는 환경 발자국을 동반한다. 고성능 컴퓨터는 작동 시 엄청난 열을 발생시키기 때문에, 데이터센터는 서버에 공급하는 막대한 양의 전력과 서버를 냉각하기 위한 물을 필요로 한다. 최근 연구에 따르면 AI가 더욱 널리 보급됨에 따라 이러한 시설의 에너지 및 물 수요가 급격히 증가하고 있다.
다음은 AI 및 글로벌 데이터센터 산업과 관련된 환경적 영향의 규모를 설명하는 데 도움이 되는 주요 데이터이다.
주요 데이터
2024년 미국의 데이터센터는 약 183테라와트시(TWh)의 전력을 소비했으며, 이는 미국 전체 전력 사용량의 4% 이상을 차지한다. (1테라와트시는 1조 와트시에 해당하며, 이는 수만 가구가 1년 동안 사용할 수 있는 에너지량에 해당한다.)
분석가들은 AI 워크로드가 확대됨에 따라 2030년까지 미국 데이터센터의 전력 소비량이 현재 수준의 두 배 이상인 426TWh까지 증가할 것으로 추정한다.
전 세계적으로 데이터센터는 이미 연간 약 360TWh의 전력을 소비하고 있으며, 이는 일부 중견 국가의 총 전력 소비량에 필적하는 수준이다.
미래 성장에 대한 연구 모델링에 따르면, 미국 내 AI 서버 확대로 인해 2024년부터 2030년 사이 AI 인프라의 성장 속도에 따라 연간 2,400만~4,400만 톤의 이산화탄소가 배출될 수 있는 것으로 나타났다.
서버 냉각에는 특히 증발식 냉각탑을 사용하는 시설에서 대량의 물이 필요하다. 추정치에 따르면 전 세계 데이터센터는 전력 소비와 더불어 1년에 약 1,400억 리터의 물을 사용한 것으로 나타났다.
미국 데이터센터의 물 사용량은 2014년 212억 리터(56억 갤런)에서 2023년 660억 리터(174.6억 갤런)로 증가했다. 이러한 급격한 증가는 지난 10년간 클라우드 컴퓨팅과 AI 인프라의 확장을 반영한다.
단일 대형 데이터센터의 경우 하루에 약 1100여톤(30만 갤런)의 물이 필요할 수 있다
기후와 냉각 기술에 따라, 일부 시설은 24시간 가동되는 서버에서 발생하는 열을 제거하기 위해 매일 수십만~수백만 톤의 물을 소비하기도 한다.
하이퍼스케일 데이터센터는 하루에 최대 1900만톤(500만 갤런)의 물을 사용할 수 있다
주요 클라우드 제공업체들이 주로 사용하는 초대형 시설의 경우 3만~5만 명의 일일 소비량에 필적하는 양의 물이 필요할 수 있다.
중형 데이터센터는 연간 약 4억1800만톤(1억1,000만 갤런)의 물을 사용할 수 있다
일반적인 시설의 냉각 인프라는 약 1,000가구가 1년 동안 사용하는 물에 해당하는 양을 소비할 수 있다.
전 세계 AI 운영의 탄소 발자국은 대도시 수준에 달할 수 있다
추정에 따르면 AI 시스템 및 관련 인프라에서 발생하는 총 배출량은 뉴욕시와 같은 대도시의 배출량에 근접할 수 있으며, 이는 이 산업이 환경에 미치는 영향의 규모를 여실히 보여준다.
이것이 중요한 이유
AI의 성장은 디지털 시대의 역설을 드러낸다. 가상 세상가 진전될수록 더 많은 물리적 인프라가 필요해지는 것이다. 대규모 컴퓨팅 시설은 이를 지원하기 위해 필요한 전력망, 상수도, 토지와 함께 세계 경제의 핵심이 되고 있다.
정책 입안자, 연구자, 기술 기업들에게 주어진 과제는 차세대 AI 인프라를 구축할 때 에너지 효율성, 재생에너지, 그리고 물 절약형 냉각기술을 고려하도록 하는 것이다. AI가 사회의 거의 모든 분야로 확대됨에 따라 AI가 미치는 환경 영향은 디지털 시대의 가장 중요한 지속 가능성의 과제 가운데 하나가 될 수 있다.
출처:



댓글