막강한 영향력을 지닌 AI의 혁신 기술
- Rick Laezman
- 6월 20일
- 6분 분량
최종 수정일: 9월 8일
AI가 환경을 해치지 않고 세상을 바꿀 수 있을까?
AI가 전 세계를 강타하면서 그 엄청난 전력 수요와 생산 과정에서 발생하는 열을 식히기 위한 담수의 필요성이 끝없이 이어져 큰 논란을 일으키고 있다. 더욱이 AI 프로덕션이 노후화된 전력망 인프라에 가하는 압력과 이로 인한 탄소 배출량 증가에 대해 전문가들은 우려하고 있다.
이러한 최신 형태의 '슈퍼컴퓨팅'은 사회를 변화시킬 잠재력을 가지고 있으며, 이미 여러 산업 분야에서 광범위하게 도입되고 있다. 시장조사 기관인 맥킨지 & 컴퍼니가 실시한 설문조사에 따르면, 전 세계 기업의 70% 이상이 2024년에 최소 한 가지 이상의 기능에 AI를 활용하고 있다고 답했다.
AI는 일반적인 컴퓨팅과는 다르다. 인간의 지능을 모방한 디지털 처리 방식을 말한다. AI는 언어 학습과 이미지 인식을 할 뿐 아니라, 심지어 사람처럼 문제 해결과 의사 결정까지 수행한다. AI의 일반적인 형태로는 자율주행 자동차, 알렉사(Alexa)와 같은 가상비서, 챗GPT와 같은 챗봇(Chatbot : 채팅 프로그램에서 사용자의 메시지에 응답하는 캐릭터)이 있다.
안타깝게도, 더 똑똑하고 빠른 컴퓨팅에는 단점이 있다. AI의 엄청난 연산 능력은 전기와 물을 포함해 많은 양의 자원을 필요로 한다. 이러한 자원의 소비와 그로 인해 발생하는 폐기물은 이 신기술의 발전과 활용에 고유한 과제를 제기한다.

AI 컴퓨팅 제공 기업들은 이 문제를 해결하기 위한 조치를 취하고 있다. 이를 통해 전 세계는 광범위한 환경 피해를 겪지 않으면서도, AI의 폭넓은 도입으로 인한 혜택을 누릴 수 있도록 노력하고 있다.
AI는 왜 그렇게 탐욕스러울까?
AI가 엄청난 에너지를 소비하고 환경에 큰 위험을 초래하는 데에는 여러 가지 이유가 있고, 그 이유는 사용 단계에 따라 다르다.
첫째, AI 모델은 요구되는 작업을 수행하기 전에 훈련되어야 한다. AI 모델에 패턴과 쿼리(query)를 인식하도록 학습시키려면 막대한 양의 데이터를 제공해야 한다. 이 또한 엄청난 양의 에너지를 소모한다.
AI는 프로그램이 훈련된 후에도 에너지 소모를 멈추지 않는다. AI의 두 번째 단계는 서비스 구현, 즉 쿼리에 응답하고 다른 종류의 결과를 제공하는 작업이다. 이는 또한 막대한 양의 컴퓨팅 파워를 소모한다.
에너지 사용량을 좀 더 자세히 살펴보려면 일반적인 구글 검색에 얼마나 많은 에너지가 소비되는지 생각해 보라. 국제에너지기구(IEA)의 보고서에 따르면, 일반적인 구글 검색에는 약 0.3Wh(와트시)의 전력이 필요할 수 있다. 이에 비해 오픈AI의 챗GPT는 요청당 약 2.9Wh를 사용한다. 이는 거의 10배 가까이 증가한 수준이다.
거시적인 측면에서는 이러한 차이가 더욱 두드러진다. 국제에너지기구(IEA)는 매일 90억 건의 검색을 고려할 때 AI가 매년 거의 10TWh(테라와트시)의 추가 전력을 필요로 한다고 지적한다.
에너지 소모가 많은 하드웨어
AI의 에너지 소비량은 하드웨어에서도 찾을 수 있다. AI의 방대한 컴퓨팅 작업은 전력 소모가 많은 특수 그래픽처리장치(GPU)와 텐서처리장치(TPU)를 사용해야만 수행할 수 있다.

기존 컴퓨터는 중앙처리장치(CPU)를 사용하는데, 이는 AI 작업에는 충분히 강력하지 않다. GPU와 TPU는 훨씬 더 강력하여 이 작업에 적합하다. 하지만 이들은 성능이 떨어지는 CPU보다 훨씬 더 많은 에너지를 소모한다. 시장 조사회사 뉴마크(Newmark)는 2023년 연구에서 GPU가 "기존 CPU보다 최대 15배의 에너지를 필요로 한다"고 지적했다.
게다가 이러한 AI 지원 컴퓨터는 홈 오피스에서 조용히 돌아가는 단독 데스크톱이 아니다. 오히려 하드웨어로 가득 찬 거대한 데이터센터에 위치한다. 예를 들어 약 37만㎡(제곱미터) 규모의 하이퍼스케일 데이터센터는 축구장 60면의 크기에 해당한다. 이러한 데이터센터는 최근 몇 년 동안 인터넷과 클라우드 컴퓨팅의 인기가 높아지면서 이미 확장되어 왔다. AI는 이러한 성장을 더욱 가속화할 것이다.
시장조사 기관인 골드만삭스 리서치는 데이터센터의 글로벌 전력 수요가 2023년 대비 2027년 50%, 2030년 말까지 최대 165% 증가할 것으로 전망했다.
증가된 수요에 따른 자원 리소스 사용량을 고려하면 이 통계는 더욱 중요해진다.
예를 들어, 전력 수요 증가에는 발전량 증가가 따른다. 공공 서비스 제공 업체와 송전망은 데이터센터와 AI의 증가하는 수요를 충족하고, 다른 고객 및 기타 용도의 기존 수요와도 균형을 맞춰야 하는 과제에 직면하게 될 것이다. 노후화한 인프라, 추가되는 새로운 재생 에너지원, 그리고 기후 변화에 의한 부담으로 이미 어려움을 겪고 있는 전력망 공급 시스템은 AI의 요구로 더욱 큰 부담을 지게 될 것이다.
IEA는 전 세계 데이터센터의 전력 수요가 5년 후 두 배 이상 증가하여 2030년에는 약 945TWh에 이를 것으로 전망한다. AI는 이러한 수요 증가의 가장 중요한 원동력이 될 것이며, AI에 최적화된 데이터센터의 전력 수요는 2030년까지 4배 이상 늘어날 것으로 예상된다. IEA는 945TWh가 현재 일본 전체의 연간 전력 소비량보다 약간 많다고 지적한다.
AI의 발자국
데이터센터와 AI의 성장을 수용하기 위한 추가 에너지 생산은 에너지 그리드를 넘어서는 과제를 안고 있다. 에너지 산업이 화석연료에서 완전히 벗어나려면 아직 갈 길이 멀다. 따라서 에너지 생산량이 크게 늘어나면 탄소 배출량도 크게 증가한다.
예를 들어, 온라인 호스팅 플랫폼 노운호스트(KnownHost)의 최근 연구에 따르면 월 1억6400만 명 이상의 사용자를 보유한 챗GPT는 매달 26만930kg 이상의 이산화탄소를 배출한다. 이는 뉴욕과 런던을 오가는 260편의 대륙횡단 항공편에서 발생하는 배출량과 같다.
마지막으로, AI의 환경 발자국은 덜 명확한 또 다른 방식으로 설명할 수 있다. 에너지를 많이 소비하는 하이퍼 프로세서 랙들로 가득 찬 데이터센터는 엄청난 양의 열을 발생시킨다. 이러한 장치가 제대로 작동하려면 방대한 양의 냉각수도 필요하다.
데이터센터에서 사용되는 물은 냉각탑과 냉각기, 열교환기, 응축기 등 다양한 장치를 통해 냉각에 사용된다. 이는 시설의 적절한 환기와 그곳에 호스팅된 컴퓨터의 작동을 보장하는 필수적인 과정이다.
데이터센터에서 사용되는 물의 양은 상당히 다양할 수 있다. 디지털 산업 분석 회사인 디지털 인프라(Dgtl Infra)에 따르면, 구글의 하이퍼 스케일 데이터센터와 같은 대형 시설은 1년 동안 하루 평균 55만 갤런(210만 리터)의 물을 사용한다. 이는 연간 약 2억 갤런(7억6000만 리터)에 해당한다.
반면, 같은 자료에 따르면 북부 버지니아 데이터센터 시장의 일부인 프린스 윌리엄 카운티의 소규모 데이터센터는 하루 평균 약 1만8000갤런(6만8100리터), 연간 657만 갤런(2490만 리터)의 물을 사용한다..
데이터센터의 규모와 상관없이 AI 수요를 충족하기 위해 데이터센터가 확장됨 따라 산업이 필요로 하는 추가적인 물 소비량은 이미 취약한 세계의 담수 자원에 더 큰 부담을 줄 것이다.
AI를 더욱 친환경적으로 만들기
전 세계적으로 AI 사용이 증가함에 따라 엄청난 자원 소비와 탄소 배출량이 발생하고 있는데, 그 영향을 완화하기 위해 무엇을 할 수 있을까?
유엔환경계획(UNEP)의 골레스탄 (샐리) 라드완 최고 디지털 책임자는 "AI가 환경에 미치는 영향에 대해서는 아직 모르는 부분이 많지만, 우리가 보유한 데이터 중 일부는 우려스럽다."라고 말한다. 그녀는 또한 "우리는 AI 기술을 대규모로 도입하기 전에 지구에 미치는 순효과가 긍정적인지 확인해야 한다."고 경고한다.
이러한 주의 경고가 계속되는 가운데, AI 제공 업체들은 어떻게 발자국을 줄이기 위한 조치를 취하고 있을까?

가장 명확한 해결책은 전반적으로 청정 에너지의 사용을 늘리고 에너지 그리드의 효율성을 높이는 것이다. 건물, 에너지, 공공 서비스 관리자는 AI를 활용하여 방대한 양의 데이터를 처리하고 발전과 송배전에 관한 의사 결정을 용이하게 할 수 있다. 마찬가지로, AI는 기상 패턴을 더 효과적으로 분석하는 데 사용될 수 있다.
AI 사용자는 사용 모델을 수정하여 과도한 데이터 소비와 그에 따른 전력 소비를 제한할 수도 있다.
AI 데이터센터 업계의 주요 기업들은 데이터센터 자체의 에너지 효율과 친환경성을 높여 AI로 인한 환경 피해를 최소화하기 위한 혁신적인 조치를 취하고 있다.
시장분석 기업인 데이터센터 프런티어는 많은 데이터센터 운영자들이 에너지 독립성과 유연성을 강조하는 ‘BYOP(Bring Your Own Power)’라는 접근 방식을 채택하고 있다고 지적한다. BYOP는 재생에너지 통합, 마이크로 그리드 및 기타 기술을 통해 자체적으로 전력을 관리하는 것을 의미한다.
예를 들어, 핀란드의 데이터센터 제공 업체들은 폐열을 자원으로 활용하여 지역 주민들의 주택난방에 기여하고 있다. 유럽의 AI 제공 업체인 네비우스(Nebius) 그룹은 핀란드 맨챌래에 있는 자사의 주력 데이터센터에 이 기술을 도입했다. 75 MW(메가와트) 규모의 이 시설에서는 GPU 더미에서 발생하는 폐열을 수도관으로 수집하여 지역 주거용 난방 시스템을 지원하는 시설로 전달한다. 그런 다음 그 열은 각 가정으로 전달된다.
핀란드 헬싱키 외곽 지역에도 비슷한 시설이 건설되고 있다. 이 시설은 화석연료 난방의 필요성을 줄여 국가의 탄소 감축 목표 달성에 이바지할 것으로 예상되지만, 그 기여도는 전체 목표의 1%로 상대적으로 미미하다.
AI와 재생에너지
북미 엑수스 재생에너지(Exus Renewables)의 짐 스펜서 최고경영자는 포브스 매거진 인터뷰에서 "재생에너지는 AI 데이터센터에 전력을 공급하는 데 필수적이다."라고 말했다. 그는 "미국에서 재생에너지와 유틸리티 규모의 배터리 저장장치 도입이 크게 증가함에 따라” 이미 미국 전력망이 수요 증가에 대처할 수 있도록 '더욱 강화'되었다고 언급했다.
많은 기업들이 이러한 노력을 기울이고 있다. 예를 들어, 지난 여름 기술 슈퍼파워기업인 구글은 재생에너지 공급 업체인 에너직스 재생에너지(Energix Renewables)와 계약을 체결하여 태양광 프로젝트에서 생산된 전기와 재생에너지 크레디트를 공급받았다.
올해 초 에너지 회사인 AES 코퍼레이션은 미국 중서부 지역에서 총 475 MW 규모의 태양광 프로젝트를 위해 기술 슈퍼파워 기업인 마이크로소프트와 3건의 계약을 체결했다고 발표했다.
다른 기업들은 경쟁사보다 훨씬 앞서 나가고 있다. 미국에서 시설을 운영하는 데이터센터 회사인 스위치(Switch)는 2016년부터 모든 데이터센터에 재생 가능 에너지를 공급해 왔다.

재생 에너지 발전은 배터리 에너지 저장 시스템(BESS)과 결합할 때 가장 효과적이다. 이미 여러 선도적인 기업이 데이터센터에서 BESS의 이점을 누리고 있다. 예를 들어, 메타(옛 페이스북)는 솔트리버(Salt River) 프로젝트, 외르스테드(Ørsted)와 제휴하여 일레븐 마일 솔라센터의 청정 에너지를 애리조나주 메사 데이터센터에 통합했다. 이 프로젝트는 300MW 규모의 태양광발전소와 4시간 사용 가능한 BESS를 결합한다.
AI의 잠재력과 과제
기술 분야의 수많은 새로운 혁신과 마찬가지로, AI는 큰 가능성을 가지고 있지만 동시에 상당한 과제를 안고 있다. AI는 사회와 컴퓨팅의 관계를 변화시킬 수 있는 막대한 잠재력을 가지고 있다. 반면, 점점 더 복잡해지는 환경에서 이미 골치 아픈 자원 관리 문제를 더욱 악화시킬 가능성도 있다.
AI는 사회가 이러한 문제를 해결하는 데 도움을 줄 수 있으며, AI 기업들은 AI 자체의 영향을 줄이기 위한 조치를 취할 수 있다. 이미 많은 기업들이 이러한 과제를 받아들이고 있다.
*릭 레즈먼은 미국 캘리포니아주 로스앤젤레스에서 프리랜서 작가로 활동하고 있다. 그는 에너지 효율과 혁신에 대한 열정을 가지고 있으며, 10년 이상 재생에너지와 기타 관련 주제를 다루어 왔다.

