AI가 남기는 물리적 발자국: 클라우드 너머의 현실
기술

AI가 남기는 물리적 발자국: 클라우드 너머의 현실

9분 소요

ChatGPT에 질문을 던지면, 답변은 마치 무게가 없는 것처럼 화면에 텍스트로 나타납니다. 하지만 이 매끄러운 상호작용 뒤에는 대부분의 사용자가 결코 보지 못하는 규모의 방대한 물리적 인프라가 자원을 소모하고 있습니다. 모든 AI 쿼리는 현실 세계에서 연쇄적인 결과를 촉발합니다. 창고 크기의 데이터 센터에서 윙윙거리는 서버, 수백만 갤런의 물을 소비하는 냉각 시스템, 먼 광산에서 추출한 희토류 광물로 제조된 특수 칩 등이 그것입니다. 우리가 무심코 언급하는 ‘클라우드’는 결코 비물질적인 존재가 아닙니다. 그것은 콘크리트와 구리, 그리고 기하급수적으로 증가하는 환경적 비용으로 지구에 단단히 고정되어 있습니다.


에너지 방정식

AI 데이터 센터의 전력 수요는 예상치 못한 기하급수적인 성장을 보여줍니다. 2035년까지 AI 인프라는 123기가와트의 전력을 필요로 할 것이며, 이는 약 1억 가구에 전력을 공급할 수 있는 양입니다.

When developing our very first Mayosis theme (for selling digital products through WordPress) I captured some great looking pictures on my iMac. The 50mm Prime lens was best for this particular shot with it's beautiful depth of field rendering. Later, I added some color gradient overlay and adjusted the look and feel in Lightroom and Photoshop.Photo by Shahadat Rahman on Unsplash

2024년의 4기가와트에서 불과 10여 년 만에 30배나 증가한 수치입니다.[2]

이러한 급증은 추상적인 이야기가 아닙니다. 미국 산업 전반에 AI가 광범위하게 통합되는 것만으로도 연간 약 896,000톤의 CO₂ 배출량이 추가될 수 있습니다.[1] 이는 매년 약 20만 대의 가솔린 자동차가 도로에 추가되는 것과 맞먹는 수준입니다.

하지만 기존의 사고방식은 여기서 핵심을 놓치고 있습니다. 대부분의 논의는 대규모 모델 훈련에 초점을 맞추지만, 이제는 배포된 AI에서 쿼리를 실행하는 실제 프로세스인 ‘추론’이 에너지 소비의 대부분을 차지합니다. 수백만 명의 사용자가 동시에 AI 비서에게 도움을 요청하고, 이미지를 생성하거나 코드 제안을 요청할 때마다, 그들은 집단적으로 작은 국가와 맞먹는 전력을 소비하고 있는 것입니다.

하드웨어 자체도 이러한 엄청난 수요를 반영합니다. NVIDIA의 탄소 배출량은 2024년에만 87% 급증했는데, 이는 더 많은 에너지와 희토류를 필요로 하는 점점 더 복잡한 AI GPU 생산에 기인합니다.[6] 이것은 점진적인 개선이 아니라, 효율성보다 성능을 우선시하는 컴퓨팅 아키텍처의 근본적인 변화입니다.


물: 숨겨진 비용

에너지 소비가 헤드라인을 장식하는 동안, 물 사용량은 그림자 속에서 움직이지만 그 영향은 더 큰 논란을 불러일으킬 수 있습니다. 하이퍼스케일 데이터 센터는 증발식 냉각을 위해 매일 100만에서 500만 갤런의 물을 소비할 수 있습니다.[3]

Photo by Timeo BuehrerPhoto by Timeo Buehrer on Unsplash

이는 작은 도시의 물 수요량과 맞먹는 수준이며, 이러한 일이 수백 곳에서 동시에 일어나고 있습니다.

제조 측면은 또 다른 문제를 더합니다. AMD의 MI300X와 같은 고급 AI 칩을 생산하는 데는 칩 하나당 360갤런 이상의 물이 필요합니다.[5] 이를 수백만 개 단위로 곱하면 그 수치는 어마어마해집니다. 이것은 단순히 양의 문제가 아니라, 유한한 자원을 둘러싼 경쟁의 문제입니다.

일부 기업들은 창의적으로 대응하고 있습니다. AWS는 120개 이상의 미국 데이터 센터로 재활용수 사용을 확대하여 연간 약 5억 3천만 갤런의 식수를 절약하고 있습니다.[4] Meta의 시설은 업계 평균보다 훨씬 우수한 0.18의 물 사용 효율성(WUE)을 달성했습니다.[7] 이러한 개선은 중요하지만, 효율성 증가가 상쇄할 수 있는 것보다 수요가 더 빠르게 증가하고 있다는 점이 문제입니다.

지리적 차원은 모든 것을 복잡하게 만듭니다. 데이터 센터는 종종 전기 요금은 저렴하지만 수자원이 부족한 지역에 위치합니다. 기후 변화가 애리조나나 텍사스와 같은 지역의 가뭄을 심화시키면서, 질문은 ‘이 시설들을 냉각시킬 수 있는가?‘에서 ‘그래야만 하는가?‘로 바뀌고 있습니다.


물질적 현실

AI의 물리적 발자국은 지구의 지각 깊숙이 뻗어 있습니다. 머신러닝을 구동하는 특수 칩에는 코발트, 리튬, 탄탈럼 및 수십 가지 다른 희토류 원소가 필요합니다.

chip, chipset, AI, artificial intelligence, microchip, technology, innovation, electronics, computer hardware, circuit board, integrated circuit, AI chip, machine learning, neural network, robotics, automation, computing, futuristic, tech, gadget, device, component, semiconductor, electronics component, digital, futuristic tech, AI technology, intelligent system, motherboard, computer, intel, AMD, Ryzen, Core, Apple M1, Apple M2, CPU, processor, computing platform, hardware component, tech innovation, IA, inteligencia artificial, microchip, tecnología, innovación, electrónicaPhoto by BoliviaInteligente on Unsplash

이러한 물질들은 대륙을 횡단하는 공급망을 통해 공급되며, 종종 상당한 환경적, 사회적 비용을 수반하는 채굴 작업을 포함합니다.

인프라 자체도 지형을 바꾸고 있습니다. 하이퍼스케일 데이터 센터는 현재 전 세계적으로 1,000에이커 이상의 부지를 차지하고 있으며, AI 전용 시설은 연간 30%씩 성장하고 있습니다. 이것들은 단순한 건물이 아니라, 도로, 변전소, 그리고 지역 생태계를 영구적으로 변화시키는 냉각 인프라를 필요로 하는 산업 단지입니다.

그리고 폐기물 문제가 있습니다. AI 하드웨어는 기존 서버보다 더 빨리 구식이 됩니다. 일반적으로 표준 장비의 경우 5-7년인 반면, AI 하드웨어는 2-3년 내에 폐기됩니다. AI 혁신의 빠른 속도는 어제의 최첨단 칩이 내일의 전자 폐기물이 된다는 것을 의미합니다. 무기한 업데이트할 수 있는 소프트웨어와 달리, 물리적 하드웨어는 명확한 유효 기간이 있습니다.

하지만 일부 계획들은 대안적인 미래를 암시합니다. 구글의 ‘프로젝트 선캐처(Project Suncatcher)‘는 우주에 태양광 발전 데이터 센터를 구축하여 AI 컴퓨팅을 지구 밖으로 완전히 이전하는 것을 목표로 합니다.[8] 공상 과학처럼 들리지만, 이는 지구 기반 솔루션이 무한정 확장될 수 없다는 인식이 커지고 있음을 반영합니다.


진보의 역설

여기 불편한 진실이 있습니다. AI는 기후 변화 해결을 돕겠다고 약속하는 동시에, 자원 소비를 가속화하고 있습니다. 머신러닝은 에너지 그리드를 최적화하고, 기상 패턴을 예측하며, 더 효율적인 재료를 설계합니다.

Photo by Zhang livenPhoto by Zhang liven on Unsplash

하지만 이러한 이점들은 동일한 척도로 정당화하기 어려운 환경적 비용과 함께 제공됩니다.

업계의 반응은 엇갈렸습니다. 효율성 개선은 실재합니다. Meta의 전력 사용 효율성(PUE) 1.08은 진정한 진전을 나타냅니다.[7] 하지만 효율성 증가는 종종 소비 감소보다는 사용 확대를 가능하게 합니다. 이는 제본스의 역설이 실시간으로 펼쳐지는 것과 같습니다. AI 실행 비용을 저렴하게 만들면, 사람들은 더 많은 AI를 실행합니다.

대부분의 대화에서 빠진 것은 필요성에 대한 질문입니다. 모든 애플리케이션에 최첨단 AI가 필요한 것은 아닙니다. 마케팅 이메일을 작성하는 데 생성형 모델이 필요할까요? 모든 스마트폰 기능에 온디바이스 머신러닝이 탑재되어야 할까요? 이것들은 기술적인 질문이 아니라, 우리가 편의를 위해 무엇을 희생할 의향이 있는지에 대한 가치 판단의 문제입니다.

앞으로 나아갈 길은 불편한 절충안을 포함할 가능성이 높습니다. 아마도 일부 AI 애플리케이션은 환경 비용을 정당화할 수 있지만 다른 것들은 그렇지 않을 것입니다. 어쩌면 실제 자원 소비를 반영하는 사용량 기반 요금제가 필요할지도 모릅니다. 어쩌면 해답은 우리가 아직 발명하지 않은 기술에 있을 수도 있습니다. 확실한 것은 클라우드가 무게가 없다고 가장하는 것은 더 이상 통하지 않는다는 것입니다.

다음에 AI와 상호작용할 때 기억하십시오. 누군가, 어딘가에서 그 편리함에 대한 환경적 비용을 지불하고 있습니다. 데이터 센터는 당신의 매끄러운 경험을 가능하게 하기 위해 전력을 소비하고, 물을 사용하며, 하드웨어를 순환시키고 있습니다. 이것은 AI에 대한 반론이 아니라, 그 진정한 대가에 대한 정직함을 요구하는 외침입니다.

기술 산업은 수십 년 동안 디지털의 무중력 신화를 키워왔지만, AI는 그에 대한 반성을 강요하고 있습니다. 모든 쿼리에는 발자국이 있습니다. 모든 모델에는 물질적 요구 사항이 있습니다. 모든 혁신은 어딘가에서 오고 누군가에게 영향을 미치는 자원을 요구합니다.

문제는 AI의 이점이 비용을 능가하는지가 아닙니다. 그것은 너무 단순한 질문입니다. 진짜 질문은 이것입니다. 어떤 AI 애플리케이션이 그 환경적 영향을 정당화하며, 그것을 누가 결정하는가? 우리가 이 대화를 정직하게 나눌 의향이 생기기 전까지, 우리는 그저 데이터 센터 인근 지역 사회, 광산 지역의 노동자들, 그리고 우리의 선택을 물려받을 미래 세대에게 그 결과를 떠넘기고 있을 뿐입니다. 클라우드는 무게가 없는 존재가 아닙니다. 결코 그런 적이 없었습니다.


🔖

[1] : Esgnews

[2] : Planetdetroit

[3] : Truthdig

[4] : Markets

[5] : Esgnews

[6] : Carboncredits

[7] : Discoveryalert

[8] : Ericsson