상상해 보세요. ChatGPT에게 이메일 초안 작성, 저녁 메뉴 아이디어, 혹은 복잡한 개념 설명을 부탁합니다. 몇 초 만에 답변을 얻을 수 있죠. 하지만 우리가 보지 못하는 것이 있습니다. 바로 그 대화를 가능하게 하기 위해 대기 중으로 증발해 버린 0.5리터의 물입니다 [Careeraheadonline]. 작은 생수 한 병을 마시는 것과 거의 같은 양이지만, 아무도 그 물을 마실 수는 없습니다.
생성형 AI의 인기가 폭발적으로 증가하면서, ChatGPT 하나만으로도 매일 최대 2억 건의 요청을 처리하고 있습니다 [Tynmagazine]. 이 과정에서 보이지 않는 환경적 비용이 우리의 가장 소중한 자원 중 하나를 조용히 고갈시키고 있습니다. AI의 급격한 확장은 전례 없는 물 부족 문제를 야기합니다. 데이터 센터는 AI 어시스턴트, 이미지 생성기, 언어 모델을 구동하는 방대한 컴퓨팅 인프라를 냉각시키기 위해 매년 수십억 갤런의 물을 소비합니다.
AI의 숨겨진 물 발자국
AI의 환경 영향에 대해 이야기할 때 보통 탄소 배출이 주된 논의 대상이 됩니다. 하지만 물 소비량은 그에 못지않게 중요한 이야기를 들려줍니다.
우리 대부분이 결코 볼 수 없는, 거대하고 윙윙거리는 데이터 센터에서 벌어지는 이야기입니다.
GPT-3와 같은 대규모 언어 모델을 훈련하는 데 약 70만 리터의 깨끗한 담수가 소비되었습니다. 이는 BMW 자동차 370대를 생산하거나 올림픽 규격 수영장의 4분의 1 이상을 채울 수 있는 양입니다. 그리고 훈련은 시작에 불과합니다.
실제 물 소비는 ‘추론’ 과정, 즉 매일 수백만 건의 사용자 쿼리에 응답하는 지속적인 과정에서 발생합니다. 마이크로소프트의 전 세계 물 소비량은 2021년에서 2022년 사이에 34% 증가했는데, 이는 주로 AI 확장 때문으로 분석됩니다. 2030년까지 이 회사의 물 사용량은 2020년 수준에 비해 두 배 이상 증가할 것으로 예상됩니다 [Business20channel].
중간 규모의 데이터 센터는 냉각 목적으로 연간 약 1억 1천만 갤런의 물을 소비할 수 있습니다. 이는 약 1,000가구의 연간 물 사용량과 맞먹는 양입니다 [Jasonhowell]. 이를 업계 전체로 확장하면, 전 세계 AI의 물 발자국은 연간 3,125억에서 7,646억 리터에 달할 것으로 추정됩니다 [Iesve].
AI가 막대한 양의 물을 필요로 하는 이유
AI가 왜 이렇게 많은 물을 필요로 하는지 이해하려면 데이터 센터 내부를 잠시 들여다봐야 합니다.
엔비디아의 H100 GPU와 같은 수천 개의 특수 칩이 창고 크기의 시설에 빽빽이 들어차 24시간 내내 가동되며, 각 칩은 최대 700와트의 열을 발생시킨다고 상상해 보세요. 지속적인 냉각이 없다면 이 시스템들은 몇 분 안에 과열될 것입니다.
대부분의 데이터 센터는 증발식 냉각 시스템에 의존하는데, 이는 땀이 몸을 식히는 것과 비슷한 원리로 작동합니다. 물이 열을 흡수하여 증발하면서 열에너지를 외부로 방출하는 방식입니다. 효과적이지만, 물을 소모하는 방식이기도 합니다. 사용된 물은 시스템으로 다시 돌아오지 않습니다. 냉각탑이 있는 수랭식 냉각기는 연간 약 2억 7천만 리터의 물을 필요로 할 수 있으며, 이는 약 2,000가구의 소비량과 맞먹습니다 [Loadsyn].
여기서 이야기는 우려스러운 방향으로 전개됩니다. 2022년 이후 건설된 데이터 센터의 3분의 2가 물 부족 지역에 위치해 있습니다 [Projectcensored]. 조지아주에 있는 메타 데이터 센터 한 곳은 해당 카운티 전체 물 공급량의 10%를 사용합니다. 심각한 물 부족에 직면한 애리조나에서는 여러 AI 데이터 센터가 제한된 담수 자원을 두고 주민들과 경쟁하고 있습니다.
컴퓨팅의 물리적 특성상 어느 정도의 물 사용은 불가피합니다. 하지만 그 사용이 지속 가능해질지, 아니면 파괴적인 결과를 낳을지는 부지 선정과 냉각 기술에 달려 있습니다.
점점 심각해지는 규모의 문제
현재의 소비량이 우려스럽다면, 미래 예측은 더욱 심각합니다. AI 모델은 세대를 거듭할수록 기하급수적으로 커지고 더 많은 자원을 소모합니다.
GPT-5는 1,000토큰 응답당 18.35Wh를 소비할 것으로 예상되는데, 이는 GPT-4o의 쿼리당 소비량보다 8.6배 증가한 수치입니다 [Tynmagazine]. 모델의 성능이 향상될수록 더 많은 자원을 요구하게 됩니다. 미국의 AI 서버만으로도 2030년까지 7억 3,100만에서 11억 2,500만 세제곱미터의 물을 소비할 것으로 전망됩니다 [Iesve].
이는 단지 더 큰 모델의 문제가 아닙니다. 더 광범위한 도입의 문제입니다. AI가 검색 엔진, 생산성 도구, 스마트폰 및 수많은 다른 애플리케이션에 내장되면서 누적 수요는 배가됩니다. 수억 명이 아닌 수십억 명의 사람들이 매일 AI 기반 기능을 사용하게 되면 어떻게 될까요?
대두되는 해결책
상황이 완전히 암울한 것만은 아닙니다.
기술 업계는 대안에 투자하고 있으며, 그 진전은 매우 다양합니다.
마이크로소프트는 2030년까지 ‘워터 포지티브(water positive)‘를 달성하겠다고 약속하며, 물을 증발시키는 대신 재활용하는 폐쇄 루프 냉각 시스템에 투자하고 있습니다. 이 시스템은 기존 증발식 냉각 방식에 비해 물 소비를 최대 95%까지 줄일 수 있습니다. 구글은 해안 시설에서 해수 냉각 및 첨단 공랭식 시스템을 실험하여 일부 지역에서는 담수 수요를 완전히 없애고 있습니다.
소프트웨어 혁신은 또 다른 해결책을 제시합니다. 가지치기(pruning)나 양자화(quantization)와 같은 모델 최적화 기술은 의미 있는 성능 저하 없이 계산 요구량을 50~90%까지 줄일 수 있습니다. 미스트랄 7B와 같은 더 작고 효율적인 모델은 성능이 항상 거대한 규모를 요구하는 것은 아님을 보여줍니다.
휴대폰이나 노트북에서 직접 모델을 실행하는 온디바이스 AI 처리는 많은 애플리케이션에서 데이터 센터의 물 사용을 완전히 제거합니다. 최근 애플의 온디바이스 AI 기능 강화는 이러한 추세를 잘 보여줍니다.
개인의 선택도 중요하지만, 그 영향은 미미합니다. 쿼리를 일괄 처리하고, 선택지가 있을 때 효율적인 모델을 선택하며, 강력한 환경 공약을 내세운 제공업체를 지원하는 것 모두 업계의 인센티브를 바꾸는 데 기여합니다.
생성형 AI의 물 발자국은 상당하지만 극복할 수 없는 것은 아닙니다. 우리가 글을 쓰고, 창작하고, 문제를 해결하는 데 도움을 주는 기술이 지구의 담수 자원을 고갈시킬 필요는 없습니다. 단, 효율성이 사후 고려 사항이 아닌 설계 우선순위가 될 때만 가능합니다.
해결책은 존재합니다. 폐쇄 루프 냉각, 전략적인 시설 배치, 최적화된 모델, 그리고 온디바이스 처리가 그것입니다. 지금 필요한 것은 AI 제공업체들의 물 사용량에 대한 투명성과 지속 가능한 인프라에 대한 꾸준한 투자입니다. AI가 일상생활에 스며들면서, 모든 쿼리 뒤에 숨겨진 보이지 않는 물을 포함한 진정한 비용을 이해하는 것은 우리가 만들어갈 미래에 대해 정보에 입각한 선택을 하는 데 도움이 됩니다.
Photo by
Photo by
Photo by
Photo by