- Published on
AWS·구글·MS 클라우드 동시 요금 인상 — AI 투자비 430조, 청구서는 기업 몫
- Authors
- Name
AWS가 GPU 인스턴스 요금을 올린 건 올해 1월 4일 토요일이었다. 공지문 하나 조용히 올라오고, 인상 폭은 15%. 주말에 이걸 발견한 엔지니어링 팀장들이 적지 않았을 거다. 한 달 뒤 구글이 5월 1일부터 데이터 전송 요금을 최대 2배 올린다고 발표했다. 마이크로소프트는 지난해 10% 올린 데 이어 올해 또 5%를 얹었다. 클라우드 빅3가 한 해 안에 동시다발로 요금을 올리는 건 업계에서도 이례적이라는 말이 나온다.
이게 우연이 아니라는 건 숫자를 보면 바로 나온다.
AI 투자 430조, 누가 내는가
알파벳(구글 모기업)이 올해 AI와 데이터센터에 투자하겠다고 발표한 금액이 750억 달러(약 107조 원)다. 마이크로소프트는 800억 달러(약 114조 원), 아마존(AWS)은 1,000억 달러(약 143조 원). 셋을 합치면 2023년 연간 투자 총액보다 세 배 많은 규모다. 대략 430조 원이다.
이 돈이 전부 회사 내부 자금에서 나올 수는 없다. 주주한테 보여줄 수익이 있어야 하고, 그 수익의 원천은 결국 기업 고객이다. AI 인프라에 쏟아붓고 서비스 요금을 올려 회수하는 구조다. 솔직히 이건 꽤 영리한 방식이다. "AI 기능이 더 좋아졌잖아요"라는 말과 함께 청구서가 두꺼워지면, 고객도 대놓고 반박하기가 어렵다.
구글 클라우드 CEO 토마스 쿠리안은 최근 "앞으로 1~2년 안에 AI가 클라우드 판을 재편할 것이고, 경제성이 생존을 좌우할 것"이라고 했다. 솔직한 발언이다. 그 "경제성" 안에 요금 인상이 포함돼 있다.

AWS: 조용한 토요일 인상
AWS가 EC2 Capacity Block 요금을 올린 건 아무도 눈치채지 못하게 토요일에 처리했다. 인상 폭은 15%. 가장 많이 쓰이는 p5e.48xlarge 인스턴스 기준으로 시간당 34.61달러에서 39.80달러가 됐다. 미국 서부 캘리포니아 리전은 더 올라서 43.26달러에서 49.75달러다. 서울 리전 포함 전 리전에 동일하게 적용됐다.
P5en, P5e, P5, P4d 같은 NVIDIA GPU 인스턴스 전반에 걸친 인상이다. AWS 자체 칩인 Trainium 기반 Trn2, Trn1 인스턴스도 포함됐다. ML 워크로드를 돌리는 기업이라면 이 인상을 피할 방법이 없다.
AWS는 "온디맨드(On-Demand) 가격은 인상하지 않는다"고 했다. 근데 현실은 좀 다르다. NVIDIA H200 온디맨드 인스턴스를 예약 없이 바로 쓸 수 있는 경우는 거의 없다. 올해 H200 주문량은 200만 개인데 실제 공급 가능한 재고는 70만 개 수준이라고 알려져 있다. AI 학습이나 대규모 추론 작업을 하는 기업들은 어쩔 수 없이 더 비싼 Capacity Block을 사전 예약해서 쓸 수밖에 없다. "온디맨드는 안 올렸다"는 말이 공허하게 들리는 이유다.
더 날카로운 부분은 가격 공지 방식이다. AWS는 주요 가격 변경을 보통 이메일로 사전 고지하는데, 이번엔 블로그에 조용히 올렸다. The Register가 이걸 처음 포착해 보도했고, 그다음에야 업계가 알게 됐다. 의도적인 저연출이었는지는 모르겠지만, 인상 방식 자체가 고객과의 신뢰 관계를 시험하는 것처럼 보인다.

구글: 5월 1일부터 데이터전송료 최대 2배
구글이 발표한 인상 항목 중 규모가 가장 크다. CDN Interconnect, Direct Peering, Carrier Peering 방식으로 데이터를 외부로 내보낼 때 붙는 전송 요금이다. 북미 기준 GB당 0.04달러에서 0.08달러로 정확히 2배가 됐다. 유럽은 0.05달러에서 0.08달러로 60%, 아시아는 0.06달러에서 0.085달러로 41.7% 올랐다.
구글 측은 "글로벌 인프라에 상당한 투자를 했고, 이번 조정은 네트워크 최적화를 위한 지속적인 노력을 반영한다"고 설명했다. 틀린 말이 아니다. 750억 달러를 투자하는 회사가 네트워크 최적화에 돈을 쓰는 건 맞다. 그런데 그 비용을 요금 인상으로 회수한다는 말이기도 하다. 선의의 투자가 고객에게 청구서로 바뀌는 과정이다.
Workspace 구독료도 올해 이미 인상됐다. 비즈니스 스타터가 월 6달러에서 7달러로(16%), 비즈니스 플러스는 18달러에서 22달러로(22%). 500명 규모 기업이 비즈니스 플러스를 쓰면 연간 인상분만 2,400만 원이 넘는다. 직원 한 명 인건비 수준이다. 기업 입장에서 이건 규모에 따라 수천만 원에서 수억 원 단위 비용 증가다.
마이크로소프트: 2년 연속, 그리고 또
MS는 더 꾸준하다. 2025년 초 Microsoft 365 기업용 요금을 10% 올렸고, 올해는 5% 추가했다. AI 기반 데이터 분석 서비스 Power BI PPU는 사용자당 월 20달러에서 24달러로 20% 올랐다.
MS의 논리는 명확하다. 코파일럿 기능을 제품에 내장하면서 "기능이 추가됐으니 가격도 오른다"는 것이다. 코파일럿이 실제로 생산성을 높여주는 기업이라면 납득할 수 있다. 문제는 코파일럿을 적극적으로 활용하는 기업이 아직 전체의 20~30%가 안 된다는 현실이다. 쓰지도 않는 AI 기능을 포함해 전 고객에게 일괄 청구하는 방식은 좀 일방적이다. 물론 MS가 그걸 모르지는 않을 것이다.
한 가지 더. MS는 최근 코파일럿 기능에 Anthropic의 클로드를 추가하며 GPT와 클로드를 동시에 돌리는 멀티모델 전략을 발표했다. 모델 하나 더 쓴다는 건 컴퓨팅 비용이 더 든다는 뜻이다. 그 비용이 결국 어디로 향하는지는 굳이 설명이 필요 없다.
국내 기업의 선택지
국내 클라우드 시장에서 AWS·MS·구글의 합산 점유율은 약 75%다. KT클라우드, NHN클라우드, 네이버클라우드 같은 국산 서비스가 있지만, 글로벌 호환성이나 서비스 안정성 면에서 중대형 기업 수요를 전면 소화하기엔 아직 한계가 있다는 게 현장 평가다.
환율이 문제를 배로 키운다. 달러 기준 요금이 15~100% 오르는데 원화 약세까지 겹치면, 국내 기업이 실제 체감하는 비용 인상은 수치보다 훨씬 크다. 1,400원대 환율이 고착화된 상황에서 달러 기반 클라우드 서비스를 쓰는 한국 기업은 이중 타격이다.
대응책이 없지는 않다. 트래픽 경로를 최적화해 데이터 전송량 자체를 줄이거나, 멀티클라우드 전략으로 협상 레버리지를 확보하거나, 온프레미스를 일부 병행해 클라우드 의존도를 낮추는 방식이다. 국산 클라우드를 보조로 활용해 특정 데이터 전송 비용을 줄이는 것도 방법이다. 그런데 이게 말처럼 쉬운 게 아니라는 건 IT 실무자라면 다 안다. 레거시 시스템이 AWS에 묶여 있으면 이전 비용이 인상분보다 클 수도 있다.

이게 끝이 아니다
2027년까지 GPU 공급은 빡빡하다. 빅테크의 AI 투자는 꺾일 기미가 없다. 구글은 올 1분기 클라우드 매출 성장률 12.3%를 발표하면서 투자 기조를 유지하겠다는 입장을 분명히 했다. 이 성장률을 지키면서 대규모 투자 비용을 소화하려면 요금 인상은 선택이 아니라 필연이다.
10년 넘게 블로그 하면서 이런 패턴은 처음 본다. 클라우드가 본격화된 2015년 전후에는 경쟁이 치열해 오히려 요금이 내려가던 시기였다. 지금은 방향이 반대다. AI 인프라 경쟁이 치열할수록 요금이 올라간다. 경쟁이 가격을 낮춘다는 교과서 명제가 틀린 게 아니라, 지금의 AI 인프라 경쟁은 규모 자체가 경쟁 우위가 되는 구조다. 더 많이 투자할수록 시장 지배력이 강해지니 투자를 늘리고, 그 비용을 기업 고객에게 전가한다.
430조짜리 청구서가 조각나서 전 세계 기업들에게 날아가고 있다. 내 서버 비용 명세서도 한번 다시 들여다봐야겠다.