Published on

삼성전자 HBM4 양산 출하 — 엔비디아가 "최고"라고 한 13Gbps의 진짜 의미

Authors
  • Name
    Twitter

반도체를 오래 봐왔지만, 삼성전자가 이렇게 빠르게 반전 카드를 꺼낼 거라고는 솔직히 예상하지 못했다. 2025년 내내 HBM3E에서 SK하이닉스에 밀리며 고전했던 삼성이, 2026년 2월 세계 최초로 HBM4 양산 출하를 선언했다. 더 놀라운 건 엔비디아가 직접 "구동 속도와 전력 효율 측면에서 메모리 업체 중 가장 우수하다"고 평가를 내렸다는 점이다.

숫자부터 보자. HBM4는 핀 속도 최대 13Gbps, 단일 스택 기준 대역폭 3.3TB/s다. HBM3E가 9.6Gbps에 약 1.2TB/s였으니 대역폭 기준으로만 따지면 약 2.7배 향상됐다. JEDEC 표준이 8Gbps인데 그걸 46%나 초과 달성한 셈이다.

삼성전자 HBM4 AI 반도체 최첨단 기술

13Gbps가 실제로 무슨 의미인가

HBM을 단순히 '빠른 메모리' 정도로만 이해하면 이 숫자가 왜 중요한지 잘 안 느껴진다. AI 모델을 학습시키거나 추론할 때 GPU가 가장 많이 기다리는 건 연산 결과가 아니라 데이터다. 파라미터가 수천억 개에 달하는 대형 언어 모델은 매 연산마다 엄청난 양의 가중치를 메모리에서 꺼내야 하는데, 이때 병목이 바로 메모리 대역폭이다.

HBM3E 시절 엔비디아 H100 기준으로도 이미 한계에 부딪히는 시나리오가 있었다. GB200, 루빈(Rubin) 같은 차세대 GPU는 훨씬 더 많은 대역폭을 요구한다. HBM4가 3.3TB/s를 찍어줘야 엔비디아가 설계한 아키텍처가 온전히 작동하는 구조다.

코어 D램을 10나노급 6세대(1c) 공정으로 만들고, 로직 다이는 삼성 파운드리 4나노로 찍었다. 경쟁사가 안정성이 검증된 기존 공정에 집중할 때 삼성은 과감하게 최신 공정을 밀어 넣었다. 결과적으로 속도와 전력 효율 두 마리를 동시에 잡은 셈이다.

엔비디아가 삼성을 고른 이유

솔직히 2025년까지만 해도 "삼성이 엔비디아 메인 공급사 자리를 탈환할 수 있을까"라는 질문에 긍정적으로 답하기 어려웠다. SK하이닉스가 HBM3E에서 워낙 탄탄하게 자리를 굳혔고, 삼성의 수율 문제가 종종 언론에 보도됐기 때문이다.

그런데 HBM4 전환 시점에 판이 달라졌다. 삼성 HBM4가 엔비디아 루빈 GPU에 탑재 예정이고, AMD MI450에도 들어간다. 엔비디아가 특정 메모리 업체에 의존하는 구조 자체가 위험 요소이기 때문에 삼성의 경쟁력 회복은 엔비디아 입장에서도 반가운 일이다.

마이크론의 경우 HBM4에서 공식 10Gbps를 달성했음에도 엔비디아 납품에 실패했다는 분석이 나온다. 성능 기준 자체를 충족했어도 안정적 양산 능력과 수율을 함께 증명해야 하는 게 HBM 시장의 특성이다. 삼성은 세계 최초 양산 출하라는 타이밍과 성능을 동시에 가져가면서 설득력 있는 카드를 쥐게 됐다.

삼성전자 반도체 클린룸 제조 공정

SK하이닉스와의 진짜 격차

시장 점유율 전망을 보면 2026년 HBM4 시장에서 SK하이닉스 54%, 삼성전자 28%, 마이크론 18%로 예상된다. 삼성이 최초 양산 출하를 선언했는데 왜 점유율은 여전히 하이닉스가 우위인가.

이유는 양산 안정성과 물량이다. SK하이닉스는 1b D램에 MR-MUF 패키징 공정을 조합해 이미 검증된 라인에서 물량을 쏟아내는 구조다. 삼성이 1c 공정으로 기술적으로 앞섰다고 해도 실제 납품 가능한 물량을 얼마나 빠르게 늘릴 수 있느냐의 문제가 남는다.

다만 10년 블로그 하면서 반도체 사이클을 여러 번 봤는데, 기술 우위를 가진 쪽이 결국 점유율을 가져가는 경우가 많았다. HBM4E(7세대)에서 삼성이 16Gbps를 들고 나올 때 격차가 어떻게 변할지가 진짜 관전 포인트다. 삼성은 이미 HBM4E 팀과 HBM5 팀을 이원화 운영 중이고, 2026년 하반기 HBM4E 샘플 출하, 2027년 양산을 목표로 달리고 있다.

HBM5까지의 로드맵

현재 계획대로라면 2029년쯤 HBM5가 등장한다. D램 1d 공정에 파운드리 2나노를 결합하고, 하이브리드 본딩 기술을 본격 적용한다는 계획이다. 하이브리드 본딩은 현재의 범프 방식보다 연결 밀도를 크게 높일 수 있어 대역폭 도약 폭이 훨씬 커질 것으로 보인다.

HBM4E(7세대)는 HBM4 대비 속도 23% 향상(16Gbps), 전력 소모는 동일 수준을 목표로 한다. 4TB/s를 넘어서는 대역폭이면 웬만한 AI 추론 작업은 메모리 병목 없이 처리할 수 있는 수준에 가까워진다.

이게 단순히 삼성 주주 입장에서만 의미 있는 얘기가 아니다. HBM 성능이 올라갈수록 같은 전력 예산에서 더 많은 AI 연산이 가능해지고, 그게 AI 서비스 비용 하락으로 이어진다. 데이터센터 운영사 입장에서도, 결국 AI를 쓰는 일반 사용자 입장에서도 반가운 방향이다.

AI 데이터센터 서버 인프라 미래 기술

반전이라고 부르기엔 이르지만

삼성전자 HBM4 양산 출하는 분명 의미 있는 성과다. 세계 최초 타이밍, 엔비디아의 긍정 평가, 1c 공정이라는 기술적 우위까지 갖췄다. 1분기 영업이익 57조 사상 최대 기록도 이 흐름과 맞물려 있다.

그런데 HBM 시장에서 진짜 승패는 지금이 아니라 HBM4E와 HBM5 전환 시점에 결정된다. SK하이닉스가 2년째 쌓아온 양산 노하우와 점유율을 한 번의 세대 교체로 뒤집기란 쉽지 않다. 삼성이 '세계 최초'를 몇 번이나 더 반복할 수 있느냐, 수율을 얼마나 빠르게 끌어올리느냐가 관건이다.

조용히 지켜보고 있다. 적어도 2025년의 수세적 분위기보다는 훨씬 낫다.