
경제타임스 김은국 기자 | HBM(High Bandwidth Memory·고대역폭 메모리)은 AI와 초고속 데이터처리 시대를 견인하는 차세대 반도체 메모리다. 기존 D램보다 데이터 전송 속도는 최대 8배 이상 빠르고, 전력 소모는 절반 수준에 불과하다. 고성능 AI 연산, 3D 그래픽, 슈퍼컴퓨팅, 데이터센터 서버 등에서 대규모 데이터를 초고속으로 처리해야 하는 환경에 최적화돼 있다.
HBM은 단일 칩을 수평으로 배열하는 기존 구조(DIMM)와 달리, D램 칩을 여러 층으로 수직 적층(Stacking)한 뒤 초정밀 미세 연결공정(TSV, Through-Silicon Via)을 통해 신호를 주고받는다. 이 덕분에 단위 면적당 데이터 처리량(대역폭)이 대폭 확대되고, 고성능 프로세서(GPU·CPU)와의 연결 효율이 획기적으로 향상됐다.
AI 산업에서 HBM은 ‘AI 반도체의 심장’으로 불린다. AI 모델 학습에는 수백억 개의 파라미터를 실시간으로 처리해야 하는데, 이때 HBM이 GPU(그래픽처리장치) 옆에 탑재돼 초고속으로 데이터를 공급하는 역할을 한다. 즉, GPU가 엔진이라면 HBM은 ‘연료공급장치’에 해당한다.
현재 글로벌 AI GPU 시장을 주도하는 엔비디아(NVIDIA)의 주력 제품인 ‘H100·B200’에는 모두 HBM3 또는 HBM3E가 탑재되어 있다. 공급의 대부분은 SK하이닉스와 삼성전자, 그리고 일부 마이크론(Micron)이 담당한다. 특히 SK하이닉스는 HBM3E 양산을 세계 최초로 성공하며 시장 점유율 60% 이상을 차지, AI 반도체 공급망의 중심으로 부상했다.
HBM의 가장 큰 특징은 첨단 공정 기술의 집약체라는 점이다. 수십억 개의 미세 전극을 실리콘 웨이퍼를 관통해 연결하는 TSV 공정과, 적층 칩 간 열(heat)과 전력 효율을 정밀하게 제어해야 하는 3D 패키징 기술이 핵심이다. 이 때문에 수율(양품 비율)을 유지하기 어렵고, 생산 공정 시간과 비용이 일반 D램보다 월등히 높다.
시장에서는 “HBM은 기술력 없이는 양산이 불가능한 ‘초격차 메모리’”로 불린다. 이 같은 기술 진입 장벽 덕분에 한국 기업들이 글로벌 AI 반도체 경쟁에서 압도적 우위를 점하고 있다.
전문가들은 HBM을 “미래 반도체 산업의 원유”라고 표현한다. AI 학습 데이터가 폭발적으로 늘어날수록 HBM 수요도 기하급수적으로 증가하기 때문이다. 2023년 이후 엔비디아, 구글, 마이크로소프트, 아마존 등 글로벌 빅테크 기업들이 AI 데이터센터 구축을 가속화하면서 HBM 수급이 ‘전략물자급’ 이슈로 부상했다.
시장조사업체 트렌드포스(TrendForce)에 따르면 HBM 시장 규모는 2023년 24억 달러에서 2027년 210억 달러로 8배 이상 성장할 전망이다. 향후 2~3년 내 글로벌 반도체 경쟁의 핵심은 “누가 더 많은 HBM을 안정적으로 공급할 수 있느냐”로 귀결될 가능성이 높다.
삼성전자와 SK하이닉스가 사실상 글로벌 HBM 공급의 대부분을 담당하면서 한국은 ‘AI 반도체 공급망의 허브’로 부상했다. 산업계 관계자는 “HBM은 기술력과 자본, 공정 경험이 동시에 필요한 영역으로 한국 기업이 장기간 축적한 메모리 기술력이 그대로 경쟁력으로 이어지고 있다”며 “AI 시대의 승자는 결국 HBM을 누가 더 효율적으로 공급하느냐에 달려 있다”고 말했다.