▲ 삼성전자의 5세대 HBM 제품인 'HBM3E'가 인공지능(AI), 데이터센터, 자율주행차 등 차세대 산업 전반에 적용되는 모습을 형상화한 컨셉 이미지. / 자료=경제타임스 / 제공: 삼성전자 경제타임스 온인주 기자 | 엔비디아가 차세대 AI 시스템 ‘베라 루빈’의 데이터 전송 속도를 초당 22TB로 대폭 상향하면서, 핵심 부품인 ‘베이스 다이’ 기술력이 뒷받침된 삼성전자와 SK하이닉스가 HBM4 물량을 싹쓸이할 것이라는 분석이 지배적이다. ■ 1년 만에 껑충 뛴 ‘커트라인’… 13TB에서 22TB로 이어진 속도 전쟁 엔비디아는 차세대 AI 플랫폼인 ‘베라 루빈’의 목표 대역폭을 불과 1년 사이 공격적으로 상향해 왔다. 대역폭은 데이터를 주고받는 ‘도로의 폭’과 같은데, 지난 2025년 3월 처음 제시된 목표는 초당 13TB 수준이었으나, 같은 해 9월 20.5TB로 높아졌고, 올해 1월 CES 2026에서는 최종 22TB/s로 요구했다. 1초 만에 고화질 영화 약 5,500편을 보낼 수 있는 이 ‘괴물급’ 속도는 당초 계획보다 70%나 높아진 수치로, 이를 맞추지 못하는 기업은 엔비디아의 파트너 자격을 잃게 되는 엄격한 커트라인이 됐다. ■ 마이크론의 발
경제타임스 김은국 기자 | 차세대 고대역폭메모리(HBM, High Bandwidth Memory, 대역폭을 극단적으로 높인 3D 적층 메모리 기술)에 그래픽처리장치(GPU, Graphics Processing Unit, 그래픽·병렬 연산 처리에 특화된 연산장치) 코어를 직접 탑재하는 기술이 글로벌 빅테크를 중심으로 현실화 단계에 들어섰다. AI 성능 향상을 위해 메모리와 연산 기능을 하나의 아키텍처로 통합하는 시도가 본격화되면서, 메모리 기업과 시스템 반도체 기업 간 경계가 빠르게 허물어지고 있다는 분석이다. 최근 업계에 따르면 메타와 엔비디아가 HBM 하단의 ‘베이스다이(Base Die or Base Layer Die, HBM 적층 구조의 가장 아래 위치한 기저 칩)’에 GPU 코어를 내장하는 구조를 검토하고 있으며, 이 기술 구현을 위해 SK하이닉스와 삼성전자에 협력 방안을 타진한 것으로 알려졌다. 복수의 반도체 관계자는 “차세대 맞춤형 HBM 아키텍처 논의가 진행 중이며, 그중 GPU 코어의 직접 통합이 핵심 기술 과제로 부상했다”고 설명했다. HBM은 여러 장의 D램을 수직 적층해 만든 고성능 메모리로, 방대한 데이터를 실시간 처리해야 하는 생성형 A