경제타임스 김재억 기자 | 인공지능(AI) 반도체 시장의 절대 강자 엔비디아가 단순한 ‘부품 공급자’의 허물을 벗고, 인류의 지적·물리적 활동을 통제하는 ‘AI 인프라 운영사’로의 완전한 진화를 선언했다. 현지시간 16일 미국 새너제이 SAP 센터에서 개막한 ‘GTC 2026’에서 젠슨 황 CEO는 반도체 공학의 한계를 시험하는 하드웨어 혁신과 인간의 인지 능력을 모사한 소프트웨어 생태계를 동시에 펼쳐 보이며, 전 세계 기술 패권의 향방을 재정의했다. 이번 컨퍼런스는 전 세계 2만명 이상의 개발자와 산업 관계자들이 운집한 가운데, ‘모든 사물의 지능화’라는 거대한 서사 아래 진행됐다. 젠슨 황은 약 2시간에 걸친 키노트를 통해 하드웨어(베라 루빈), 소프트웨어(에이전틱 AI), 로봇(물리적 AI), 그래픽(DLSS 5), 그리고 인프라의 확장(우주 컴퓨팅)으로 요약되는 5대 핵심 축을 제시했다. ■ 하드웨어의 파괴적 혁신: ‘베라 루빈’과 HBM4의 결합 컨퍼런스의 주인공은 단연 차세대 AI 가속기 아키텍처인 ‘베라 루빈(Vera Rubin)’이었다. 암흑 물질의 존재를 증명한 천문학자 베라 루빈의 이름을 딴 이 플랫폼은 엔비디아가 추구하는 ‘컴퓨팅 리소스의
경제타임스 여원동 기자 | 삼성전자가 엔비디아의 차세대 AI 가속기 플랫폼인 ‘베라 루빈(Vera Rubin)’ 시대의 핵심 파트너로서 입지를 공고히 했다. 단순한 메모리 공급사를 넘어 설계, 파운드리, 패키징을 아우르는 종합반도체기업(IDM)만의 ‘토털 솔루션’ 역량을 앞세워 글로벌 AI 인프라 시장의 주도권 확보에 나선 모습이다. ■ HBM4E 실물 최초 공개…1c D램·4나노 파운드리 역량 집결 삼성전자는 3월16일(현지시간) 미국 새너제이에서 개막한 ‘GTC 2026’에서 차세대 초고대역폭메모리인 HBM4E의 실물 칩과 코어 다이 웨이퍼를 세계 최초로 선보였다. 이번 HBM4E는 삼성의 최첨단 1c D램 공정과 파운드리 4나노 베이스 다이 설계 기술이 전격 도입된 결정체다. 삼성전자가 공개한 HBM4E는 핀당 16Gbps의 전송 속도와 초당 4.0TB(테라바이트)에 달하는 압도적인 대역폭을 구현할 예정이다. 특히 주목할 지점은 차세대 패키징 기술인 ‘하이브리드 동 접합(HCB)’의 도입이다. 삼성은 기존 열압착 본딩(TCB) 방식보다 열 저항을 20% 이상 개선한 HCB 기술을 통해 16단 이상의 고적층 구조에서도 안정적인 방열 성능을 확보했다. ■
경제타임스 김재억 기자 | 엔비디아가 인공지능(AI) 반도체 시장의 폭발적인 성장에 힘입어 향후 매출 전망치를 파격적으로 높여 잡았다. 젠슨 황 엔비디아 최고경영자(CEO)는 차세대 GPU 라인업에 대한 강력한 수요를 바탕으로 ‘1조 달러 매출 시대’를 예고하며 시장의 불확실성을 정면 돌파하겠다는 의지를 드러냈다. ■ ‘1조 달러 기회’ 천명…하이퍼스케일러 수요가 견인 젠슨 황 CEO는 3월16일(현지시간) 미국 새너제이에서 열린 ‘GTC 2026’ 기조연설을 통해 오는 2027년까지 연간 매출 규모가 1조 달러(약 1330조원)에 도달할 것이라고 발표했다. 이는 기존 AI 칩 매출 목표였던 5000억 달러를 단숨에 두 배로 상향 조정한 수치로, 시장의 가장 낙관적인 시나리오조차 뛰어넘는 파격적인 가이드라인이다. 이 같은 자신감의 배경에는 ‘블랙웰(Blackwell)’과 차세대 ‘베라 루빈(Vera Rubin)’ 플랫폼에 대한 압도적인 대기 수요가 자리 잡고 있다. 황 CEO는 메타, 마이크로소프트, 아마존 등 이른바 하이퍼스케일러 기업들의 공격적인 인프라 투자가 엔비디아의 실적 성장을 뒷받침하는 핵심 동력임을 재확인했다. 최근 AI 거품론과 기업들의 지출
경제타임스 온인주 기자 | 엔비디아(NVDA)가 매년 차세대 칩과 기술 로드맵을 공개하는 연례 최대 행사 ‘GTC 2026’이 이번 주 16~19일(현지시간) 미국 캘리포니아주 새너제이에서 열린다. 젠슨 황 최고경영자(CEO)의 기조연설이 예정된 내일 새벽(17일) 3시(한국 시간), 전 세계의 시선은 차세대 AI 플랫폼 ‘루빈(Rubin)’의 공급 일정과 함께 데이터센터의 전력 한계를 돌파할 CPO(Co-Packaged Optics, 광 패키징) 기술로 쏠리고 있다. ■ GPU는 빨라졌는데 ‘길’이 막혔다… 전력 병목 현상 심화 그동안 AI 시장의 화두가 “GPU가 얼마나 더 빨라지느냐”였다면, 이제는 수천 개의 GPU를 하나로 묶는 과정에서 발생하는 데이터 이동과 전력 문제가 핵심 과제로 부상했다. AI 모델이 커지고 GPU 수가 수천 개까지 늘어나면서, 이제는 칩 자체보다 그 칩들 사이를 오가는 데이터가 더 큰 문제가 되고 있기 때문이다. 즉, 공장(GPU)의 생산 속도는 비약적으로 향상됐으나, 공장 사이를 잇는 도로(네트워크)가 밀려드는 데이터를 감당하지 못해 공장과 공장 사이 도로가 막히기 시작한 셈이다. DS투자증권은 이런 흐름을 두고 AI 인프라
▲ 삼성전자의 5세대 HBM 제품인 'HBM3E'가 인공지능(AI), 데이터센터, 자율주행차 등 차세대 산업 전반에 적용되는 모습을 형상화한 컨셉 이미지. / 자료=경제타임스 / 제공: 삼성전자 경제타임스 온인주 기자 | 엔비디아가 차세대 AI 시스템 ‘베라 루빈’의 데이터 전송 속도를 초당 22TB로 대폭 상향하면서, 핵심 부품인 ‘베이스 다이’ 기술력이 뒷받침된 삼성전자와 SK하이닉스가 HBM4 물량을 싹쓸이할 것이라는 분석이 지배적이다. ■ 1년 만에 껑충 뛴 ‘커트라인’… 13TB에서 22TB로 이어진 속도 전쟁 엔비디아는 차세대 AI 플랫폼인 ‘베라 루빈’의 목표 대역폭을 불과 1년 사이 공격적으로 상향해 왔다. 대역폭은 데이터를 주고받는 ‘도로의 폭’과 같은데, 지난 2025년 3월 처음 제시된 목표는 초당 13TB 수준이었으나, 같은 해 9월 20.5TB로 높아졌고, 올해 1월 CES 2026에서는 최종 22TB/s로 요구했다. 1초 만에 고화질 영화 약 5,500편을 보낼 수 있는 이 ‘괴물급’ 속도는 당초 계획보다 70%나 높아진 수치로, 이를 맞추지 못하는 기업은 엔비디아의 파트너 자격을 잃게 되는 엄격한 커트라인이 됐다. ■ 마이크론의 발