경제타임스 김은국 기자 | 구글이 AI 반도체 시장에서 엔비디아의 독주 체제를 흔들기 위한 ‘외부 공급 전략’을 본격화했다. 기존에 구글 클라우드 내부에서만 사용되던 텐서프로세싱유닛(TPU)을 고객사 데이터센터에 직접 설치하는 방식으로 확대하며 AI 반도체 패권 경쟁이 새로운 국면에 진입했다. 텐서프로세싱유닛(TPU·Tensor Processing Unit)은 구글이 인공지능 연산을 위해 자체 설계한 전용 반도체로, 특히 대규모 딥러닝 학습과 추론에 최적화된 고성능 가속 칩이다. 기존 범용 GPU 대비 행렬 및 텐서(Tensor, 영상 음성 언어데이터 등 다차원 데이터의 집합) 연산 처리 효율이 높아 대형 AI 모델·추천 시스템·검색 엔진·LLM·생성형 AI 서비스에서 탁월한 처리 속도와 전력 효율을 제공한다는 평가를 받는다. 11월24일(현지시간) 미국 실리콘밸리 기반의 유료 구독형 IT·테크 전문 매체 '더 인포메이션' 보도에 따르면 메타는 2027년부터 자체 데이터센터에 구글 TPU를 도입하는 방안을 논의 중이며, 투자 규모만 수십억 달러로 거론된다. 메타는 단기적으로는 내년부터 구글 클라우드의 TPU 용량을 임대하는 방안도 함께 검토하는 것으로 알려졌
경제타임스 김은국 기자 | 텐서프로세싱유닛(TPU·Tensor Processing Unit)은 구글이 인공지능 연산을 위해 자체 설계한 전용 반도체로, 특히 대규모 딥러닝 학습과 추론에 최적화된 고성능 가속 칩이다. 기존 범용 GPU 대비 행렬 및 텐서(Tensor, 영상 음성 언어데이터 등 다차원 데이터의 집합) 연산 처리 효율이 높아 대형 AI 모델·추천 시스템·검색 엔진·LLM·생성형 AI 서비스에서 탁월한 처리 속도와 전력 효율을 제공한다는 평가를 받는다. 딥러닝은 이미지·음성·언어·정형데이터가 모두 다차원으로 구성돼 있기 때문에 AI 모델은 본질적으로 텐서를 처리하는 연산 체계로 작동한다. 이 때문에 구글이 개발한 AI 가속칩 이름이 Tensor Processing Unit(텐서를 처리하기 위한 장치) 로 붙게 된 것이다. Gemini 훈련에서 TPU 세대별 차이는 “같은 모델을 얼마나 빨리·싸게·크게 돌릴 수 있느냐”의 차이이고, v4 → v5e → v5p로 갈수록 칩당 성능·팟 규모·전성비가 올라가면서 모델 크기·데이터·실험 속도 모두를 동시에 키울 수 있는 기반이 된다. 즉, TPU v2·v3: 초기 세대로, v2에서 본격적으로 대규모 딥러닝