• 동두천 5.5℃흐림
  • 강릉 11.0℃흐림
  • 서울 6.9℃박무
  • 대전 9.0℃구름조금
  • 대구 10.3℃구름많음
  • 울산 11.7℃맑음
  • 광주 9.0℃구름많음
  • 부산 12.5℃맑음
  • 고창 8.3℃흐림
  • 제주 12.0℃흐림
  • 강화 5.6℃흐림
  • 보은 5.7℃구름많음
  • 금산 7.6℃구름조금
  • 강진군 10.0℃구름많음
  • 경주시 9.7℃구름조금
  • 거제 12.3℃구름많음
기상청 제공

2025.11.25 (화)

[이슈키워드] TPU(Tensor Processing Unit)

구글이 인공지능 연산을 위해 자체 설계한 전용 반도체
대규모 딥러닝 학습과 추론에 최적화된 고성능 가속 칩

 

 

경제타임스 김은국 기자 |  텐서프로세싱유닛(TPU·Tensor Processing Unit)구글이 인공지능 연산을 위해 자체 설계한 전용 반도체로, 특히 대규모 딥러닝 학습과 추론에 최적화된 고성능 가속 칩이다. 기존 범용 GPU 대비 행렬 및 텐서(Tensor, 영상 음성 언어데이터 등 다차원 데이터의 집합) 연산 처리 효율이 높아 대형 AI 모델·추천 시스템·검색 엔진·LLM·생성형 AI 서비스에서 탁월한 처리 속도와 전력 효율을 제공한다는 평가를 받는다.

 

 

 

 

딥러닝은 이미지·음성·언어·정형데이터가 모두 다차원으로 구성돼 있기 때문에 AI 모델은 본질적으로 텐서를 처리하는 연산 체계로 작동한다. 이 때문에 구글이 개발한 AI 가속칩 이름이 Tensor Processing Unit(텐서를 처리하기 위한 장치) 로 붙게 된 것이다.  

 

Gemini 훈련에서 TPU 세대별 차이는 “같은 모델을 얼마나 빨리·싸게·크게 돌릴 수 있느냐”의 차이이고, v4 → v5e → v5p로 갈수록 칩당 성능·팟 규모·전성비가 올라가면서 모델 크기·데이터·실험 속도 모두를 동시에 키울 수 있는 기반이 된다.  즉, TPU v2·v3: 초기 세대로, v2에서 본격적으로 대규모 딥러닝 학습을 지원하기 시작했고 v3에서 연산 성능·메모리·팟 규모가 크게 늘어 “대형 모델 학습이 가능해진 세대”라고 보면 된다

 

AI 모델 경쟁이 "GPT vs Gemini vs Llama(메타가 2023년 공개한 오픈소스 LLM 시리즈)"로 펼쳐진 데 이어, 하드웨어 경쟁도 "GPU vs TPU vs ASIC(Application-Specific Integrated Circuit, 맞춤설계 전용반도체)"으로 확전되는 모습이다. 애플·아마존도 자체 AI 칩 개발에 속도를 내는 가운데 ‘AI 인프라 최강자’ 자리를 둘러싼 빅테크 전쟁은 더욱 격렬해질 전망이다.

 

※ GPT는 대표적 상용 AI, Gemini는 구글 생태계 중심 AI, Llama는 누구나 개선·활용 가능한 ‘개방형 AI 표준’에 가까운 모델로 자리 잡고 있다.




같은 섹션 기사

더보기




공시 By AI

더보기