IT·테크

엔비디아를 버리는 게 아니다, 빅테크가 직접 칩을 설계하는 진짜 이유

SI 2026. 4. 5. 19:58
반응형

빅테크 자체 AI 칩 경쟁 썸네일

 

AI 반도체 기사에서 제일 자주 나오는 오해는 이거다. "빅테크가 자체 칩을 만든다는 건 엔비디아를 버리겠다는 뜻이다." 2026년 4월 5일 기준으로 보면 이 해석은 절반만 맞다. 공식 자료를 다시 읽어보면, 빅테크의 자체 칩 경쟁은 NVIDIA를 당장 치워버리려는 전면전보다 특정 워크로드를 내부 칩으로 옮겨 비용과 효율을 통제하려는 전략에 더 가깝다.

AWS는 Trainium3를 "차세대 agentic·reasoning·video generation용"이라고 직접 설명하고 있고, 구글은 Trillium TPU를 Gemini 같은 대형 모델의 훈련·추론 효율과 함께 묶어 말한다. 마이크로소프트는 Maia 200을 GPT-5.2와 Microsoft Foundry, Copilot 같은 실제 추론 서비스 경제성 개선과 연결했다. Meta는 MTIA를 중심으로 향후 2년 안에 4세대 칩을 잇달아 내놓겠다고 공개했다. 즉 다들 같은 말을 한다. 칩을 직접 만들면 추론 비용과 전력 효율, 랙 밀도, 서비스 economics를 더 세밀하게 만질 수 있다는 것이다.

핵심만 먼저 보면 이렇다

  • AWS는 Trainium3를 전면에 세우며 agentic·reasoning·video generation용 토큰 경제성 개선을 강조했다.
  • 구글은 Trillium TPU를 통해 TPU v5e 대비 성능·HBM·에너지 효율 개선을 공식화했다.
  • 마이크로소프트는 Maia 200을 GPT-5.2와 Foundry·Copilot 추론 economics 개선과 연결했다.
  • Meta는 MTIA를 중심으로 2년 안에 4개 세대를 전개하겠다고 밝혔고, Arm과 데이터센터 CPU 공동 개발까지 발표했다.

1. 자체 칩 경쟁은 왜 하필 지금 더 빨라지나

이유는 간단하다. 생성형 AI 1라운드에서는 모델 하나를 훈련시키는 비용이 문제였다. 지금은 그것보다 더 무거운 대규모 추론 비용이 문제다. 사람들이 AI를 실제 제품으로 쓰기 시작하면, 매일 발생하는 토큰 비용과 응답 지연, 전력 소모가 훨씬 민감해진다.

그래서 hyperscaler들은 이제 "가장 큰 모델을 학습시키는 GPU"만 보는 게 아니라, 랭킹·추천·검색·에이전트 추론·멀티모달 응답 같은 반복 workload를 어떤 칩으로 돌릴지 다시 계산한다. 이 지점에서 자체 칩은 비용과 효율을 동시에 만질 수 있는 도구가 된다.

2. AWS, 구글, 마이크로소프트, 메타가 노리는 건 서로 다르다

AWS의 Trainium은 클라우드 판매와 직접 연결된다. 고객이 Bedrock이나 EC2에서 AI를 돌릴 때, AWS는 가능한 많은 워크로드를 자사 칩 위로 올리고 싶어 한다. 구글 TPU는 Gemini와 Google Cloud를 함께 최적화하는 방향이 강하다. 마이크로소프트 Maia는 GPT-5.2, Foundry, Copilot 같은 자체 서비스 economics를 낮추는 쪽에 더 가깝다. Meta의 MTIA는 광고·추천·피드·GenAI inference처럼 내부 서비스 최적화 목적이 매우 선명하다.

즉 모두 "자체 칩"이라고 부르지만, 실제 목표는 다르다. 어떤 회사는 외부 고객용 클라우드 economics를, 어떤 회사는 자사 서비스 마진을, 어떤 회사는 광고·추천 시스템 효율을 보고 있다.

3. 그럼 엔비디아는 밀려나는가

아직은 그렇게 보기 어렵다. 오히려 공식 자료를 종합하면, 빅테크는 NVIDIA를 버리기보다 NVIDIA 의존도를 workload별로 재배치하는 쪽에 가깝다. 가장 무거운 frontier training과 빠른 확장에는 여전히 NVIDIA가 강하다. 대신 반복적이고 규모가 큰 추론, 추천, 랭킹, 특정 agent workflow는 점점 자체 칩 비중을 높이는 식이다.

이 전략이 합리적인 이유는 단순하다. 모든 것을 한 칩으로 돌리면 비싸고 비효율적이다. 반대로 workload별로 칩을 나누면 비용 구조를 더 정교하게 맞출 수 있다. 그래서 2026년의 칩 경쟁은 "누가 엔비디아를 완전히 대체하나"보다 누가 어떤 workload를 얼마나 많이 내부 칩으로 빼내오느냐의 싸움이다.

4. 자체 칩 경쟁이 진짜 무서운 이유

이 경쟁은 반도체 뉴스로만 끝나지 않는다. 칩 설계가 바뀌면 HBM 수요, 패키징, 보드 설계, 랙 전력밀도, 냉각, 소프트웨어 스택까지 같이 움직인다. 그래서 자체 칩은 단순 부품 하나가 아니라 클라우드 economics 전체를 다시 짜는 기점이 된다.

Meta가 Arm과 새 데이터센터 CPU를 같이 만들겠다고 한 것도 같은 맥락이다. AI 인프라가 커질수록 GPU만이 아니라 CPU, 메모리, 인터커넥트, 랙 설계 전체를 같이 최적화해야 한다. 결국 자체 칩 전략은 "칩"보다 전체 스택 통제권에 더 가깝다.

결국 핵심은 이것이다

빅테크의 자체 AI 칩 경쟁은 엔비디아를 바로 대체하는 전쟁이 아니다. 더 정확한 표현은 이쪽이다. 엔비디아 위에 올라탄 채, 반복적이고 돈 많이 드는 workload부터 내부 칩으로 옮겨 economics를 통제하는 전쟁. 그래서 앞으로는 어떤 회사가 자체 칩을 발표했는지만 볼 게 아니라, 그 칩이 훈련용인지 추론용인지, 어떤 서비스에 붙는지, HBM과 전력 구조를 어떻게 바꾸는지까지 같이 봐야 한다.

결국 칩 경쟁은 모델 경쟁의 하부 구조다. 좋은 모델을 오래 싸게 굴리려면, 칩을 직접 만질 수 있어야 하기 때문이다.

같이 읽으면 좋은 글

출처

반응형