AWS ‘프로젝트 레이니어’ Trainium2 50만 칩 풀가동… H100 대비 비용 25%, 한국 HBM에 던지는 신호 [인포그래픽]

이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다.

아마존웹서비스(AWS)가 차세대 AI 가속기 Trainium2 약 50만 칩으로 구성한 슈퍼클러스터 “Project Rainier“의 풀가동을 알렸다. 인디애나주에 약 110억 달러 규모로 지은 이 캠퍼스는 AWS가 그동안 운영한 어떤 AI 컴퓨팅 플랫폼보다 약 70% 더 큰 규모로 알려졌다. 핵심 고객은 Anthropic(앤스로픽)이고, 이 클러스터에서 학습되는 모델은 우리가 잘 아는 “Claude” 시리즈다. 무엇이 얼마나 큰지 한 장의 인포그래픽으로 정리한다.

📊 Project Rainier의 “5가지 숫자”

🟧 Trainium2 칩 수

약 500,000개
🟦 인디애나 캠퍼스 투자

약 $11B (110억 달러)
🟨 직전 모델 대비 학습 컴퓨트

약 5배
🟩 AWS 사상 최대 AI 플랫폼 대비

약 +70% 큼
🟥 Anthropic 사용 칩 (2025년 말 기준)

100만+ Trainium2

출처 종합: AWS 공식 블로그, CNBC, Data Center Dynamics, Constellation Research, Data Centre Magazine.

📊 비용 비교 — Trainium2 vs Nvidia H100

Nvidia H100 (시간당 가격)

약 $3.0/h
AWS Trainium2 (온디맨드)

약 $1.0/h
Trainium2 장기 계약가

~$0.5/h

동일 워크로드 기준 추산. 일부 보도는 “H100 비용 대비 약 25% 수준”, 또 다른 보도는 “동일 학습 토큰당 50~70% 비용 절감”으로 표현한다.

⚙️ Trainium2 칩 사양 한 줄 요약

  • FP8 컴퓨트 — 칩당 약 1.3 PFLOPS, 16칩 인스턴스(Trn2)당 약 20.8 PFLOPS
  • HBM — 칩당 96GB HBM3
  • 메모리 대역폭 — 칩당 약 2.9 TB/s
  • 비교 기준 H200 — 약 4,800 GB/s 메모리 대역폭, 가격은 시간당 $3.8~$10.6/h 구간

🚀 다음 카드 — Trainium3 (3nm)

AWS는 re:Invent 2025에서 차세대 Trainium3(3nm)를 예고했다. Trainium2 대비 컴퓨트 약 4배, 메모리 대역폭 약 4배, 에너지 효율 약 40~44% 개선이라는 수치를 함께 공개했다. 출시는 “수개월 내”로 예고됐고, 그동안 Anthropic이 인프라 설계 단계부터 협력해 왔다는 점도 같이 거론된다.

💰 Amazon-Anthropic의 숨은 자본 구조

이 모든 흐름의 자금 동력은 단순하지 않다. 아마존은 2024년 초부터 Anthropic에 약 80억 달러를 투자해 왔다. 즉 “AWS가 칩을 팔고 → Anthropic이 모델을 학습하고 → 아마존은 다시 그 모델 매출에서 일부를 인식”하는 순환 구조가 만들어진 셈이다. 마이크로소프트-OpenAI 동맹의 거의 거울 이미지에 가깝다.

🇰🇷 한국 업종이 받는 신호 5가지

  • HBM — Trainium2의 HBM3, Trainium3의 HBM3E·HBM4 채택 가능성. SK하이닉스·삼성전자 HBM 출하 곡선과 직접 연동
  • 패키징·후공정 — 50만~수백만 단위 가속기 양산은 CoWoS급 첨단 패키징 캐파 확장과 직결. 한국 후공정 협력사 매출 모멘텀에 우호적
  • 전력기기·변압기 — 110억 달러 캠퍼스 한 곳도 GW 단위 전력 수요. 한국 변압기·HVDC 업체의 북미 발주 증가 신호
  • 냉각·열관리 — Trainium2·Trainium3의 고밀도 가속기는 액침 냉각·고성능 열관리 솔루션 수요와 동반
  • 국내 클라우드·SaaS — AWS Trainium 가격 인하가 일반 기업의 AI 사용 단가 하락으로 이어지면, 한국 SaaS·솔루션 업종의 수요 확대 가능성

📚 과거 선례 — 2018년 “클라우드 1차 캡엑스 사이클”의 데자뷔

2018~2020년 AWS·Azure·GCP가 일반 클라우드 인프라를 한 단계 끌어올린 시기, 한국 메모리·서버 부품 업종은 약 2년의 후행 매출 점프를 경험했다. 이번 “AI 인프라 사이클”은 그때보다 총 자본 규모가 4~5배 큰 출발점이다. 다만 매분기 100% 가속이 무한히 이어질 수 없다는 점과, 빅테크 자본강도가 빠르게 올라가고 있다는 점은 같이 살펴봐야 한다.

🔍 정상화·반전 신호 체크

  • AWS 분기 캡엑스 가이던스가 1,000억 달러+ 구간에서 추가 상향되는지
  • Trainium3 정식 출시 + 첫 양산 캐파 발표 시점
  • Anthropic 사용 Trainium2 칩 수가 100만 개 이상에서 추가로 늘어나는지
  • SK하이닉스·삼성전자 분기 HBM 가이던스의 “AWS향 비중” 언급 여부
  • 북미 변압기·전력 기자재 신규 수주의 분기 흐름

🎯 관전 포인트 — “커스텀 칩 시대의 진짜 변수”

이번 사이클의 핵심 메시지는 “엔비디아만의 시대가 끝났다”가 아니라 “커스텀 칩과 GPU가 동시에 큰다“는 점이다. AWS Trainium·Google TPU·Microsoft Maia·Meta MTIA가 모두 자체 칩을 늘리지만, 동시에 엔비디아 GPU 발주도 같이 늘어나는 “이중 트랙”이 굳어지는 모습이다. 그 결과 가장 큰 수혜는 HBM·첨단 패키징·전력 인프라가 될 가능성이 거론된다. 본 기사는 어떤 종목도 매수·매도를 권하지 않는다.

자주 묻는 질문

Q. Trainium2가 정말 H100을 “대체”하는 건가?

A. 대체가 아니라 “공존”으로 보는 게 정확하다. AWS는 Anthropic 같은 핵심 학습 워크로드는 Trainium2 클러스터에 태우지만, 동시에 엔비디아 GPU 인스턴스(P5·H200 등)도 대량으로 운영한다. 가격에 민감한 학습 워크로드는 Trainium 쪽으로, 추론·다양한 프레임워크가 필요한 워크로드는 GPU 쪽으로 배분되는 구조가 굳어지는 중이다.

Q. Trainium3 출시는 정말 “수개월” 안인가?

A. AWS가 re:Invent 2025에서 “수개월 내”라는 가이던스를 직접 내놨고, 일정이 지켜지면 2026년 안에 첫 인스턴스 가용성이 거론될 가능성이 있다. 다만 첨단 공정(3nm) 양산 안정화 변수와 시장 반응을 감안하면, 일정이 다소 미뤄질 가능성도 항상 열어 두는 게 합리적이다.

Q. 한국 투자자가 가장 주의할 트래커는?

A. (1) AWS 분기 캡엑스, (2) Anthropic의 Trainium2 사용 칩 수, (3) Trainium3 정식 출시·고객 채택률, (4) SK하이닉스·삼성전자 HBM 가이던스, (5) 북미 전력 기자재 수주 — 이 다섯 가지가 가장 균형 잡힌 관전 방법으로 거론된다.

※ 본 기사는 AWS 공식 블로그, CNBC, Data Center Dynamics, Data Centre Magazine, Constellation Research, Data Center Knowledge, Technology Magazine, MLQ.ai, Silicon Analysts, Markaicode 등 복수 매체의 보도 내용을 재가공해 작성했으며, 직접 인용한 부분만 원문 표현을 사용했습니다. 칩 수·가격·성능 수치는 발표 시점·기관에 따라 차이가 있을 수 있으며, 특정 종목 매수·매도 추천이 아닙니다. 투자 판단의 책임은 투자자 본인에게 있습니다.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top