엔비디아 AI칩 최신 B100(Blackwell) 과 기존 H100의 차이점(feat.HBM)
- 기존 최고 AI칩 H100 보다 <<< 차세대 AI칩 B100(Blackwell GPU)의 연산처리속도가 단일 칩으로 2.5배 더 빠름
- 성능의 가장 큰 차이인 트랜지스터
H100의 트랜지스터 800억개 <<< B100의 트랜지스터 2080억개 (단, 한 칩에 많은 양의 트랜지스터를 넣을 수 없어 두개의 GPU가 하나의 칩으로 작동하는 B200 적용. 즉, B100 2개가 기본) - 이날 선 보인 수퍼칩 ‘GB200‘(‘GB200’은 B200 GPU 2개 + 자체 중앙처리장치(CPU) ‘그레이스’ 로 구성)으로는 기존의 H100보다 최대 30배 빠르며, 전력소모는 기존의 1/25 이고, 거대언어모델(LLM) 추론 성능이 향상됐다. (*Blackwell은 흑인 최초 미국국립과학원에 입회한 데이비드 헤롤드 블랙웰을 기리기 위해 붙인 이름)
- 현재 B100과 GB200의 가격은 공개 X , 현재 H100은 최대 4만 달러(한화 5,360만원)에 판매되고 있는것을 감안한다면, B100은 최소 5만달러(한화 6,700만원)일 것이라 전망.
- 출시 : 올해 하반기
AI 반도체의 핵심 부품은 고대역폭 메모리 HBM(High Bandwidth Memory)
AI산업이 열림과 동시에 AI반도체 수요가 급증하는 요즘 전세계 D램 시장또한 수요가 늘 예정인 HBM과 HBM시장을 알아보자
HBM은 D램을 겹겹이 쌓아 속도를 높이고 전력소비를 줄인 고성능 메모리 반도체이다
- 현재 HBM의 선두주자는 ‘SK하이닉스’ (삼성은 기존에 HBM의 글로벌 사업성이 없다 판단하고 사업을 철수한 이력이 있음.)
- 글로벌 시장의 50%를 ‘SK하이닉스’ / 40%를 ‘삼성’ / 10%를 미국의 ‘마이크론’ 즉, 글로벌 수요를 SK하이닉스와 삼성의 거의 양분하고 있다.
- SK하이닉스 = HBM3(4세대) 엔비디에아 독점 공급중 / 최신 HBM3E(5세대) 이달부터 양산 및 공급/ 엔비디아 B100에 장착 /
- 삼성 = 지난 달 세계 최초 HBM3E 12단 제품 개발 성공 / 올해 상반기 양산 시작
(*블랙웰 제조는 타이완 TSMC가 맡을 예정)
B100이 등장하며 한층 진화한 초거대 AI출현의 기반이 마련된 셈이다.
새로운 AI 산업 혁명이 앞으로 어떻게 흘러갈지 주의깊게 봐야할 것!