엔비디아 AI칩 최신 B100(Blackwell) 과 기존 H100의 차이점(feat.HBM)

엔비디아 AI칩 최신 B100(Blackwell) 과 기존 H100의 차이점(feat.HBM)

엔비디아 AI칩 최신 B100(Blackwell) 과 기존 H100의 차이점(feat.HBM)

엔비디아 AI칩 최신 B100(Blackwell) 과 기존 H100의 차이점(feat.HBM)
‘GTC 2024’ 엔비디아 개발자 콘퍼런스의 젠슨 황

 

  • 기존 최고 AI칩 H100 보다 <<< 차세대 AI칩 B100(Blackwell GPU)의 연산처리속도가 단일 칩으로 2.5배 더 빠름
  • 성능의 가장 큰 차이인 트랜지스터
    H100의 트랜지스터 800억개  <<< B100의 트랜지스터 2080억개 (단, 한 칩에 많은 양의 트랜지스터를 넣을 수 없어 두개의 GPU가 하나의 칩으로 작동하는 B200 적용. 즉, B100 2개가 기본)
  • 이날 선 보인 수퍼칩 ‘GB200(‘GB200’은 B200 GPU 2개 + 자체 중앙처리장치(CPU) ‘그레이스’ 로 구성)으로는 기존의 H100보다 최대 30배 빠르며, 전력소모는 기존의 1/25 이고, 거대언어모델(LLM) 추론 성능이 향상됐다. (*Blackwell은 흑인 최초 미국국립과학원에 입회한 데이비드 헤롤드 블랙웰을 기리기 위해 붙인 이름)
  • 현재 B100 GB200의 가격은 공개 X , 현재 H100은 최대 4만 달러(한화 5,360만원)에 판매되고 있는것을 감안한다면, B100은 최소 5만달러(한화 6,700만원)일 것이라 전망.
  • 출시 : 올해 하반기

AI 반도체의 핵심 부품은 고대역폭 메모리 HBM(High Bandwidth Memory)

AI산업이 열림과 동시에 AI반도체 수요가 급증하는 요즘 전세계 D램 시장또한 수요가 늘 예정인 HBMHBM시장을 알아보자

HBM은 D램을 겹겹이 쌓아 속도를 높이고 전력소비를 줄인 고성능 메모리 반도체이다

  • 현재 HBM의 선두주자는 ‘SK하이닉스’ (삼성은 기존에 HBM의 글로벌 사업성이 없다 판단하고 사업을 철수한 이력이 있음.)
  • 글로벌 시장50%를 ‘SK하이닉스’ / 40%를 ‘삼성’ / 10%를 미국의 ‘마이크론’ 즉, 글로벌 수요를 SK하이닉스삼성의 거의 양분하고 있다.
  • SK하이닉스 = HBM3(4세대) 엔비디에아 독점 공급중 / 최신 HBM3E(5세대) 이달부터 양산 및 공급/ 엔비디아 B100에 장착 / 
  • 삼성 = 지난 달 세계 최초 HBM3E 12단 제품 개발 성공 / 올해 상반기 양산 시작 

(*블랙웰 제조는 타이완 TSMC가 맡을 예정)

B100이 등장하며 한층 진화한 초거대 AI출현의 기반이 마련된 셈이다.

새로운 AI 산업 혁명이 앞으로 어떻게 흘러갈지 주의깊게 봐야할 것!

“강민경이 애정하는 호박 호밀빵! Roux Bake (호밀이 좋은 이유)” ‹ 3min info —