인공지능 시대를 선도하는 NVIDIA의 성장 전략

인공지능 시대를 선도하는 NVIDIA의 성장 전략

AI 시장의 강자, NVIDIA에 주목해야 하는 이유

최근 인공지능(AI) 시장에서 주목받고 있는 기업 중 하나는 NVIDIA입니다. 이 회사는 그래픽 처리 장치(GPU)와 시스템 온 칩(SoC) 유닛을 설계 및 공급하는 기술 대기업으로, 특히 데이터 센터 및 전자 기기의 필수적인 부분을 지원하는 역할을 하고 있습니다. 이번 블로그에서는 NVIDIA가 어떻게 인공지능 인프라 지출 증가 속에서 눈에 띄고 있는지 살펴보겠습니다.

그래픽 프로세서의 강자, NVIDIA

NVIDIA의 대표적인 기술 제품군 H100, H200, 그리고 최근에 출시된 Blackwell 시리즈는 AI 붐 속에서 데이터 센터의 표준이 되고 있습니다. GPU 산업에서의 지배적인 시장 점유율 덕분에, NVIDIA는 이미 다른 경쟁업체들보다 우위에 서 있으며, 이는 앞으로의 지속적인 성장을 위한 중요한 원동력이 될 것입니다. 최근 NVIDIA의 블랙웰 AI 프로세서에 대한 높은 수요 때문에, 이 회사는 최근의 분기 매출에서 월스트리트 예상을 능가하는 결과를 기록했습니다.

실적 향상과 미래 전망

데이터 센터 부문에서 356억 달러 이상의 매출을 올린 NVIDIA는, 지난 분기에 총 393억 달러의 매출을 기록하며 월가의 382억 달러 예상치를 뛰어넘었습니다. AI 채택 덕분에 데이터 센터 부문은 NVIDIA의 가장 중요하고 빠르게 성장하는 매출원이 되었으며, 이는 전체 매출의 약 88%를 차지하고 있습니다.

이처럼 강력한 성장세 속에서 많은 투자자들은 인공지능 관련 주식을 통한 투자 수익의 증가 가능성에 큰 기대를 하고 있습니다. 특히, 비싼 수익을 자랑하는 기업들 가운데 조금 더 저렴하게 거래되며 미래 전망이 밝은 차후의 AI 주식을 찾아보시는 것도 좋은 선택지가 될 것입니다.

결론

전반적으로, NVIDIA는 Cliff Asness라는 유명한 투자자가 추천하는 AI 분야의 주목할 만한 블루칩 주식 중 하나로 자리 잡고 있습니다. 하지만, 단기적으로 더 높은 수익률을 기대한다면 다른 AI 주식을 탐색해보는 것도 좋습니다. NVIDIA의 성공 사례는 AI 기술의 중요성과 지속 가능한 성장을 위한 혁신의 중요성을 또 한 번 입증하고 있습니다.

세부적으로 알아보고 싶은 다른 AI 주식에 대한 정보는 계속해서 업데이트될 예정이니, 놓치지 않도록 주목하세요!

엔비디아 AI칩 최신 B100(Blackwell) 과 기존 H100의 차이점(feat.HBM)

엔비디아 AI칩 최신 B100(Blackwell) 과 기존 H100의 차이점(feat.HBM)

엔비디아 AI칩 최신 B100(Blackwell) 과 기존 H100의 차이점(feat.HBM)

엔비디아 AI칩 최신 B100(Blackwell) 과 기존 H100의 차이점(feat.HBM)
‘GTC 2024’ 엔비디아 개발자 콘퍼런스의 젠슨 황

 

  • 기존 최고 AI칩 H100 보다 <<< 차세대 AI칩 B100(Blackwell GPU)의 연산처리속도가 단일 칩으로 2.5배 더 빠름
  • 성능의 가장 큰 차이인 트랜지스터
    H100의 트랜지스터 800억개  <<< B100의 트랜지스터 2080억개 (단, 한 칩에 많은 양의 트랜지스터를 넣을 수 없어 두개의 GPU가 하나의 칩으로 작동하는 B200 적용. 즉, B100 2개가 기본)
  • 이날 선 보인 수퍼칩 ‘GB200(‘GB200’은 B200 GPU 2개 + 자체 중앙처리장치(CPU) ‘그레이스’ 로 구성)으로는 기존의 H100보다 최대 30배 빠르며, 전력소모는 기존의 1/25 이고, 거대언어모델(LLM) 추론 성능이 향상됐다. (*Blackwell은 흑인 최초 미국국립과학원에 입회한 데이비드 헤롤드 블랙웰을 기리기 위해 붙인 이름)
  • 현재 B100 GB200의 가격은 공개 X , 현재 H100은 최대 4만 달러(한화 5,360만원)에 판매되고 있는것을 감안한다면, B100은 최소 5만달러(한화 6,700만원)일 것이라 전망.
  • 출시 : 올해 하반기

AI 반도체의 핵심 부품은 고대역폭 메모리 HBM(High Bandwidth Memory)

AI산업이 열림과 동시에 AI반도체 수요가 급증하는 요즘 전세계 D램 시장또한 수요가 늘 예정인 HBMHBM시장을 알아보자

HBM은 D램을 겹겹이 쌓아 속도를 높이고 전력소비를 줄인 고성능 메모리 반도체이다

  • 현재 HBM의 선두주자는 ‘SK하이닉스’ (삼성은 기존에 HBM의 글로벌 사업성이 없다 판단하고 사업을 철수한 이력이 있음.)
  • 글로벌 시장50%를 ‘SK하이닉스’ / 40%를 ‘삼성’ / 10%를 미국의 ‘마이크론’ 즉, 글로벌 수요를 SK하이닉스삼성의 거의 양분하고 있다.
  • SK하이닉스 = HBM3(4세대) 엔비디에아 독점 공급중 / 최신 HBM3E(5세대) 이달부터 양산 및 공급/ 엔비디아 B100에 장착 / 
  • 삼성 = 지난 달 세계 최초 HBM3E 12단 제품 개발 성공 / 올해 상반기 양산 시작 

(*블랙웰 제조는 타이완 TSMC가 맡을 예정)

B100이 등장하며 한층 진화한 초거대 AI출현의 기반이 마련된 셈이다.

새로운 AI 산업 혁명이 앞으로 어떻게 흘러갈지 주의깊게 봐야할 것!

“강민경이 애정하는 호박 호밀빵! Roux Bake (호밀이 좋은 이유)” ‹ 3min info —