본문 바로가기
카테고리 없음

엔비디아의 차세대 AI 칩 B100(Blackwell 시리즈)을 알아보자.

by 라마님 2024. 3. 26.

엔비디아 B100: 차세대 AI 혁명을 이끌어갈 칩

 

엔비디아 B100은 2022년 3월 GTC 2022에서 공개된 엔비디아의 차세대 AI 칩입니다. H100의 후속제품으로, 7mm 공정으로 제작되고 있으며, 576억 개의 트랜지스터를 탑재합니다.

 

1. B100이란 무엇인가?

 

B100은 엔비디아가 출시한 최신 AI 칩입니다.

이전 모델인 H100의 후속 제품이며, 더 빠르고 강력하며 효율적인 칩입니다.

 

2. B100의 특징은 무엇일까?

 

  • B100은 H100 대비 FP32 성능 2배, INT8 성능 4배 향상을 제공합니다. FP32는 일반적인 딥러닝 작업에서 사용되는 데이터 형식이고 , INT8은 정수 데이터 형식입니다.
  • HBM 3 메모리를 탑재했습니다. 기존 HBM2 대비 대역폭과 용량이 2배 향상되었습니다.
  • 다양한 활용 분야에서 활용될 수 있습니다. 데이터센터, 클라우드, 자율주행 자동차, 가상 현실, 증강 현실 등 다양한 분야에서 B100의 성능을 활용할 수 있습니다.
  • 예를 들어 챗 GPT에 필요한 GPT 모델 훈련을 시킬 때 기존 Hopper 시리즈 (H100) 칩 8000개와 15 메가와트가 필요했던 반면 새로 나온 Blackwell(B100) 칩의 경우 칩 2000개와 4 메가 와트만 있어도 된다고 합니다. (전력효율 UP)

3. HBM 칩이란 무엇인가?

 

2013년 세계 최초로 SK하이닉스가 개발 하였으며 고대역폭 메모리입니다.

다수의 D램 칩을 수직으로 쌓아서 데이터 처리속도를 크게 올리는 고성능 메모리 반도체입니다.

D램은 낱개로 하나하나 판매하는 것에 비해 HBM은 패키징 해서 묶어서 팔 수 있기 때문에 당연히 부가가치가 높은 기술이 HBM이라고 할 수 있습니다.

 

4. B100의 가격

 

애널리스트들은 엔비디아의 새로운 칩이 5만 달러일 것으로 추청을 하고 있고 이는 전작(H100)의 두 배가 될 것으로 보고 있습니다.

 

가격이 꽤 비싸질 것으로 예상이 되고 있지만 그럼에도 불구하고 이 칩을 사겠다고 줄을 설 정도로 이 칩에 대한 관심이 폭발하고 있는 상황입니다.

 

5. B100 출시일은 언제가 될까?

 

2024년 하반기로 알려져 있으나 2024년 상반기에 출시를 고려하고 있는 것으로 알고 있습니다. 

 

6. 성능

 

B100은 TSMC 4nm 공정으로 제작되고 있으며, 576억 개의 트랜지스터를 탑재합니다. FP32 성능은 184 TFLOPS, INT8 성능은 736 TOPS입니다. 이는 H100 대비 크게 향상된 수치라고 할 수 있습니다.

 

7. 메모리

 

B100은 HMB의 3세대인 HBM3 메모리를 탑재합니다. 기존 HBM2 대비 대역폭은 1872 GB/s, 용량은 128GB입니다.

전 세대에 비해 두 배 이상의 데이터 처리 속도와 용량을 크게 향상했습니다.

 

8. 활용 분야

 

B100은 데이터 센터, 클라우드, 자율 주행 자동차, 가상 현실, 증강 현실 등 다양한 분야에서 활용될 수 있습니다.

 

  • 데이터 센터: 머신 러닝, 딥 러닝, 고성능 컴퓨팅
  • 클라우드: 인공 지능 as a Service(AIaaS), 머신 러닝 as a Service (MLaaS), 딥 러닝 as a Service (DaaS)
  • 자율 주행 자동차: 인공 지능 기반 자율 주행 시스템, 주변 인식, 경로 계획
  • 가상현실: 고화질 가상 현실 콘텐츠 제작, 상호 작용 가능한 증강 현실 경험

 

엔비디아 GTC 웹사이트

 

http://www.nvidia.com/en-us/on-demand/

 

댓글