Nvidia працює над AI GPU з пам’яттю HBM3E на 144 ГБ

0
359 views
Nvidia працює над AI GPU з пам'яттю HBM3E на 144 ГБ

За даними TrendForce, Nvidia працює над наступним поколінням графічних процесорів B100 та B200, які базуються на архітектурі Blackwell. Очікується, що нові графічні процесори вийдуть на ринок у другій половині цього року і будуть використовуватися для хмарних клієнтів CSP. Для тих, хто не знає, “хмарні клієнти CSP” – це клієнти, які використовують постачальників хмарних послуг (CSP) для своїх потреб у хмарних обчисленнях. Компанія також додасть спрощену версію B200A для корпоративних клієнтів OEM-виробників, які потребують периферійного штучного інтелекту.

Повідомляється, що потужність упаковки TSMC CoWoS-L (яка використовується в серії B200) продовжує залишатися обмеженою. Зазначається, що B200A перейде на відносно просту технологію упаковки CoWoS-S. Компанія зосереджується на B200A, щоб задовольнити вимоги постачальників хмарних послуг.

Технічні характеристики B200A:

На жаль, технічні характеристики B200A ще не до кінця зрозумілі. Наразі можна лише підтвердити, що об’єм пам’яті HBM3E зменшено з 192 ГБ до 144 ГБ. Також повідомляється, що кількість шарів мікросхеми пам’яті зменшено вдвічі – з восьми до чотирьох. Тим не менш, ємність одного чіпа збільшена з 24 ГБ до 36 ГБ.


Енергоспоживання B200A буде нижчим, ніж у графічних процесорів B200, і він не потребуватиме рідинного охолодження. Повітряна система охолодження нових графічних процесорів також зробить їх більш простими в налаштуванні. Очікується, що B200A буде поставлений OEM виробникам приблизно в другому кварталі наступного року.

Дослідження ланцюжка поставок показують, що основні поставки висококласних графічних процесорів NVIDIA в 2024 році будуть засновані на платформі Hopper: H100 і H200 для північноамериканського ринку і H20 для китайського ринку. Оскільки B200A стане доступним приблизно в другому кварталі 2025 року, очікується, що він не буде заважати H200, який з’явиться в третьому кварталі або пізніше.