HBM DRAM по-прежнему стоит дорого по сравнению с решением GDDR, которое мы видим в потребительских видеокартах , но цена в основном оправдывает прирост производительности. Именно поэтому HBM в настоящее время поставляется с ускорителями HPC и AI. Это также причина того, почему последние карты Nvidia H100 стоят так дорого, как они оснащены HMB3E DRAM. Южнокорейские источники, близкие к DigiTimes, утверждают, что ситуация вскоре может измениться с появлением стандарта HBM4, который удваивает ширину шины памяти по сравнению с предыдущей версией.

По данным DigiTimes, HBM4 станет самым важным обновлением в истории HBM DRAM, поскольку оно увеличит ширину стековой шины с 1024 бит до 2048 бит. Текущий стандарт HBM3 имеет скорость около 9 ГТ/с на чип, что обеспечивает пиковую пропускную способность 1,15 ТБ/с для всех стеков. Если стандарт HBM4 будет поддерживать такое же количество стеков, пиковая пропускная способность может существенно достичь 2,30 ТБ/с.

Возьмем , к примеру, Nvidia H100 . Эта карта оснащена шестью 1024-битными кристаллами стека HBM3E (KGSD), объединенными в 6144-битный интерфейс. Из-за опасений по поводу увеличения сложности производства стеков памяти с числом переходных отверстий более 1024, компаниям Samsung и SK Hynix придется доказать, что они действительно могут сохранить такое же количество стеков при увеличении ширины шины до 2048 бит, несмотря на заявления о почти 100% доходность.

от Bolat Mukashev

Bolat Mukashev bolat.mukashev@gmail.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *