Jak rośnie zapotrzebowanie na pamięć HBM w serwerach AI?
Jak rośnie zapotrzebowanie na pamięć HBM w serwerach AI?
Zapotrzebowanie na pamięć o dużej przepustowości (HBM) w układach ASIC do obliczeń serwerowych AI ma wzrosnąć 35-krotnie do 2028 roku, według prognoz Counterpoint Research. Wzrost ten jest efektem rozwoju infrastruktury TPU Google’a oraz inwestycji w klastry AWS Trainium i Meta.
Hipeskalerzy, czyli firmy intensywnie rozwijające własne technologie, kontynuują agresywne rozszerzanie swojego portfolio chipów. Ogólna tendencja w branży wskazuje, że HBM staje się kluczowym celem nakładów inwestycyjnych dla nowej generacji obciążeń AI.
Warto zauważyć, że wzrost wolumenu HBM jest także napędzany przez skok gęstości pamięci, która ma wzrosnąć prawie 5-krotnie na układ ASIC do 2028 roku. To oznacza, że układy ASIC do serwerów AI będą zajmować coraz większy procent całego rynku HBM.
- Wzrost zapotrzebowania na HBM
- Inwestycje w infrastrukturę AI
- Rozwój gęstości pamięci
Na podstawie: Źródła







