Ieri abbiamo dato notizia della futura contrazione della produzione delle memorie DDR e NAND Flash, a causa della diminuzione delle vendite di PC nel settore Consumer. Oggi, attraverso TrendForce, veniamo a sapere che, grazie alla grande richiesta di macchine dedicate all'Intelligenza Artificiale, Samsung, Micron e Hynix SK aumenteranno la produzione delle memorie HBM (in tutte le varianti oggi utilizzate) per venire incontro alla crescente Domanda: "TrendForce analysis indicates that 2023 to 2024 will be pivotal years for AI development, triggering substantial demand for AI Training chips and thereby boosting HBM utilization".

NVIDIA, per i propri modelli di punta, dall'attuale H100 al futuro GH200, farà uso delle memorie HBM3, e la quantità richiesta sarà consistente. Per fare un esempio, GH200 (uArch Grace) integrerà ben 144GB di HBM3e, oltre a 480GB di LPDDR5X (Anche quest'ultima tipologia di memoria subirà un boost nella produzione): "SK Hynix currently holds the lead in HBM3 production, serving as the principal supplier for NVIDIA’s server GPUs".

Oltre a NVIDIA, anche AMD, Amazon, Google ed altre case faranno ampio uso delle memorie HBM, sia per soluzioni GPGPU sia per gli ASIC. Per queste ragioni i prezzi delle memorie HBM sono destinati a scendere nell'arco dei prossimi trimestri, a tutto vantaggio delle spese di implementazione delle soluzioni dedicate all'IA da parte delle grandi aziende: "From a long-term perspective, TrendForce notes that the ASP of HBM products gradually decreases year on year. Given HBM’s high-profit nature and a unit price far exceeding other types of DRAM products, suppliers aim to incrementally reduce prices to stimulate customer demand, leading to a price decline for HBM2e and HBM2 in 2023".