De eerste versie van geheugen met hoge bandbreedte (HBM) was beperkt tot een maximale snelheid van 128 GB/s per stapel. Maar er is één belangrijk voorbehoud: vanwege fysieke beperkingen zijn grafische kaarten die de HBM1 gebruiken beperkt tot 4 GB geheugen.
In de loop van de tijd hebben HBM-fabrikanten zoals SKHynix en Samsung de tekortkomingen van HBM verbeterd. De eerste update, HBM2, verdubbelde de potentiële snelheden tot 256 GB/s per stack, waardoor de maximale capaciteit op 8 GB kwam. In 2018 werd HBM2 licht geüpdatet (HBM2E), werd de capaciteitslimiet verder verhoogd naar 24GB en werd ook de snelheid weer verhoogd om uiteindelijk een piek van 460GB/s per chip te bereiken.
Na de lancering van HBM3 verdubbelde de snelheid opnieuw, tot een maximale snelheid van 819GB/s per stack. Nog indrukwekkender is dat de capaciteit bijna is verdrievoudigd, van 24 GB naar 64 GB. Net als HBM2E krijgt HBM3 nog een mid-cycle upgrade, HBM3E, die de theoretische snelheden verhoogt tot 1,2 TB/s per stack.
In de loop van de tijd werd HBM in grafische kaarten voor consumenten geleidelijk vervangen door scherper geprijsd GDDR-geheugen. Geheugen met hoge bandbreedte wordt standaard in datacenters, en fabrikanten van grafische kaarten op de werkplek kiezen ervoor om snellere interfaces te gebruiken.
Te midden van verschillende updates en verbeteringen behoudt HBM in alle iteraties dezelfde 1024-bits (per stapel) interface. Volgens een rapport uit Zuid-Korea kan dit eindelijk veranderen als HBM4 op de markt komt. Als de berichten waar zijn, zal de geheugeninterface verdubbelen van 1024 bits naar 2048 bits.
In theorie zou de overstap naar een 2048-bits interface de overdrachtssnelheid opnieuw kunnen verdubbelen. Helaas zijn geheugenfabrikanten mogelijk niet in staat dezelfde overdrachtssnelheden te handhaven met HBM4 vergeleken met HBM3E. Dankzij hogere geheugeninterfaces kunnen fabrikanten echter minder stapeling in grafische kaarten gebruiken.
NVIDIA's vlaggenschip AI grafische kaart H100 maakt momenteel bijvoorbeeld gebruik van zes 1024-bit gestapelde dies, waardoor een 6144-bit interface mogelijk is. Als de geheugeninterface zou worden verdubbeld tot 2048 bits, zou NVIDIA het aantal chips theoretisch kunnen halveren tot drie en dezelfde prestaties kunnen behalen. Het is natuurlijk onduidelijk welke aanpak fabrikanten zullen volgen, aangezien HBM4 vrijwel zeker de komende jaren niet in productie zal gaan.
Momenteel geloven zowel SK Hynix als Samsung dat wanneer ze beginnen met de productie van HBM4, ze een “opbrengst van 100%” zullen kunnen behalen. Alleen de tijd zal leren of deze rapporten stand houden, dus wees voorzichtig met dit nieuws.
toegang:
Jingdong-winkelcentrum