Woensdag bracht AMD zijn langverwachte nieuwe MI300-serie AI-chips uit, waaronder MI300A- en MI300X-chips, gericht op deze markt die wordt gedomineerd door NVIDIA. De nieuwe chip van AMD heeft ruim 150 miljard transistors. Het geheugen van de nieuwe chip is 2,4 keer zo groot als dat van Nvidia's H100-product en de geheugenbandbreedte is 1,6 keer zo groot als die van de H100. AMD heeft zijn voorspelling voor de marktomvang van de AI-accelerator in 2027 bijna verdubbeld ten opzichte van augustus.
Woensdag bracht AMD zijn langverwachte nieuwe MI300-serie AI-chips uit, waaronder MI300A- en MI300X-chips, gericht op deze markt die wordt gedomineerd door NVIDIA. Dergelijke chips zijn beter dan traditionele computerprocessors in het verwerken van de grote datasets die betrokken zijn bij AI-training.
Deze nieuwe productlancering is een van de belangrijkste in de 50-jarige geschiedenis van AMD en zal naar verwachting de positie van Nvidia op de hete markt voor kunstmatige intelligentie-accelerators op de proef stellen.
De nieuwe chips die AMD uitbrengt, hebben ruim 150 miljard transistors. De MI300X-accelerator ondersteunt tot 192 GB HBM3-geheugen.
Het geheugen van MI300X is 2,4 keer zo groot als dat van NVIDIA H100-producten, en de geheugenbandbreedte is 1,6 keer zo groot als die van H100, waardoor de prestaties verder worden verbeterd.
De prestaties van de nieuwe MI300X-chip kunnen tot 60% worden verbeterd in vergelijking met Nvidia's H100. In een één-op-één vergelijking met de H100 (Llama270B-versie) verbeterden de prestaties van de MI300X met maximaal 20%. In een één-op-één vergelijking met de H100 (FlashAttention2-versie) verbeterden de prestaties met maximaal 20%. In een 8-op-8-serververgelijking met H100 (Llama270B-versie) zijn de prestaties met maximaal 40% toegenomen. In een 8-op-8 serververgelijking met H100 (Bloom176B) namen de prestaties met wel 60% toe.
AMD-CEO Lisa Su zei dat de nieuwe chip gelijkwaardig is aan de H100 in termen van zijn vermogen om kunstmatige intelligentie-software te trainen. In termen van gevolgtrekking, dat wil zeggen het proces van het uitvoeren van de software nadat deze daadwerkelijk in gebruik is genomen, is dit veel beter dan concurrerende producten.
Met de populariteit van kunstmatige intelligentie is er op de markt veel vraag naar hoogwaardige chips. Hierdoor kunnen chipfabrikanten zich op deze lucratieve markt richten en de lancering van hoogwaardige AI-chips versnellen.
Hoewel de concurrentie op de gehele AI-chipmarkt behoorlijk hevig is, deed AMD woensdag een gedurfde en schokkende voorspelling over de toekomstige marktomvang, in de overtuiging dat de AI-chipmarkt snel zal groeien. Concreet wordt verwacht dat de markt voor kunstmatige intelligentie (AI)-chips in 2027 ruim $400 miljard zal bereiken, bijna het dubbele van de $150 miljard die in augustus werd voorspeld, wat de snel veranderende verwachtingen voor AI-hardware onderstreept.
AMD heeft er steeds meer vertrouwen in dat zijn MI300-serie een aantal technologiegiganten kan overtuigen, wat zou kunnen leiden tot miljarden dollars aan uitgaven van deze bedrijven aan AMD-producten. AMD zei dat Microsoft, Oracle en Meta allemaal zijn klanten zijn.
Uit nieuws op dezelfde dag bleek dat Microsoft de vraag naar AMD's AI-acceleratorproducten zal evalueren en de haalbaarheid van de adoptie van het nieuwe product zal evalueren. Meta zal AMD's nieuw gelanceerde MI300X-chipproducten in het datacenter gebruiken. Oracle zei dat het de nieuwe chips van AMD zal gebruiken in zijn clouddiensten.
Eerder verwachtte de markt dat de MI300-serie van AMD in 2024 ongeveer 300.000 tot 400.000 eenheden zou leveren, waarbij Microsoft en Google de grootste klanten zouden zijn. Zonder het beperkte TSMC CoWoS-capaciteitstekort en Nvidia's al meer dan 40% van zijn productiecapaciteit geboekt, zullen de leveringen van AMD naar verwachting naar boven worden bijgesteld.
De aandelenkoers van NVIDIA daalde met 1,5% nadat het nieuws over AMD's MI300X-accelerator bekend werd gemaakt. De aandelenkoers van Nvidia is dit jaar omhooggeschoten, waardoor de marktwaarde op meer dan $1 biljoen is gekomen, maar de grootste vraag is hoe lang het de acceleratormarkt kan monopoliseren. AMD zag zijn eigen kans: grote taalmodellen vereisen veel computergeheugen, en dit is waar AMD zijn voordeel ziet.
Om zijn marktdominantie te consolideren, ontwikkelt Nvidia ook zijn eigen chips van de volgende generatie. De H100 zal in de eerste helft van volgend jaar worden vervangen door de H200, die vorige maand werd gelanceerd en een nieuw supersnel geheugen biedt dat tweemaal zo snel gevolgtrekkingen kan maken als de H100 op Llama2. Daarnaast zal Nvidia later dit jaar een nieuwe processorarchitectuur lanceren.