Vandaag heeft Moore Threads officieel aangekondigd dat:De onthullingsceremonie van Moore Threads eerste nationaal geproduceerde trainingsplatform met een capaciteit van 1.000 kamma en 100 miljard modellen, het KUAE Intelligent Computing Center van Moore Thread, werd met succes gehouden.Deze zet betekent dat ookHet eerste grootschalige computercluster van het land, gebaseerd op in eigen land geproduceerde, volledig uitgeruste GPU's, werd officieel gelanceerd.
CEO van Moore Thread, Zhang Jianzhong, zei dat Moore Thread een intelligente computerproductlijn heeft gebouwd, van chips tot grafische kaarten en clusters. Door te vertrouwen op de vele computervoordelen van volledig uitgeruste GPU's, kan het voldoen aan de groeiende behoefte aan training en gevolgtrekking van grote modellen.
Volgens rapporten is de intelligente rekencentrumoplossing van Moore Thread KUAE gebaseerd op een volledig uitgeruste GPU.Het heeft tot doel de constructie- en operationele managementproblemen van grootschalige GPU-rekenkracht op een geïntegreerde manier op te lossen.
Deze oplossing kan out-of-the-box worden gebruikt, waardoor de tijdskosten van de traditionele bouw van rekenkracht, de ontwikkeling van applicaties en de exploitatie en het onderhoud van platformen aanzienlijk worden verminderd, en een snelle lancering op de markt voor commerciële activiteiten wordt gerealiseerd.
Momenteel ondersteunt Moore Thread de training en verfijning van verschillende reguliere grote modellen, waaronder LLaMA, GLM, Aquila, Baichuan, GPT, Bloom, Yuyan, enz.
Gebaseerd op Moore-thread KUAE kilocal cluster,Voor training van grote modellen met parameters van 70B tot 130B kan de lineaire versnellingsratio 91% bereiken.De benuttingsgraad van de rekenkracht blijft in principe ongewijzigd.
Als we de hoeveelheid van 200 miljard trainingsgegevens als voorbeeld nemen,De 70 miljard parameter Aquila2 van het Zhiyuan Research Institute kan de training in 33 dagen voltooien; een model met 130 miljard parameters kan de training in 56 dagen voltooien.