De China Academy of Information and Communications Technology heeft vandaag aangekondigd dat het officieel de lokalisatie-aanpassingstest van DeepSeek V4 heeft gelanceerd om diepgaande samenwerking tussen het model en binnenlandse software en hardware te bevorderen en de industriële implementatie te versnellen.Deze test werd uitgevoerd op basis van het Key Laboratory van het Ministerie van Industrie en Informatietechnologie en het AISHPerf-benchmarksysteem, dat full-stack AI-software en hardwareproducten omvat, zoals chips, servers, alles-in-één machines, clusters, ontwikkelingstoolketens en intelligente computerplatforms, waarbij de nadruk ligt op de inferentie- en verfijningsprocessen van de volledige serie DeepSeek V4-modellen.

De evaluatie evalueert vanuit vijf dimensies: aanpassingsgemak, functionele volledigheid, optimalisatie-effect, prestaties en kosten, en voegt nieuwe speciale indicatoren toe zoals sequentieverwerking, codemogelijkheden, succespercentage van agentoproepen en taakdemontage om een ​​driedimensionaal evaluatiesysteem te vormen.

Op de dag van de release heeft DeepSeek V4 een Dag-0-aanpassing bereikt voor meerdere binnenlandse hardware, waarmee de intrede van binnenlandse AI-software en hardware in de iteratiefase met dezelfde frequentie wordt gemarkeerd.

Deze test zal het aanpassingsniveau objectief verifiëren, de steun van de binnenlandse rekenkracht versterken en de constructie van een onafhankelijk en controleerbaar AI-ecosysteem versnellen.

DeepSeek V4 bevat twee versies: V4-Pro (Flagship Edition) en V4-Flash (Lightweight Edition). Beide versies ondersteunen standaard 1 miljoen ultralange Token-contexten (ongeveer 750.000 woorden). Ze gebruiken een zelfontwikkeld DSA-sparse-aandachtsmechanisme om de kosten van gevolgtrekking voor een miljoen contexten met 70% te verminderen en het geheugengebruik met 40% te verminderen.

V4-Pro: De totale parameters bereiken 1,6 biljoen en de activeringsparameters zijn 49B. Het richt zich op de hoogste prestatielimiet, benchmarkt met 's werelds beste closed-sourcemodellen zoals GPT-5 en Claude Opus, en is geschikt voor complex redeneren, het genereren van codes, berekeningen van wetenschappelijk onderzoek en andere moeilijke taken.

V4-Flash: Totale parameters 284B, activeringsparameters 13B, gericht op hoge efficiëntie en lage kosten, redeneervermogen dicht bij de Pro-versie, hogere snelheid, lagere prijs, geschikt voor dagelijkse interactie, contentcreatie, lichtgewicht implementatie van ondernemingen en andere scenario's.