- De SSD -strategie van Phison daalt AI -training van $ 3 miljoen naar $ 100.000
- Aidaptiv+ Software verschuift AI -workloads van GPU’s naar SSDS efficiënt
- SSDS zou dure GPU’s kunnen vervangen in massale AI -modeltraining
De ontwikkeling van AI -modellen is steeds duurder geworden naarmate hun grootte en complexiteit groeien, waardoor massale rekenbronnen nodig zijn waarbij GPU’s een centrale rol spelen bij het omgaan met de werklast.
Phison, een belangrijke speler in Portable SSDS heeft een nieuwe oplossing onthuld die de kosten van het trainen van een parametermodel van 1 biljoen drastisch verlagen door een deel van de verwerkingsbelasting van GPU’s naar SSD’s te verplaatsen, waardoor de geschatte operationele kosten van $ 3 miljoen tot slechts $ 100.000 worden gebracht.
De strategie van Phison omvat het integreren van zijn AidAPTIV+ -software met krachtige SSD’s voor het verwerken van enkele AI-toolverwerkingstaken die traditioneel worden beheerd door GPU’s, terwijl ook de GH200-superchip van NVIDIA wordt opgenomen om de prestaties te verbeteren en de kosten beheersbaar te houden.
AI-modelgroei en de mijlpaal van biljoen-parameter
Phison verwacht dat de AI -industrie de mijlpaal van 1 biljoen parameter vóór 2026 zal bereiken.
Volgens het bedrijf zijn modelgroottes snel uitgebreid, met 69 miljard parameters in LLAMA 2 (2023) naar 405 miljard met LLAMA 3.1 (2024), gevolgd door de 671 miljard parameters van Deepseek R3 (2025).
Als dit patroon doorgaat, kan een biljoen-parameter model worden onthuld vóór het einde van 2025, wat een belangrijke sprong in AI-mogelijkheden markeert.
Bovendien is het van mening dat de oplossing ervan het aantal GPU’s dat nodig is om grootschalige AI-modellen te uitvoeren aanzienlijk kan verminderen door sommige van de verwerkingstaken van GPU’s naar de grootste SSD’s te verplaatsen en deze aanpak zou trainingskosten kunnen verlagen tot slechts 3% van de huidige projecties (97% besparingen), of minder dan 1/25 van de gebruikelijke operationele kosten.
Phison heeft al Werkte samen met Maingear om AI-werkstations te lanceren die worden aangedreven door Intel Xeon W7-3455 CPU’s, wat aangeeft dat hij AI-hardware hervormt.
Naarmate bedrijven kosteneffectieve manieren zoeken om enorme AI-modellen te trainen, kunnen innovaties in SSD-technologie een cruciale rol spelen bij het stimuleren van efficiëntiewinst, terwijl Externe HDD-opties blijven relevant voor gegevensopslag op lange termijn.
De drang naar goedkopere AI-trainingsoplossingen kreeg momentum nadat Deepseek eerder dit jaar de krantenkoppen had gehaald toen het diepteek-R1-model aantoonde dat geavanceerde AI kon worden ontwikkeld tegen een fractie van de gebruikelijke kosten, met 95% minder chips en naar verluidt slechts $ 6 miljoen nodig had voor training.
Via Tweaktown