Home Politiek Microsoft-onderzoekers bouwen 1-bit AI LLM met 2B-parameters-model klein genoeg om op sommige...

Microsoft-onderzoekers bouwen 1-bit AI LLM met 2B-parameters-model klein genoeg om op sommige CPU’s te worden uitgevoerd

9
0

Microsoft-onderzoekers hebben zojuist Bitnet B1.58 2B4T gemaakt, een open-source 1-bit groot taalmodel (LLM) met twee miljard parameters die zijn getraind op vier biljoen tokens. Maar wat dit AI -model uniek maakt, is dat het lichtgewicht genoeg is om efficiënt op een CPU te werken, waarbij TechCrunch zegt dat een Apple M2 -chip het kan uitvoeren. Het model is ook direct beschikbaar op knuffelgezicht, waardoor iedereen ermee kan experimenteren.

Bitnets gebruiken 1-bits gewichten met slechts drie mogelijke waarden: -1, 0 en +1-technisch gezien is het een “1.58-bit model” vanwege de ondersteuning voor drie waarden. Dit bespaart veel geheugen in vergelijking met reguliere AI-modellen met 32-bit of 16-bits floating-point-formaten, waardoor ze veel efficiënter kunnen werken en minder geheugen- en rekenkracht nodig hebben. De eenvoud van Bitnet heeft echter één nadeel – het is minder nauwkeurig in vergelijking met grotere AI -modellen. Bitnet B1.58 2B4T maakt dit echter goed met zijn massale trainingsgegevens, die naar schatting meer dan 33 miljoen boeken zijn.

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in