Schweiz har tagit ett betydande steg in i AI-racet med lanseringen av Apertus, en språkmodell som sticker ut från mängden på ett viktigt sätt – den är helt öppen. Till skillnad från de flesta AI-modeller som utvecklas bakom stängda dörrar har schweiziska forskningsinstitutioner valt att dela med sig av allt.
Mer än bara engelska
En av Apertus mest imponerande egenskaper är dess flerspråkighet. Modellen är tränad på över 1000 språk, med 40% av träningsdatan från icke-engelska källor. Det här betyder att språk som schweizisk tyska och romansch som traditionellt varit underrepresenterade i AI-modeller, nu har ordentlig support.
Huvudfunktioner och tekniska specifikationer
- Stöder underrepresenterade språk som schweizertyska och rätoromanska.
- Tränad på över 15 biljoner token över 1000 språk.
- 40% av träningdata är icke-engelska.
- Finns i två storlekar: 8 miljarder parametrar (för individuell användning) och 70 miljarder parametrar.
Apertus kommer i två varianter: En 8 miljarder parameter modell (8B) för individuell användning och en 70 miljarder parameter modell (70B) för mer krävande uppgifter. Modellen är tränad på 15 biljoner tokens, vilket placerar den i samma liga som Meta’s LLaMA 3 från 2024.
Men det som verkligen skiljer Apertus åt är transparensen. Medan andra öppna modeller som Meta’s LLaMA eller DeepSeek bara delar vissa komponenter, ger Apertus dig tillgång till hela utvecklingsprocessen. Det här inkluderar alla mellanliggande checkpoints, träningsrecept och till och med de filter som använts för att rensa bort olämpligt innehåll.
Tillgänglighet och distribution
Användare kan komma åt Apertus genom flera kanaler:
- Swisscoms suveräna AI-plattform
- AI-plattformen Hugging Face
- Public AI Inference Utility för global tillgång
- Testa här: https://publicai.co