Home » OpenAI släpper två öppna AI-modeller gpt-oss-120b och gpt-oss-20b

OpenAI släpper två öppna AI-modeller gpt-oss-120b och gpt-oss-20b

  • OpenAI har släppt gpt-oss-120b och gpt-oss-20b, två avancerade språkmodeller med öppna vikter under Apache 2.0-licensen.
  • gpt-oss-120b matchar nästan OpenAI o4-mini i grundläggande resonemang och kan köras på en enda 80 GB GPU.
  • gpt-oss-20b jämförbar med OpenAI o3-mini, kan köras på edge-enheter med 16 GB minne.
  • OpenAI har samarbetat med partners som AI Sweden och Snowflake för att utveckla användningsområden för modellerna och arbetar med ledande plattformar och hårdvaruleverantörer för bred tillgänglighet.

Efter sex års tystnad på fronten för öppna modeller har OpenAI äntligen levererat något riktigt spännande. De har precis släppt gpt-oss-120b och gpt-oss-20b – två kraftfulla AI-modeller som du faktiskt kan ladda ner och köra på din egen dator. Det här är första gången sedan GPT-2 som OpenAI väljer att göra sina modeller fritt tillgängliga.

Testa att Chatta med OSS:På OpenRouter kan man interagera med och använda OpenAI GPT OSS 120B-modellen. https://openrouter.ai/openai/gpt-oss-120b

Vad gör dessa modeller så speciella?

Båda modellerna kommer med Apache 2.0-licens, vilket betyder att du kan använda dem både kommersiellt och privat utan några konstigheter. Det som verkligen imponerar är prestandan – gpt-oss-120b presterar nästan lika bra som OpenAIs egna o4-mini modell, medan den mindre gpt-oss-20b matchar o3-mini i många tester.

Systemkrav att känna till

Här kommer den viktiga biten – vad krävs för att köra dessa modeller? gpt-oss-120b är den större modellen med 117 miljarder parametrar och kräver hela 80 GB VRAM för att fungera optimalt. Det betyder i praktiken att du behöver professionell hårdvara som en H100 GPU 

gpt-oss-20b är däremot mycket mer tillgänglig med sina 21 miljarder parametrar och behöver bara 16 GB minne. Det här gör den perfekt för vanliga datorer och till och med laptops med ordentligt med RAM.

NVIDIA har samarbetat med OpenAI för att optimera deras nya öppna källkods GPT-modeller för NVIDIA GPU:er, vilket möjliggör snabb och intelligent inferens från molnet till PC:n. 

Gpt-oss-20b och gpt-oss-120b kan köras på RTX GPU:er med hjälp av verktyg som Ollama och Microsoft AI Foundry Local, Det enklaste sättet att testa dessa modeller på RTX AI-datorer, på GPU:er med minst 24 GB VRAM.

Så Installerar du modellerna lokalt

Det enklaste sättet att komma igång är genom Ollama, som är ett verktyg designat för att köra AI-modeller lokalt. Först behöver du installera Ollama på din dator, vilket du gör genom att gå till deras officiella hemsida 

När Ollama är installerat kan du köra modellerna direkt från terminalen. För gpt-oss-20b (som är den mest praktiska för hemmabruk) behöver du bara skriva några enkla kommandon så ordnar Ollama resten åt dig.

Alternativt finns modellerna tillgängliga på Hugging Face där du kan ladda ner vikterna direkt. Båda modellerna är kvantiserade i MXFP4-format vilket drastiskt minskar minneskraven utan att förlora för mycket prestanda.

Mer info:

Länkar till AI-verktygen:

Related Posts

Leave a Reply

Your email address will not be published. Required fields are marked *