Google Research har släppt sina mest avancerade öppna AI-modeller för hälso och sjukvårdsutveckling. MedGemma-kollektionen utökas nu med två nya modeller som ska göra det enklare för utvecklare att bygga medicinska AI-applikationer.
Modellerna är tränade på stora mängder medicinsk data och kan bland annat tolka medicinska journaler, analysera medicinska bilder och stödja kliniska beslut. Det gör dem användbara för allt från diagnostik till forskning och utbildning inom vården.
Här är ett demo på Hugging Face
Möjliga användningsområden
MedGemma är designad för att kunna integreras i befintliga hälso och sjukvårdssystem. Exempel på användningsområden är:
- Tolkning av röntgenbilder och annan medicinsk bilddata.
- Analys av patientjournaler och identifiering av riskfaktorer.
- Stöd vid kliniska beslut, exempelvis i diagnosprocessen.
- Forskning och utveckling av nya behandlingsmetoder.
Google har också släppt MedSigLIP en lättviktig bild och textenkoder som är optimerad för klassificering och sökning av medicinska bilder. Den här modellen kan till och med anpassas för att köras på mobila enheter.
MedGemma är baserat på Gemma 3-arkitekturen men har optimerats specifikt för medicinska uppgifter.
Modellerna kommer i tre olika varianter som passar olika behov:
- MedGemma 4B Multimodal – kan hantera både text och bilder.
- MedGemma 27B Text – fokuserar på medicinsk text.
- MedGemma 27B Multimodal – den senaste tillägget som kombinerar text och bilder.