Google hebt medizinische KI auf ein neues Niveau – doch was bedeutet es konkret, wenn ein Modell komplette CT- und MRT-Scans erfassen kann?
Mit MedGemma 1.5 stellt Google ein deutlich erweitertes Open-Source-Modell für den Gesundheitsbereich vor. Erstmals ist ein öffentlich verfügbares Sprachmodell in der Lage, dreidimensionale medizinische Bilddaten wie vollständige CT- und MRT-Volumensätze zu analysieren. Statt einzelner Bilder verarbeitet das Modell komplette Schichtensammlungen und kann so räumliche Zusammenhänge erkennen, die bislang oft verloren gingen. Gleiches gilt für die Histopathologie, bei der mehrere Gewebebereiche gemeinsam ausgewertet werden können.
Begleitet wird das Update von MedASR, einem speziell für medizinisches Fachvokabular trainierten Spracherkennungsmodell. Die Fehlerquote sinkt im Vergleich zu etablierten General-ASR-Modellen drastisch, insbesondere bei medizinischen Diktaten. Damit wird Sprache zu einer realistischen, natürlichen Schnittstelle für KI-gestützte medizinische Systeme.
Auch die Leistungsdaten unterstreichen den Fortschritt: In internen Benchmarks verbessert sich die Genauigkeit bei CT- und MRT-Klassifikationen deutlich, ebenso bei medizinischem Reasoning und der Extraktion strukturierter Informationen aus Patientenakten. Gleichzeitig betont Google den experimentellen Charakter der Modelle. Sie sind als technologische Basis gedacht, nicht als sofort einsetzbare Diagnosesysteme.
Rechtlich bleibt der Einsatz klar reguliert. Zwar ist MedGemma Open Source, doch die Modellgewichte unterliegen zusätzlichen Gesundheitsauflagen. Für den direkten klinischen Einsatz ist eine behördliche Zulassung erforderlich, und die Verantwortung für den Output liegt vollständig beim Anwender.
