Wer steckt hinter den neuen Open-Weight-Modellen – und was bedeuten sie für die Zukunft sicherer, transparenter KI?
OpenAI hat zwei neue offene Modelle vorgestellt, die für viel Aufmerksamkeit sorgen dürften: gpt-oss-120B und gpt-oss-20B. Beide gehören zur Klasse der sogenannten Reasoning-Modelle – also Systeme, die nicht nur Antworten generieren, sondern logisch denken, komplexe Zusammenhänge erfassen und Entscheidungen nachvollziehbar begründen können.
Die Besonderheit: Sie sind offen. Das bedeutet, nicht nur der Code, sondern auch die trainierten Parameter sind frei zugänglich. Das macht es möglich, die Modelle auf eigener Infrastruktur zu betreiben – zum Beispiel in Unternehmen oder sicherheitskritischen Umgebungen. OpenAI betont: gpt-oss-120B erreiche die Leistung des firmeneigenen Modells o4-mini – laufe aber auf nur einer 80-GB-GPU. Das kleinere 20B-Modell eigne sich sogar für den Einsatz auf Geräten mit 16 GB Arbeitsspeicher.
Doch diese Offenheit bringt auch Risiken mit sich. Genau deshalb hatte OpenAI die Veröffentlichung zunächst verschoben. Jetzt kommen die Modelle mit einem neuen Sicherheitsstandard: dem sogenannten „Worst-Case-Fine-Tuning“. Dabei wird simuliert, wie ein Modell in besonders sensiblen Bereichen – etwa Biologie oder IT-Security – missbraucht werden könnte. Ziel: Schwachstellen erkennen und eliminieren, bevor reale Schäden entstehen. OpenAI hat den Evaluierungscode sowie Prompts und Kriterien öffentlich zugänglich gemacht – für maximale Transparenz.
Gleichzeitig stellt das Unternehmen Tools und Anleitungen bereit, mit denen die Modelle an eigene Anforderungen angepasst und mit Sicherheitsmechanismen ausgestattet werden können. Die Lizenz? Apache 2.0 – also offen, kostenfrei und flexibel einsetzbar. Ob bei Hugging Face, vLLM oder llamaa.cpp: Die Integration soll so einfach wie möglich sein.
