3. März 2025

GPT-4.5: Fortschritt mit Feinschliff statt Revolution

OpenAI hat mit GPT-4.5 sein bisher größtes Sprachmodell als „Research Preview“ vorgestellt. Doch statt auf Benchmark-Rekorde zu setzen, überzeugt das Modell mit subtilen Verbesserungen und einer natürlich wirkenden Gesprächsführung. Welche Neuerungen bringt GPT-4.5 wirklich?

GPT-4.5 steht zunächst nur Nutzern von ChatGPT Pro und Entwicklern zur Verfügung. Plus- und Team-Nutzer sollen in Kürze folgen. Das Modell basiert weiterhin auf unüberwachtem Lernen und unterscheidet sich damit deutlich von den „Reasoning“-Modellen der o1-Serie, die komplexe Fragestellungen durch Nachdenken lösen. GPT-4.5 hingegen antwortet direkt und setzt auf die bewährte Methode der Skalierung durch Pre-Training.

Mit einer Kontextlänge von 128.000 Token bleibt das Modell seinem Vorgänger treu, ist jedoch deutlich kostspieliger. Mit 75 Dollar pro Million Input-Token und 150 Dollar pro Million Output-Token ist GPT-4.5 wesentlich teurer als seine Vorgänger. OpenAI gibt sich daher unsicher, ob das Modell langfristig über die API angeboten wird.

In Benchmark-Tests zeigt GPT-4.5 gemischte Ergebnisse. Im SimpleQA-Test erreicht es eine Genauigkeit von 62,5 %, übertrifft damit GPT-4o deutlich. Auch die Halluzinationsrate konnte von 61,8 % auf 37,1 % gesenkt werden. Bei multilingualen und multimodalen Aufgaben wie MMMLU und MMMU schneidet das Modell ebenfalls besser ab als seine Vorgänger. In menschlichen Bewertungstests punktet GPT-4.5 besonders in den Bereichen kreative Intelligenz und Alltagsfragen.

Trotz der Verbesserungen bleibt GPT-4.5 hinter den Reasoning-Modellen wie o3-mini zurück, insbesondere in MINT-Fächern. Bei Mathematik-Tests wie AIME ’24 erzielt es 36,7 % und liegt damit weit hinter o3-mini mit 87,3 %. Auch bei Codierungsaufgaben schneidet es besser ab als GPT-4o, bleibt jedoch hinter den Spitzenreitern zurück.

OpenAI-CEO Sam Altman beschreibt GPT-4.5 als Modell, das sich eher wie ein Gespräch mit einer nachdenklichen Person anfühlt. Die Verbesserung sei spürbar, aber schwer in Benchmarks zu fassen. Auch Andrej Karpathy, ehemaliges Gründungsmitglied von OpenAI, sieht Fortschritte, die sich jedoch nur schwer messen lassen. Er erklärt, dass jeder 0,5-Schritt der GPT-Modelle etwa einer Verzehnfachung der Trainingsrechenleistung entspricht. Die Evolution der GPT-Modelle zeigt sich weniger durch revolutionäre Sprünge als durch stetige, diffuse Verbesserungen. GPT-4.5 steht exemplarisch für diese Entwicklung: ein Modell, das durch Feinschliff punktet, ohne die Grenzen der bisherigen Technologie zu sprengen.


Wir führen seit Jahren Beratung zu KI (Künstlicher Intelligenz) für KMUs (Klein- und Mittelständische Unternehmen) erfolgreich durch.

Mehr zu aktuellen Themen der #KI (Künstlichen Intelligenz) oder zu

Ihrem individuellen, optimalen "KI-Masterplan" für Ihr Unternehmen finden Sie in unserem Newsletter.

Abonnieren Sie den Newsletter hier:


Tags


Das könnte Sie auch interessieren

Abonnieren Sie jetzt unseren Newsletter!

>