Mit der Einführung des o1-Modells zeigt OpenAI neue Wege auf, wie Rechenleistung bei der KI-Inferenz effizient genutzt werden kann.
OpenAI hat mit seinem neuen o1-Modell eine vielversprechende Lösung entwickelt, um die Rechenleistung bei der Inferenz zu skalieren und so bessere Ergebnisse bei längeren Antwortzeiten zu erzielen. Das Besondere: Das Modell wurde mit der beliebten „Schritt-für-Schritt“-Prompting-Methode trainiert, die ihm erlaubt, komplexe Aufgaben effizienter zu bearbeiten.
Ein aktueller Vergleich von Forschern des KI-Analyseunternehmens Epoch AI zeigt, dass o1 besonders in anspruchsvollen Multiple-Choice-Benchmarks in den Naturwissenschaften deutlich besser abschneidet als GPT-4o, ein weiteres Modell aus dem Hause OpenAI. Trotz der Generierung einer großen Anzahl von Tokens und der Nutzung fortgeschrittener Methoden wie Revisions und Majority Voting konnten die Forscher nicht die gleiche Genauigkeit wie beim o1-Modell erreichen. Selbst bei sehr hohen Token-Ausgaben von bis zu 1000 USD blieb die Leistung von GPT-4o mehr als 10 Prozentpunkte hinter der von o1-preview zurück.
Diese Ergebnisse verdeutlichen, dass eine simple Skalierung der Rechenleistung bei der Inferenz nicht ausreicht, um die Leistungsunterschiede auszugleichen. Forscher vermuten, dass algorithmische Innovationen, wie fortgeschrittene Reinforcement-Learning-Techniken und bessere Suchmethoden, die überlegene Performance von o1 erklären könnten. Gleichzeitig wird angenommen, dass auch die Trainingsdatenqualität eine entscheidende Rolle spielt: Das o1-Modell wurde mit korrekten Denkpfaden trainiert und scheint dadurch in der Lage zu sein, effizientere Lösungen zu finden.