Das neue KI-Modell „o1“ von OpenAI könnte die Welt der künstlichen Intelligenz auf den Kopf stellen. Es verspricht tiefgreifende logische Denkprozesse durch längere Berechnungszeiten und setzt neue Maßstäbe in der Skalierung von Rechenleistung für KI-Modelle.
Ein neuer Standard in der KI-Logik
OpenAI hat mit dem neuen Modell „o1“ einen bedeutenden Schritt in der Weiterentwicklung von KI-Systemen gemacht. Das Besondere: o1 kann länger über Aufgaben nachdenken und schneidet bei logischen Herausforderungen deutlich besser ab. Das Modell durchläuft vor jeder Antwort einen internen „Gedankengang“, der besonders bei komplexen Aufgaben von Vorteil ist. Noam Brown, Mitentwickler des Modells, betont, dass der Schlüssel darin liegt, nicht mehr durch das Pre-Training beschränkt zu sein. Die Rechenleistung für Inferenzen kann nun viel höher skaliert werden, was eine zusätzliche Dimension bei der Skalierung von KI-Modellen eröffnet.
Mehr Rechenleistung für bessere Denkprozesse
Obwohl das o1-Modell derzeit nur wenige Sekunden für seine Berechnungen benötigt, ist OpenAIs langfristige Vision noch ambitionierter. Das Modell soll in der Lage sein, über Stunden oder sogar Tage hinweg über Antworten nachzudenken, was bahnbrechende Anwendungen wie die Entwicklung neuer Medikamente oder die Lösung mathematischer Rätsel wie der Riemann-Hypothese ermöglichen könnte. Allerdings ist o1 nicht immer die bessere Wahl. In vielen Bereichen, die kein komplexes logisches Denken erfordern, kann das ältere GPT-40-Modell effizienter und schneller arbeiten.
o1-mini: Die spezialisierte Variante für MINT-Anwendungen
Für Anwendungen im MINT-Bereich (Mathematik, Informatik, Naturwissenschaften und Technik) hat OpenAI auch eine abgespeckte, kostengünstigere Version des o1-Modells entwickelt – o1-mini. Dieses Modell erzielt bei Mathematik- und Programmieraufgaben fast die gleiche Leistung wie o1, ist jedoch deutlich preiswerter. Besonders bemerkenswert ist die Performance bei Programmierherausforderungen, bei denen o1-mini fast so gut wie das vollwertige o1-Modell abschneidet.
Die Zukunft der KI liegt in der Skalierung Laut OpenAI ist das o1-Modell nur der Anfang einer neuen Ära von KI-Modellen, bei denen die Rechenleistung stärker auf die Inferenzen verlagert wird. Nvidia-Forscher Jim Fan sieht hierin ein neues Paradigma, das das Potenzial hat, die Art und Weise, wie KI-Modelle arbeiten, grundlegend zu verändern. Durch diese Entwicklung könnte die Trennung von logischem Schlussfolgern und der Speicherung von Fakten bald in viele KI-Anwendungen Einzug halten.