Ein weiteres leistungsstarkes Sprachmodell betritt die Bühne – diesmal aus Fernost.
Mit GLM-4.5 veröffentlicht der chinesische Anbieter Z.ai (früher Zhipu) ein bemerkenswert vielseitiges Modell. Doch was macht es besonders – und warum lohnt sich auch ein Blick auf die abgespeckte Variante?
Hybridmodell mit Fokus auf Effizienz
GLM-4.5 kombiniert zwei Welten: Es kann als erklärendes Reasoning-Modell eingesetzt werden oder, wenn es schnell gehen soll, im Non-Reasoning-Modus operieren. Diese Flexibilität hebt es von vielen Mitbewerbern ab. Während andere Anbieter wie Alibaba den Trend umkehren und unterschiedliche Modelle für verschiedene Aufgaben bereitstellen, bleibt GLM-4.5 ein Alleskönner.
Die technische Basis ist beeindruckend: Mit 335 Milliarden Parametern und einer Mixture-of-Experts-Architektur bleibt das Modell trotz seiner Größe überraschend effizient – denn bei jeder Anfrage sind nur 32 Milliarden Parameter aktiv. Durch gezieltes Expertenrouting spart das System Rechenleistung, ohne an Tiefe zu verlieren. Insgesamt 96 Attention-Heads und 92 Layer sorgen für eine ausgeprägte Verarbeitungstiefe, mehr als bei vielen vergleichbaren Modellen.
GLM-4.5-Air: KI auf kleineren Systemen
Für alle, die nicht über gigantische GPU-Farmen verfügen, bietet Z.ai eine kleinere Schwester: GLM-4.5-Air. Mit „nur“ 106 Milliarden Parametern (davon 12 Milliarden aktiv) lässt sich dieses Modell auch auf Systemen mit 64 GB RAM oder einer A100-GPU betreiben. Funktional bleibt es dem großen Bruder ähnlich – ein Kompromiss, der sich sehen lassen kann.
Technische Details zum genauen Verhältnis zwischen den beiden Modellen sind rar. Die bereitgestellten Informationen reichen für Entwickler jedoch aus, um erste eigene Experimente zu starten.
Open Source Training mit „slime“
Besonders spannend ist der Trainingsprozess. Mit der neuen Methode „slime“ – natürlich quelloffen – geht Z.ai neue Wege. Die agentenbasierte Architektur zielt auf maximale Anpassungsfähigkeit und wird in mehreren Phasen trainiert. Das flexible, asynchrone Vorgehen sorgt dafür, dass sämtliche GPUs optimal genutzt werden – ein klares Plus für Forschungsteams mit begrenzten Ressourcen.
Der KI-Markt in Bewegung
Zwar fehlen derzeit noch umfassende Benchmarks in LMarena, doch erste Tests zeigen: GLM-4.5 muss sich vor größeren State-of-the-Art-Modellen im Bereich Agenten-KI nicht verstecken. Dank frei verfügbarer Gewichte kann das Modell direkt ausprobiert werden – sogar eine Folienfunktion ist online verfügbar.
Doch die Konkurrenz schläft nicht. Alibaba feuert mit seiner Qwen-Reihe gleich mehrere Modelle hintereinander raus, darunter Tools für Coder, die auf Speed und Effizienz getrimmt sind. Auch neue Trainingsmethoden wie GSPO oder alternative Optimierer wie Muon zeigen: Der Fortschritt verläuft rasant.
