Die Ankündigung von Mistral 3 sorgt für Bewegung im KI-Sektor. Was genau macht diese offene Modellfamilie aus Frankreich so bemerkenswert?
Mistral 3 bringt eine breite Palette leistungsfähiger Modelle unter einer freien Lizenz auf den Markt – und positioniert sich damit selbstbewusst zwischen den großen Akteuren aus den USA und China. Die Mischung aus kleinen, effizienten Modellen und einem großen Mixture-of-Experts-System zeigt, wohin die Reise bei europäischen KI-Entwicklungen gehen kann. Besonders spannend ist die klare Ausrichtung auf Offenheit, Skalierbarkeit und praktische Einsatzszenarien.
Die Modellfamilie besteht aus Versionen mit 3, 8, 14 und 675 Milliarden Parametern. Letzteres ist als MoE-System konzipiert, sodass pro Anfrage nur ein Teil des Modells aktiv wird – ein Ansatz, der Leistung und Kosten deutlich optimieren kann. Trainiert wurde das größte Modell auf rund 3000 Nvidia-H200-GPUs, was die Ambitionen hinter dem Projekt unterstreicht.
Alle Modelle stehen unter der Apache-2.0-Lizenz bereit. Das ermöglicht Unternehmen, Forschungseinrichtungen und Entwicklern eine besonders flexible Nutzung. Mistral Large 3 lässt sich etwa auf Blackwell NVL72-Systemen oder einzelnen 8×A100- bzw. 8×H100-Knoten mit vLLM betreiben. Die kleineren Ministral-Modelle sind dagegen speziell auf lokale und Edge-Szenarien ausgerichtet und unterstützen multimodale sowie mehrsprachige Anwendungen.
In Benchmarks zeigt sich ein differenziertes Bild: Während Mistral Large 3 gegenüber Deepseek V3.1 häufig die Nase vorn hat, liegt es in der LM Arena knapp hinter Deepseek V3.2. Für ein europäisches Unternehmen, das sich gegen Tech-Giganten behaupten will, ist das dennoch ein starkes Signal. Neben Mistral gibt es weitere Initiativen wie das Schweizer Modell Apertus, die den europäischen Anspruch im globalen KI-Wettbewerb stärken.
