Die Schweiz macht einen großen Schritt in Richtung digitaler Souveränität. Doch wie stark ist ihr neues KI-Modell Apertus wirklich?
Mit Apertus haben die ETH Zürich, die EPF Lausanne und das Supercomputing-Zentrum CSCS ein mehrsprachiges Large Language Model (LLM) veröffentlicht, das Offenheit und Transparenz ins Zentrum stellt. Anders als viele internationale Systeme erfüllt es bereits heute die Anforderungen des EU AI Act – ein klarer Vorteil in Sachen Regulierung und Vertrauen.
Das Modell wurde mit rund 15 Billionen Tokens trainiert, wobei 40 Prozent nicht-englische Inhalte abgedeckt sind. Besonders spannend: Neben großen Weltsprachen berücksichtigt Apertus auch Schweizerdeutsch und Rätoromanisch, die in anderen KI-Systemen kaum Beachtung finden. Damit richtet es sich nicht nur an die Forschung, sondern auch an Anwender, die regionale Sprachen einbeziehen möchten.
Ein Highlight ist die konsequente Offenheit: Architektur, Modellgewichte und Trainingsdaten sind frei verfügbar. Außerdem werden Opt-out-Wünsche respektiert und sensible Daten vorab entfernt – ein bewusster Gegenpol zu intransparenten Systemen aus den USA oder China. Mit seinen beiden Varianten (8 und 70 Milliarden Parameter) ist das Modell zudem sowohl für private als auch für professionelle Nutzung interessant.
Im September sollen die ersten praktischen Anwendungen auf den Schweizer AI Weeks vorgestellt werden, inklusive Hackathon. Klar ist: Apertus ist weniger als fertiges Produkt zu verstehen, sondern eher als Fundament, auf dem sich eine eigenständige Schweizer KI-Landschaft entwickeln kann.
