Meta hat intern offenbar einen echten Schritt nach vorn gemacht: Mit dem neuen Basismodell „Avocado“ ist das Vortraining abgeschlossen – und in internen Dokumenten wird es als stärkstes vortrainiertes Modell bezeichnet, das der Konzern bisher gebaut hat. Spannend ist dabei weniger das Marketing-Wording, sondern die Kombination aus Leistung, Effizienz und dem Timing nach den zuletzt ziemlich holprigen Monaten. Wird hier gerade der Neustart eingeläutet?
Nach internen Angaben soll Avocado die besten frei verfügbaren Basismodelle übertreffen. Und bei Wissen, visueller Wahrnehmung sowie Mehrsprachigkeit soll es sogar in Reichweite führender, bereits nachtrainierter Systeme kommen – obwohl Avocado selbst diese zweite Phase (das Nachtraining für konkrete Aufgaben) noch vor sich hat. Das deutet darauf hin, dass Meta vor allem am Fundament gearbeitet hat: bessere Trainingsdaten, technische Verbesserungen und ein geändertes Trainingsverfahren.
Richtig bemerkenswert sind die Effizienzwerte: Avocado soll mit deutlich weniger Rechenleistung auskommen – laut Memo zehnmal effizienter als „Maverick“ und sogar hundertmal effizienter als „Behemoth“. Wenn das in der Praxis hält, was intern behauptet wird, wäre das ein strategischer Vorteil: Mehr Modelle, schnellere Iterationen, geringere Kosten pro Trainingslauf – und damit mehr Tempo in einem Markt, in dem Geschwindigkeit gerade alles ist.
Der Kontext macht das Ganze noch brisanter. 2025 hatte Meta mit Llama 4 sichtbar zu kämpfen: Verschobene Releases, fragwürdig „optimierte“ Benchmarks und viel Ernüchterung in der Entwickler-Community. Diese Phase hat intern offenbar Konsequenzen gehabt: Umbau der KI-Organisation, die Einbindung von Scale AI (14,3 Milliarden US-Dollar) und mit Alexandr Wang ein neuer Kopf an der Spitze der frisch aufgestellten „Meta Superintelligence Labs“. Gleichzeitig dreht Meta finanziell auf: Für 2026 stehen Investitionsausgaben von 115 bis 135 Milliarden US-Dollar im Raum – ein massiver Sprung gegenüber 2025.
Ein weiterer Punkt, der in der Branche für Aufmerksamkeit sorgt: Es gibt Gerüchte, dass Meta sich mit Avocado vom bisherigen Open-Source-Kurs der Llama-Modelle entfernen könnte. Ob das wirklich so kommt, bleibt abzuwarten – aber allein die Möglichkeit zeigt, dass Meta gerade neu sortiert, wie KI künftig positioniert und monetarisiert werden soll. Parallel entsteht mit „Mango“ offenbar noch ein weiteres Modell, das besonders für visuelle Anwendungen optimiert sein soll.
