Google hat einen weiteren spannenden Schritt für die KI-Community gemacht: Das Textmodell gemini-embedding-001 ist ab sofort in der Gemini API und in Vertex AI allgemein verfügbar. Wieso lohnt sich der Umstieg auf das neue Modell?
Seit seiner experimentellen Einführung im März hat sich gemini-embedding-001 schnell einen Namen gemacht: Es rangiert ganz oben in der MTEB Multilingual Benchmark und liefert hervorragende Ergebnisse in Aufgaben wie Text-Retrieval oder Klassifikation – quer durch verschiedene Branchen wie Wissenschaft, Recht, Finanzen und sogar Programmierung.
Was macht dieses Modell so besonders? Zum einen seine Vielseitigkeit: Es unterstützt mehr als 100 Sprachen und erlaubt bis zu 2048 Token pro Eingabe. Und es setzt auf eine smarte Technologie namens Matryoshka Representation Learning (MRL), die es Entwicklern erlaubt, die Ausgabegröße flexibel zu wählen. Je nach Anwendungsfall können Sie so Speicher und Performance optimal ausbalancieren – empfohlen sind die Größen 3072, 1536 oder 768 Dimensionen.
Das Modell kann kostenfrei ausprobiert werden, für den produktiven Einsatz gibt es einen bezahlten Zugang mit großzügigeren Limits. Die Kosten sind dabei transparent: 0,15 USD pro 1 Million Eingabetoken. Entwickeln können Sie direkt loslegen – über die Gemini API oder bequem via Google AI Studio, das weiterhin den bekannten embed_content-Endpunkt unterstützt.
Ein wichtiger Hinweis: Wer noch ältere Modelle wie gemini-embedding-exp-03-07, embedding-001 oder text-embedding-004 nutzt, sollte möglichst bald auf das neue Modell wechseln – diese Vorgängermodelle werden in den kommenden Monaten eingestellt.
