Die Idee eines digitalen Babelfischs wird Realität. Doch wie gut ist Googles neue Übersetzungsfunktion in Meetings wirklich?
Google hat die Beta-Version seines Echtzeit-Übersetzers in Google Meet gestartet. Nutzerinnen und Nutzer können gesprochene Sprache direkt in gesprochene Sprache übertragen lassen – auch ins Deutsche. Im Unterschied zu Lösungen von Apple oder Meta ist die Funktion nicht an ein spezielles Gerät gebunden, sondern direkt in den Meeting-Dienst integriert. Erste Tests zeigen, dass Übersetzung, Stimme und Tonfall erstaunlich nah am Original liegen.
Die Herausforderung liegt dabei vor allem in der gesprochenen Sprache, die selten linear ist: Menschen brechen Sätze ab, fangen neu an oder ändern mitten im Redefluss ihre Formulierungen. Genau hier zeigt die KI ihre Stärke: Sie übersetzt nicht Wort für Wort, sondern versucht wie ein Dolmetscher, den Sinn zu erfassen. Kleinere Fehler sind zwar noch vorhanden, aber die Ergebnisse gelten als überzeugend.
Für den Einsatz müssen Nutzer die Funktion aktivieren, die Sprache auswählen und der Datennutzung zustimmen. Die Verarbeitung geschieht teils lokal, teils in der Cloud. Neben Deutsch und Englisch sind auch Spanisch, Portugiesisch, Italienisch und Französisch verfügbar. Zugriff haben derzeit Abonnenten von Google AI Pro und Ultra – es reicht, wenn eine Person im Meeting die Funktion gebucht hat.
Ein Blick nach vorn: Während die Pixel-10-Reihe bereits lokale Live-Telefonübersetzungen bietet, könnte die Meet-Funktion künftig auch in Googles Projekte rund um smarte Brillen (Project Astra) oder in die Translate-App integriert werden. Damit würde die KI-Sprachübersetzung endgültig ein alltäglicher Begleiter werden.