Im Dezember bringt Apple seine KI-gestützte Live-Übersetzung endlich auch auf europäische iPhones und AirPods. Warum mussten Nutzer hierzulande so lange warten?
Nach einer langen Verzögerung ist es nun soweit: Die Live-Übersetzungsfunktion, die Apple mit den AirPods Pro 3 und iOS 26 eingeführt hatte, startet in der EU. Nutzer können damit Gespräche in Echtzeit übersetzen lassen – direkt über ihre AirPods und das gekoppelte iPhone. Das Gesagte wird dabei auf dem iPhone-Display zusätzlich als Transkription angezeigt, was gerade im Gespräch mit Menschen ohne iPhone praktisch ist. Besonders positiv: Die gesamte Verarbeitung erfolgt lokal auf dem Gerät, ganz ohne Internetverbindung – für mehr Datenschutz und Kontrolle.
Doch der Weg nach Europa war für Apple nicht einfach. Der Konzern begründet die Verzögerung mit dem Digital Markets Act (DMA), der neue Anforderungen an die Interoperabilität stellt. Um diesen zu erfüllen, musste Apple die Audio-Routing-Schnittstellen anpassen, damit auch Drittanbieter-Apps und Geräte auf gleiche Funktionen zugreifen können. Apple betont, dass Datenschutz und Sicherheit dabei nicht vernachlässigt wurden.
Das nötige Software-Update soll im Dezember erscheinen. Entwickler mit Beta-Zugang können die Funktion schon ab dem 4. November testen. Unterstützt werden alle AirPods mit H2-Chip – etwa die AirPods Pro 2 (Lightning oder USB-C) und die AirPods 4 mit ANC. Ältere Modelle wie die AirPods Max bleiben außen vor. Auch interessant: Die Funktion steht nur auf iPhones mit Apple Intelligence zur Verfügung, also etwa dem iPhone 15 Pro, 16e sowie den Modellen der 16er- und 17er-Reihen.
Damit schließt Apple eine Lücke, die viele Nutzer in Europa gestört hat – und stärkt zugleich das Vertrauen in lokale KI-Funktionen. Wer also bald in Paris, Rom oder Berlin per AirPods simultan Gespräche übersetzen möchte, kann sich schon auf das Dezember-Update freuen.
