ChatGPT kann jetzt nicht nur sprechen – es kann auch zuhören, mitfühlen und simultan übersetzen. Doch wie gut funktioniert das wirklich?
OpenAI hat ein neues Update für den sogenannten „Advanced Voice Mode“ veröffentlicht, das die Sprachfähigkeiten von ChatGPT auf ein neues Level hebt. Nutzer sollen von einer natürlich klingenden Stimme profitieren, die Emotionen besser transportieren kann – inklusive Nuancen wie Empathie oder sogar Sarkasmus. Das Ziel: eine Kommunikation, die sich fast wie mit einem echten Menschen anfühlt.
Neue Stimme, neue Möglichkeiten
Die Aktualisierung bringt nicht nur eine verbesserte Sprachmelodie mit sich – inklusive überarbeiteter Betonungen, Pausen und Intonation – sondern auch eine ganz neue Funktion: die Simultanübersetzung. Wer beispielsweise in einem multikulturellen Team arbeitet oder im Urlaub eine Sprachbarriere überwinden möchte, kann die KI nun bitten, Gespräche in Echtzeit zu übersetzen. Dabei bleibt die Funktion aktiv, bis der Nutzer sie explizit beendet.
Das Ganze ist aktuell auf allen Plattformen für zahlende Nutzer verfügbar und lässt sich bequem über ein Sprachsymbol aktivieren. OpenAI nennt Anwendungsbeispiele wie die Kommunikation im Restaurant oder Gespräche mit internationalen Kollegen.
Trotz Fortschritt: Nicht alles läuft rund
Wie so oft bei neuen Features gibt es auch bei diesem Update noch Ecken und Kanten. OpenAI selbst weist auf potenzielle Schwächen hin, darunter abrupte Änderungen in der Tonhöhe oder störende Hall-Effekte. Manche Stimmen seien dabei stärker betroffen als andere. Ein weiteres Problem: spontane Audio-„Halluzinationen“ – etwa ungewollte Werbestimmen oder Hintergrundmusik, obwohl OpenAI laut eigener Aussage keine Werbung einspielt.
Der Advanced Voice Mode wurde ursprünglich im Mai 2024 vorgestellt und ist seit Oktober auch in der EU verfügbar. Mit Kameraeinsatz ist sogar eine Live-Bildanalyse möglich – die KI kommentiert dann etwa, was sie im Raum erkennt. Auch Google zieht nach: Die Gemini-App bietet inzwischen ähnliche Funktionen.