Meta treibt die Integration von Künstlicher Intelligenz (KI) und Augmented Reality (AR) weiter voran – mit beeindruckenden Neuerungen, die das digitale Leben verändern könnten.
Meta AI verzeichnet ein schnelles Wachstum und wird mittlerweile von 400 Millionen Menschen monatlich genutzt. Um die Interaktion mit Meta AI noch natürlicher zu gestalten, hat Meta eine Spracheingabe für Assistenten auf Plattformen wie Facebook, WhatsApp, Messenger und Instagram eingeführt. Vorerst steht diese Funktion nur in englischsprachigen Ländern wie den USA, Kanada, Australien und Neuseeland zur Verfügung. Dank prominenter Stimmen wie Awkwafina, Judi Dench und John Cena soll Meta AI eine menschlichere Note bekommen. Zusätzlich experimentiert Meta mit innovativen Techniken wie automatischer Video- und Lippensynchronisation, um Inhalte in verschiedenen Sprachen breiteren Nutzergruppen zugänglich zu machen.
Die neuen KI-Tools werden ebenfalls stetig weiterentwickelt. Mithilfe der fortschrittlichen Llama-3.2-Modelle können Nutzer Fotos hochladen, Fragen dazu stellen und diese sogar per Sprachbefehl bearbeiten. Kleinere Modelle mit 1 bis 3 Milliarden Parametern, die für Smartphones und AR-Brillen optimiert sind, runden das Angebot ab. Diese Entwicklungen verringern den Leistungsabstand zu großen Konkurrenten wie OpenAI, besonders durch Multimodalität und Sprachschnittstellen.
Auch die Ray-Ban Meta Smart Glasses wurden aufgewertet: Sie bieten jetzt Live-Übersetzungen und Funktionen wie eine persönliche Stadtführung per Sprachbefehl. Die Kooperation mit Be My Eyes ermöglicht sehbehinderten Menschen eine detailliertere Beschreibung ihrer Umgebung. Zudem wurde auf der Konferenz Metas AR-Brillen-Prototyp „Orion“ vorgestellt – eine leichte, kabellose Brille, die digitale Inhalte in die reale Welt einblendet und mit moderner Sprach- und Handsteuerung ausgestattet ist. Orion könnte schon bald marktreif sein und den Alltag der Menschen nachhaltig verändern.