Google macht seinen KI-Assistenten Gemini einen entscheidenden Schritt persönlicher: Mit „Personal Intelligence“ soll Gemini künftig nicht nur Antworten geben, sondern Zusammenhänge aus dem eigenen Google-Ökosystem verstehen und daraus konkret hilfreiche Vorschläge ableiten. Damit rückt der Assistent näher an das heran, was viele seit Jahren erwarten: weniger generische Tipps, mehr echte Unterstützung im Alltag.
Was ändert sich konkret – und warum ist das relevant?
Bisher konnte Gemini zwar auf einzelne Google-Dienste zugreifen, doch echte Kontextlogik blieb begrenzt. Mit Personal Intelligence soll sich das ändern: Gemini darf – sofern man es aktiv erlaubt – Informationen aus Gmail, Google Fotos, Such-Historie und dem YouTube-Verlauf berücksichtigen. Der Mehrwert liegt in der Kombination: Aus einzelnen Datenpunkten werden Muster, aus Mustern entstehen Vorschläge, die sich tatsächlich nach „für mich gemacht“ anfühlen.
Google nennt als Beispiel die Reiseplanung. Statt einer beliebigen Top-10-Liste soll Gemini erkennen, welche Orte zu den eigenen Vorlieben passen. Wer etwa viele Naturmotive in Google Fotos speichert und eine Reise nach Chicago plant, bekommt nicht nur Standardattraktionen, sondern einen konkreten Vorschlag wie den Alfred Caldwell Lily Pool – ein Park, der zur persönlichen Bildwelt passt. Und ja: Gemini soll perspektivisch sogar Buchungen anstoßen können. Das ist komfortabel, aber auch ein Punkt, bei dem Vertrauen und klare Kontrolle entscheidend werden.
Ein weiteres Praxisbeispiel ist deutlich bodenständiger, aber für viele nützlicher: Winterreifen kaufen. Gemini kann (nach Freigabe) in Gmail nach Dokumenten wie Versicherungsunterlagen suchen, daraus Fahrzeugdaten ableiten und passende Reifentypen identifizieren. Genau solche „kleinen“ Helferfälle sind oft der Moment, in dem KI im Alltag ihren Wert beweist.
Opt-in, Beta und erste Verfügbarkeit
Wichtig: Google positioniert die Funktion ausdrücklich als Opt-in. Das heißt, man muss Personal Intelligence aktiv einschalten. Zudem lassen sich einzelne Apps ausklammern, etwa wenn man den Zugriff auf E-Mails nicht möchte. Ebenso soll es möglich sein, Antworten zu erhalten, bei denen bewusst kein persönlicher Kontext verwendet wird.
Zum Start ist das Ganze als Beta angekündigt und zunächst für Abonnenten von Google AI Pro und AI Ultra in den USA verfügbar. Weitere Länder und die kostenfreie Gemini-Version sollen folgen. Technisch stützt sich Google dabei auf Gemini 3, das laut Unternehmen in der Lage sein soll, nicht nur zu reagieren, sondern auch proaktiv „Erkenntnisse“ zu liefern – also Vorschläge zu machen, ohne dass man explizit danach gefragt hat.
Der größere Kontext: Der Wettbewerb um den „Always-on“-Assistenten
Was Google hier vorstellt, ist Teil eines größeren Trends: Alle großen KI-Anbieter arbeiten daran, Assistenten zu bauen, die dauerhaft verfügbar sind und möglichst viel Kontext über die Nutzerinnen und Nutzer haben. Dazu gehören nicht nur Software-Funktionen, sondern auch neue Hardware-Formfaktoren – von smarten Brillen bis zu tragbaren Geräten. Meta hat beispielsweise das Start-up Limitless übernommen, das einen „Anhänger“ als Begleiter anbietet. OpenAI spricht ebenfalls von einem „always on“-Gerät, das der beste persönliche Assistent werden soll, den es je gab.
