Googles KI liefert erstaunlich oft richtige Antworten. Doch kann man sich wirklich darauf verlassen?
Die aktuelle Analyse zeigt ein klares Bild: Googles AI-Overviews erreichen mittlerweile eine beeindruckende Genauigkeit von bis zu 91 Prozent. Im direkten Vergleich hat sich das System mit dem Upgrade von Gemini 2 auf Gemini 3 deutlich verbessert. Für Nutzer bedeutet das zunächst: schnellere, präzisere Antworten direkt in der Suche.
Doch der zweite Blick offenbart ein komplexeres Bild. Denn obwohl die Antworten häufiger korrekt sind, wird es gleichzeitig schwieriger, diese nachzuvollziehen. Immer öfter stützen die angegebenen Quellen die Aussagen nicht vollständig. Das heißt konkret: Die Information kann stimmen – aber der Weg dorthin bleibt intransparent.
Besonders kritisch wird es, wenn selbst korrekte Quellen falsch interpretiert werden. Einzelne Beispiele zeigen, dass Google zwar die richtige Website findet, daraus aber falsche Schlüsse zieht. Hinzu kommt eine auffällige Auswahl der Quellen: Plattformen wie Facebook oder Reddit tauchen überdurchschnittlich häufig auf – selbst bei fehlerhaften Antworten.
Auch methodisch ist die Studie nicht unumstritten. Google selbst kritisiert die zugrunde liegenden Tests und verweist auf realitätsfern gewählte Fragestellungen. Gleichzeitig zeigt sich aber ein grundsätzlicher Trend: KI wird zunehmend zur primären Schnittstelle für Informationen – und verdrängt klassische Suchergebnisse.
Das hat weitreichende Folgen. Wenn Nutzer Antworten direkt erhalten, ohne Websites zu besuchen, geraten viele Publisher wirtschaftlich unter Druck. Das offene Web, wie wir es kennen, verändert sich – hin zu einer zentralisierten Informationsstruktur, in der wenige Plattformen die Kontrolle übernehmen.
