WhatsApp bringt mit „Writing Help“ eine KI-Funktion für Kurznachrichten. Doch können wir uns wirklich darauf verlassen, dass unsere Daten privat bleiben?
Meta möchte mit „Writing Help“ das Chatten einfacher machen. Die neue Funktion unterstützt Nutzer beim Formulieren von Nachrichten – ein Schritt, der sofort Fragen nach dem Schutz der Privatsphäre aufwirft. Schließlich sind gerade die Ende-zu-Ende-verschlüsselten Chats das Herzstück von WhatsApp.
Um Bedenken zu begegnen, hat Meta die Architektur „Private Processing“ entwickelt. Laut Konzern soll damit gewährleistet sein, dass selbst Mitarbeiter keinen Zugriff auf Inhalte haben. Das System arbeitet mit drei technischen Säulen: Anonymisierte Anfragen über das Oblivious-HTTP-Protokoll, eine abgeschirmte Verarbeitung in einer Trusted Execution Environment (TEE) sowie ein stateless Processing, bei dem Daten nach der Analyse sofort gelöscht werden.
Ganz ohne Probleme ging es jedoch nicht. Zwei unabhängige Prüfungen durch die Sicherheitsfirmen NCC Group und Trail of Bits deckten insgesamt 49 Schwachstellen auf – darunter teils gravierende Designfehler. Von unsicheren Schlüsselkonfigurationen, die Deanonymisierung möglich gemacht hätten, bis hin zu fehlenden Sicherheitsprüfungen der verwendeten Hardware war vieles dabei. Meta hat die kritischen Punkte laut eigenen Angaben vor dem Start behoben.
Trotzdem bleibt ein Restrisiko: Die gesamte Sicherheit hängt stark vom Vertrauen in Meta und seine Partner wie Fastly und Cloudflare ab. Die Gutachter empfehlen, künftig noch transparenter zu werden – etwa durch Open-Source-Builds, die unabhängige Prüfungen durch die Community ermöglichen würden. Immerhin betreibt Meta seit 2011 ein Bug-Bounty-Programm, das zusätzliche Sicherheit gewährleisten soll.
