Haben Sie sich jemals gefragt, wie Künstler in der Ära der Künstlichen Intelligenz ihre Werke schützen können?
Die Antwort liegt in einem bahnbrechenden Tool namens Nightshade, das im Herbst 2023 von Wissenschaftlern der Universität von Chicago entwickelt wurde. Nightshade bietet Künstlern eine innovative Methode, ihre Werke vor dem unerlaubten Scannen durch KI-Modelle zu schützen, indem es digitale Wasserzeichen einfügt, die für Menschen unsichtbar sind, aber die Trainingsdaten von KI-Modellen „vergiften“. Stellen Sie sich vor, eine KI lernt plötzlich, dass eine Katze eigentlich ein Hund ist – genau solche Verwirrungen erzeugt Nightshade gezielt.
Doch das ist nicht alles. Das Team hinter Nightshade präsentierte ebenfalls Glaze, ein Tool, das Kunstwerke so verändert, dass KI-Modelle den Stil der Werke nicht mehr erkennen oder reproduzieren können, ohne dass menschliche Betrachter einen Unterschied feststellen können. Während Glaze darauf abzielt, KI-Modelle daran zu hindern, künstlerische Stile zu lernen, setzt Nightshade einen Schritt weiter an, indem es Trainingsdaten vergiftet, falls Crawler gegen das Verbot verstoßen und Daten sammeln.
Die Folgen solcher vergifteten Daten sind weitreichend: Ein KI-Modell könnte ernsthaften Schaden nehmen, wenn es falsche Informationen lernt – aus einer harmlosen Kuh könnte im digitalen Auge der KI plötzlich ein Portemonnaie werden. Interessanterweise kann bereits eine geringe Menge an manipulierten Daten ausreichen, um ein KI-Modell zu kompromittieren. Nightshade und Glaze stellen somit ein mächtiges Duo dar, das Künstlern die Wahl lässt, wie intensiv sie ihre Werke schützen möchten. Beide Tools werden derzeit weiter getestet und Nightshade soll sogar als Open-Source-Projekt zur Verfügung gestellt werden, was neue Möglichkeiten für den Schutz geistigen Eigentums eröffnet, aber auch Risiken birgt, wenn andere Nutzer diese Technologie gegen KI-Anbieter einsetzen möchten.