Ein einfacher, aber genialer Trick bringt ChatGPT dazu, das Unvorstellbare zu tun: seine Trainingsdaten preiszugeben.
In einer bemerkenswerten Entdeckung haben Forscher von Google und verschiedenen Universitäten einen Weg gefunden, um ChatGPT 3.5, eine der fortschrittlichsten KI-Sprachmodelle, dazu zu bringen, seine geheimen Trainingsdaten offenzulegen. Dieser Durchbruch wurde durch die Verwendung eines speziellen Prompts erreicht, der das Modell veranlasst, eine große Menge an Daten preiszugeben, die es eigentlich geheim halten sollte.
Die Forscher entdeckten, dass, wenn ChatGPT 3.5 aufgefordert wird, das Wort „Gedicht“ unendlich oft zu wiederholen, es nach einer Weile beginnt, einen scheinbar zusammenhanglosen Text auszugeben, der in Wahrheit Trainingsdaten enthält. Diese Texte stammen aus einer Vielzahl von Quellen, darunter Blogs, Webseiten und sogar persönliche E-Mails, was die Frage nach der Sicherheit und Vertraulichkeit der Daten aufwirft, die zur Schulung solcher Modelle verwendet werden.
Die Implikationen dieser Entdeckung sind weitreichend. Nicht nur, dass sie die Sicherheitsmechanismen von OpenAI in Frage stellt, die verhindern sollen, dass das Modell Trainingsdaten wiedergibt, sie wirft auch ein Licht auf die potenziellen Datenschutzrisiken, die mit der Verwendung von Large Language Models (LLMs) verbunden sind. Die Forscher betonen, dass es keiner einfachen Lösung bedarf, um dieses Problem zu beheben. Stattdessen müssen grundlegende Änderungen in der Art und Weise vorgenommen werden, wie diese Modelle trainiert werden, um zu verhindern, dass sie sensible Informationen preisgeben.