Wie weit darf ein Kläger im Namen des Urheberrechts gehen?
Eine neue juristische Auseinandersetzung bringt OpenAI in Zugzwang – und stellt zentrale Datenschutzprinzipien in Frage.
Datenschutz vs. Beweissicherung: Was hinter der Anordnung steckt
OpenAI befindet sich aktuell im juristischen Konflikt mit der New York Times. Letztere fordert, dass der KI-Anbieter sämtliche ChatGPT-Inhalte dauerhaft speichert – selbst dann, wenn Nutzer diese längst gelöscht haben. Ziel: potenziell belastende Informationen für die laufende Urheberrechtsklage sichern.
Doch OpenAI widerspricht vehement. Laut COO Brad Lightcap untergräbt die Anordnung das Vertrauen der Nutzer und stellt einen Eingriff in bewährte Datenschutzstandards dar. Unter normalen Umständen löscht das Unternehmen Nutzerdaten innerhalb von 30 Tagen.
Wer ist betroffen – und wer nicht?
Betroffen von dieser Maßnahme sind alle Nutzer von ChatGPT Free, Plus, Pro und Team sowie API-Kunden ohne eine sogenannte Zero-Data-Retention-Vereinbarung. Davon ausgenommen bleiben Geschäftskunden wie ChatGPT Enterprise, ChatGPT Edu und API-Nutzer mit aktivierter Zero Data Retention – hier werden keinerlei Daten gespeichert.
OpenAI speichert die fraglichen Daten nun unter einem sogenannten Legal Hold: Nur ein kleiner, geprüfter Kreis von Mitarbeitenden in den Abteilungen Recht und Sicherheit darf Zugriff nehmen – und auch das nur zur gesetzlich geforderten Absicherung. Eine automatische Weitergabe an die Kläger ist ausgeschlossen.
Wie OpenAI reagiert – und was das für Nutzer bedeutet
Trotz starker Kritik hält sich OpenAI vorerst an die Anordnung – allerdings unter Protest. Das Unternehmen hat rechtliche Schritte eingeleitet: Eine Überprüfung durch den Magistratsrichter ist beantragt, außerdem läuft eine Berufung vor dem Bezirksgericht.
Für Nutzer bleibt zumindest eines bestehen: Die Inhalte aus ChatGPT fließen nicht automatisch ins Training. Geschäftsdaten bleiben außen vor, und Privatnutzer können selbst entscheiden, ob ihre Eingaben zur Verbesserung der Modelle verwendet werden.