In einem entscheidenden Urteil wurde die Klage zweier Nachrichtenseiten gegen OpenAI abgewiesen. Was bedeutet das für zukünftige Klagen um KI-Trainingsdaten?
Das New Yorker Urteil
Eine New Yorker Bundesrichterin hat die Klage der Nachrichtenseiten Raw Story und AlterNet gegen das KI-Unternehmen OpenAI abgewiesen. Die Kläger hatten argumentiert, dass OpenAI ihre Artikel unrechtmäßig als Trainingsdaten nutze und dabei wichtige Copyright-Informationen entferne. Doch das Gericht stellte fest, dass die Nachrichtenseiten keinen hinreichenden Schaden nachweisen konnten, der durch die Verwendung ihrer Inhalte entstanden sein könnte.
Fair-Use-Argumentation von OpenAI bestätigt
Richterin Colleen McMahon bestätigte zudem OpenAIs Fair-Use-Argumentation. OpenAI erklärte, dass ChatGPT lediglich Inhalte generiere, die auf trainierten Inhalten basieren, aber keine exakten Kopien seien. Dies sei im Fall von KI-Trainingsdaten entscheidend: Die Wahrscheinlichkeit, dass ChatGPT einen Artikel aus dem Trainingsmaterial Wort für Wort reproduziert, sei extrem gering. Zudem betonte das Gericht, dass Fakten in Nachrichtenartikeln nicht urheberrechtlich geschützt seien. Frühere Beispiele für Textkopien durch ChatGPT seien mit aktuellen Versionen nicht reproduzierbar, was darauf hindeute, dass derartige Fälle seltene Fehler und keine Systemfunktion seien.
Ein Präzedenzfall für KI-Copyright-Klagen Obwohl die Klage abgewiesen wurde, haben die Kläger noch die Möglichkeit, eine überarbeitete Klage einzureichen. Ihr Anwalt Matt Topic zeigte sich optimistisch, eventuelle Bedenken des Gerichts in einer neuen Klage auszuräumen. OpenAI äußerte sich bisher nicht zur Entscheidung. Allerdings könnte dieses Urteil richtungsweisend für andere Copyright-Klagen sein, insbesondere für den prominenten Rechtsstreit zwischen der New York Times und OpenAI sowie Klagen von Musikunternehmen gegen KI-Musikgeneratoren. Die New York Times argumentiert, dass OpenAI ihre Artikel ohne Erlaubnis als Trainingsdaten verwendet hat, wodurch ein Konkurrenzprodukt geschaffen wurde.