In einem bemerkenswerten Schritt gegen die Nutzung ihrer Inhalte hat die New York Times die Regeln geändert – eine Entwicklung, die die Tech-Welt aufhorchen lässt.
Das renommierte US-Magazin New York Times setzt neue Maßstäbe in der Interaktion zwischen Medieninhalten und Künstlicher Intelligenz. Am 3. August aktualisierte die Zeitung ihre Nutzungsbedingungen, mit einem klaren Verbot: Die Verwendung ihrer Inhalte zum Training von Large Language Models (LLMs) ist fortan nicht gestattet. Dies umfasst eine breite Palette an Materialien – von Texten über Bilder und Fotos bis hin zu Metadaten sowie Audio- und Videoclips.
Ein Schlüsselelement dieser neuen Regelung ist die Forderung nach einer schriftlichen Genehmigung für jegliche Art von Webcrawling oder die spätere Veröffentlichung bzw. Bereitstellung der gesammelten Datensätze. Die New York Times signalisiert damit eine strenge Haltung gegen die nicht autorisierte Nutzung ihrer Inhalte und droht mit Strafen bei Missachtung dieser Regeln. Interessanterweise hat die Zeitung jedoch keine Änderungen an ihrer robots.txt-Datei vorgenommen, einem Standardinstrument, das Webcrawlern signalisiert, welche Bereiche einer Website sie erfassen dürfen. Diese Entscheidung fällt zeitlich mit der Einführung einer neuen Funktion von OpenAI zusammen, die es Webseitenbetreibern ermöglicht, den Zugriff von GPTBot – einem speziellen Crawler für ChatGPT – auf ihre Seiten zu blockieren. Trotz der klaren Richtlinien der New York Times bleibt somit unklar, inwieweit solche technischen Maßnahmen das Teilen von Inhalten effektiv unterbinden können.