Youtube hat stillschweigend fremde Videos mit KI bearbeitet. Was steckt hinter diesem umstrittenen Experiment – und was bedeutet es für Creator?
Youtube hat zugegeben, seit Monaten KI-gestützte Veränderungen an veröffentlichten Kurzvideos vorzunehmen – ohne Hinweis an die Uploader. Betroffen sind kleine, aber auffällige Veränderungen wie merkwürdige Frisuren, unnatürliche Hautfarben oder verzerrte Körperteile. Erst nachdem sich Nutzer in Kommentaren und eigenen Videos beschwert hatten, bestätigte Unternehmenssprecher Rene Ritchie, dass es sich um ein laufendes Experiment handelt. Offiziell soll die Technik lediglich Bildrauschen und Unschärfen reduzieren – ähnlich wie bei modernen Smartphone-Kameras.
Allerdings greift die KI oft stärker ein als vorgesehen. Für Uploader bedeutet das: Sie können diese Veränderungen weder verhindern noch kontrollieren. Besonders brisant wirkt dieser Umstand, da Youtube seit 2023 von Creators die Kennzeichnung aller KI-generierten Inhalte verlangt. Die Regelung sollte eigentlich Transparenz schaffen – etwa bei Deepfakes oder realistisch simulierten Ereignissen. Doch wie passt es ins Bild, wenn Youtube selbst heimlich Hand anlegt?
Die Unsicherheit wächst: Während große Manipulationen wie gefälschte Aussagen klar als KI-Inhalte gelten, bleibt unklar, wie kleine Veränderungen rechtlich und praktisch einzuordnen sind. Für manche Creator können sie peinlich oder sogar geschäftsschädigend wirken – etwa wenn Authentizität Teil der Marke ist. Heise online hat in den Richtlinien von Youtube bislang keine eindeutige Antwort gefunden.
Am Ende bleibt ein schaler Beigeschmack: Youtube fordert Transparenz von seinen Creators, hält sich selbst aber nicht immer an diese Linie. Ob das Experiment bald wieder verschwindet oder in größerem Stil fortgeführt wird, ist derzeit offen.
