In einem kürzlich von „Time“ veröffentlichten Lobby-Papier zeigt sich, wie OpenAI die Gesetzgebung der EU maßgeblich mitgestaltet.
Ein Blick hinter die Kulissen offenbart, wie OpenAI die europäische Gesetzgebung zu Künstlicher Intelligenz beeinflusst – eine Entwicklung mit weitreichenden Folgen.
Im September 2022 legte OpenAI, das Unternehmen hinter dem bahnbrechenden KI-Modell GPT-3, ein Lobby-Papier vor, das nun vom US-Magazin „Time“ veröffentlicht wurde. Darin schlug OpenAI Änderungen am AI Act vor, die kürzlich vom EU-Parlament angenommen wurden. Diese Änderungen betreffen insbesondere die Einstufung von KI-Systemen hinsichtlich ihres Risikos.
OpenAI argumentierte, dass GPT-3 nicht als Hochrisiko-System angesehen werden sollte, da es zwar Fähigkeiten besitze, die in hochriskanten Anwendungsfällen genutzt werden könnten, aber per se kein hohes Risiko darstelle. Die Befürchtung war, dass eine zu allgemeine Formulierung alle OpenAI-Modelle automatisch als hochriskant einstufen würde. Bei einem Treffen mit EU-Gesetzgebern Ende März versicherten Vertreter von OpenAI, dass die potenziellen Gefahren von ChatGPT beherrschbar seien, indem beispielsweise Anweisungen so angepasst werden, dass keine Informationen zur Herstellung gefährlicher Stoffe herausgegeben werden.
Trotzdem haben Nutzer und Forscher bereits gezeigt, dass die eingebauten Sicherheitsmechanismen umgangen werden können. Nach den jüngsten Änderungen sind nun die Betreiber von allgemeinen KI-Basismodellen (sogenannte Foundation Models) verpflichtet, ihre Systeme eigenständig auf vorhersehbare Risiken zu überprüfen und entsprechende Maßnahmen zur Risikominderung zu ergreifen.