OpenAI will künftig noch stärker auf die Sicherheit seiner KI-Modelle achten. Doch was steckt hinter den neuen Schutzmaßnahmen und warum sind sie gerade jetzt so wichtig?
Der KI-Wettbewerb ist härter geworden, insbesondere mit Blick auf Konkurrenten aus China. Vorwürfe, das Start-up Deepseek habe OpenAI-Modelle für eigene Zwecke „abgezapft“, haben die Diskussion zusätzlich angeheizt. OpenAI reagiert nun entschlossen: Der Zugriff auf sensible Informationen wird drastisch eingeschränkt. Systeme dürfen nur noch dann ins Internet, wenn es ausdrücklich genehmigt wird – so sollen Modellgewichte vor unerlaubtem Zugriff sicher bleiben. Auch Mitarbeitende bekommen nur Zugang zu Projekten, für die sie autorisiert sind, ein Konzept, das intern „Information Tenting“ genannt wird.
Neben organisatorischen Änderungen setzt OpenAI auch auf mehr physische Sicherheit. In den Rechenzentren gelten strengere Zutrittsregeln, zudem wurden Sicherheitsexperten mit militärischem Hintergrund verpflichtet – darunter Dane Stuckey, der früher für Palantir tätig war, und der ehemalige US-General Paul Nakasone.
OpenAI betont, dass all diese Maßnahmen Teil einer umfassenden Strategie sind, um eine Vorreiterrolle in der KI-Sicherheit einzunehmen. Gleichzeitig folgt das Unternehmen Warnungen von US-Behörden, die vor wachsender Wirtschaftsspionage aus China warnen. Der Schutz von Technologie gilt zunehmend auch als Schutz nationaler Interessen. Erst vor kurzem hatten OpenAI und Anthropic die US-Regierung vor dem chinesischen Modell Deepseek R1 als strategische Bedrohung gewarnt.
Mit einem überarbeiteten „Preparedness Framework“ will OpenAI außerdem Hochrisiko-Fähigkeiten wie autonome Replikation oder Cyberangriffe künftig systematischer testen und absichern.
