OpenAI hat ein unabhängiges Aufsichtsgremium ins Leben gerufen, um die Sicherheit bei der Entwicklung und Einführung von KI-Modellen zu gewährleisten – und das ist nur der Anfang.
In einem neuen Schritt zur Verbesserung der KI-Sicherheit hat OpenAI die Einrichtung eines unabhängigen Aufsichtsgremiums, des „Safety and Security Committees“, bekannt gegeben. Unter der Leitung von Zico Kolter, einem renommierten Experten für maschinelles Lernen der Carnegie Mellon University, wird dieses Komitee sicherstellen, dass die Entwicklung und Einführung von KI-Modellen höchsten Sicherheitsstandards entspricht. Weitere prominente Mitglieder sind Adam D’Angelo, CEO von Quora, der pensionierte General Paul Nakasone und die ehemalige Sony-Chefjuristin Nicole Seligman.
Das Gremium erhält weitreichende Befugnisse: Es überwacht nicht nur die Sicherheitsprozesse, sondern kann auch in Zusammenarbeit mit dem Vorstand die Veröffentlichung neuer KI-Modelle verzögern, bis alle Sicherheitsbedenken ausgeräumt sind. Dieser Schritt folgt den Empfehlungen des Komitees selbst, das nach einer 90-tägigen Überprüfung der Sicherheitsprozesse von OpenAI diese Umstrukturierung angestoßen hat. Neben der Gründung des Aufsichtsgremiums prüft OpenAI auch die Entwicklung eines „Information Sharing and Analysis Centers“ (ISAC) für die KI-Branche. Diese Plattform soll den Informationsaustausch über Bedrohungen und Cybersicherheitsrisiken zwischen Unternehmen erleichtern. Zudem plant OpenAI, die internen Sicherheitsstrukturen durch die Einstellung von zusätzlichem Personal und eine 24/7-Überwachung zu verstärken. Das Unternehmen hat sich außerdem zu mehr Transparenz in Bezug auf die Fähigkeiten und Risiken seiner KI-Modelle verpflichtet.