Die Zusammenarbeit zwischen dem U.S. AI Safety Institute, OpenAI und Anthropic verspricht, die Entwicklung sicherer KI-Systeme auf ein neues Level zu heben.
Das US-amerikanische National Institute of Standards and Technology (NIST) hat wegweisende Vereinbarungen mit den führenden KI-Unternehmen OpenAI und Anthropic getroffen. Diese Abkommen ermöglichen es dem U.S. AI Safety Institute, auf die neuesten KI-Modelle der beiden Unternehmen sowohl vor als auch nach deren Veröffentlichung zuzugreifen. Diese Zusammenarbeit zielt darauf ab, die Sicherheitsfähigkeiten und potenziellen Risiken der fortschrittlichen KI-Systeme zu bewerten und Methoden zur Risikoeindämmung zu entwickeln.
Elizabeth Kelly, Direktorin des U.S. AI Safety Institute, betonte die Bedeutung dieser Partnerschaft: „Sicherheit ist entscheidend, um bahnbrechende technologische Innovationen voranzutreiben. […] Diese Vereinbarungen sind nur der Anfang, aber sie sind ein wichtiger Meilenstein auf dem Weg zu einer verantwortungsvollen Gestaltung der Zukunft der KI“.
Die Kooperation zwischen OpenAI und Anthropic mit dem NIST reflektiert jedoch auch die wachsenden Spannungen in der Branche. Während OpenAI durch seine Kooperation eine nationale Position in der laufenden Debatte um KI-Regulierung bezieht, wird Anthropic durch seine Unterstützung des kalifornischen Gesetzesentwurfs SB 1047 als Vorreiter im Bereich KI-Sicherheit wahrgenommen. Dieser Entwurf zielt darauf ab, die Gefahren hoch entwickelter KI-Systeme zu begrenzen, eine Maßnahme, die OpenAI ablehnt und stattdessen eine Regelung auf nationaler Ebene fordert. Mit dieser strategischen Partnerschaft unterstreicht das NIST seine mehr als 120-jährige Tradition in der Entwicklung von Standards und Technologien. Die Arbeit des NIST im Rahmen dieser Vereinbarungen wird nicht nur die KI-Forschung vorantreiben, sondern auch auf die KI-Verordnungen der Biden-Harris-Regierung sowie auf die freiwilligen Verpflichtungen führender KI-Unternehmen aufbauen.