29. August 2024

Personelle Veränderungen bei OpenAI: Sicherheitsforscher und Führungskräfte verlassen das Unternehmen

Prominente Abgänge bei OpenAI werfen neue Fragen zur Zukunft der AGI-Sicherheitsforschung auf.

In den letzten Monaten hat OpenAI, eines der führenden Unternehmen in der Entwicklung von Künstlicher Intelligenz, eine bemerkenswerte Anzahl an Abgängen von Sicherheitsforschern erlebt. Etwa die Hälfte der Forscher, die sich mit der Sicherheit von AGI (Artificial General Intelligence) befassten, hat das Unternehmen verlassen, darunter auch prominente Führungskräfte wie Daniel Kokotajlo.

Kokotajlo, ein ehemaliger Sicherheitsforscher bei OpenAI, hat sich gegenüber dem Magazin Fortune geäußert, ohne jedoch konkret auf die Gründe für die vielen Kündigungen einzugehen. Er deutet jedoch an, dass die aktuelle Richtung von OpenAI, die sich der Entwicklung einer Superintelligenz nähert, nicht ausreichend vorbereitet sei, um die damit verbundenen Herausforderungen zu meistern. Diese Unsicherheit habe eine abschreckende Wirkung auf diejenigen ausgeübt, die sich mit den Risiken der AGI befassen.

Besonders beunruhigend ist der Einfluss der Kommunikations- und Lobbyabteilungen auf die wissenschaftlichen Veröffentlichungen innerhalb des Unternehmens. Kokotajlo äußerte Bedenken, dass dieser zunehmende Einfluss die Integrität der Forschung gefährden könnte. Die Situation eskalierte im letzten Jahr, als Sam Altman, der CEO von OpenAI, kurzfristig entlassen und später wieder eingestellt wurde. Sicherheitsbedenken wurden als einer der Gründe für seine Entlassung angeführt. Die Abgänge haben auch das „Superalignment“-Team von OpenAI schwer getroffen, ein Team, das sich mit der Sicherheit zukünftiger Hochleistungs-KI-Systeme beschäftigte. Nach diesen Rücktritten wurde das Team von OpenAI aufgelöst. Insgesamt haben 16 der etwa 30 Mitarbeitenden, die sich bei OpenAI mit Fragen der AGI-Sicherheit beschäftigten, das Unternehmen verlassen. Die Rücktritte von Chefwissenschaftler Ilya Sutskever und Jan Leike, die das Superalignment-Team im Mai leiteten, sorgten für besonderes Aufsehen und unterstreichen die Herausforderungen, denen sich OpenAI in Bezug auf AGI-Sicherheit gegenübersieht.


Wir führen seit Jahren Beratung zu KI (Künstlicher Intelligenz) für KMUs (Klein- und Mittelständische Unternehmen) erfolgreich durch.

Mehr zu aktuellen Themen der #KI (Künstlichen Intelligenz) oder zu

Ihrem individuellen, optimalen "KI-Masterplan" für Ihr Unternehmen finden Sie in unserem Newsletter.

Abonnieren Sie den Newsletter hier:


Tags


Das könnte Sie auch interessieren

Abonnieren Sie jetzt unseren Newsletter!

>