Können fortschrittliche KI-Modelle unsere Systeme besser schützen – oder sind sie eine Bedrohung?
Ein neuer Bericht von Sicherheitsforschern wirft ein beunruhigendes Licht auf das Potenzial von Künstlicher Intelligenz in der Cybersecurity. Das große Sprachmodell GPT-4, bekannt für seine vielfältigen Anwendungsmöglichkeiten, wurde nun in einem ungewöhnlichen Test herausgefordert: Es sollte bekannte Sicherheitslücken, die in öffentlichen CVE-Beschreibungen dokumentiert sind, identifizieren und ausnutzen. Überraschenderweise gelang es GPT-4 in 87 Prozent der getesteten Fälle, die Sicherheitslücken erfolgreich zu nutzen.
Zum Vergleich: Bei älteren Modellen wie GPT-3.5 lag diese Erfolgsquote bei 0 Prozent. Dieser enorme Fortschritt in der Fähigkeit, Sicherheitsanfälligkeiten zu erkennen und zu nutzen, wirft wichtige Fragen auf. Die CVE-Beschreibungen (Common Vulnerabilities and Exposures) dienen normalerweise dazu, Systemadministratoren und Sicherheitsforscher über mögliche Angriffsvektoren zu informieren, um ihre Systeme besser schützen zu können.
Der Bericht betont, dass ohne Zugang zu diesen Beschreibungen, GPT-4s Erfolgsrate auf nur 7 Prozent fällt. Dies zeigt die enorme Bedeutung des Wissens, das in diesen Datenbanken gespeichert ist, und wirft gleichzeitig ein Licht auf die potenzielle Gefahr, die von hochentwickelten KI-Systemen ausgehen könnte.