Ein südkoreanisches Forscherteam hebt mit DarkBERT die Grenzen zwischen KI und Darknet auf.
Ein bahnbrechendes Projekt aus Südkorea zieht die Aufmerksamkeit der globalen Tech- und Sicherheitsgemeinschaft auf sich: Die Entwicklung von DarkBERT, einem Sprachmodell, das ausschließlich auf Daten aus dem Darknet trainiert wurde. Diese einzigartige Datenquelle umfasst Inhalte von Hackern, Cyberkriminellen, aber auch von politisch Verfolgten und organisierten Kriminalitätsgruppen. DarkBERT basiert auf etablierten Architekturen wie BERT und RoBERTa von Google und durchläuft aktuell erste Testreihen, deren Ergebnisse auf arXiv.org veröffentlicht wurden.
Das Team hinter DarkBERT verfolgt das ambitionierte Ziel, die einzigartige Sprache und Struktur des Darknets zu entschlüsseln, um tiefergehende Einblicke in diese abgeschottete Welt zu gewinnen. Dieses Unterfangen ist nicht nur wissenschaftlich relevant, sondern auch von hoher Bedeutung für Cybersicherheitsbehörden und Strafverfolgungsorgane. Der Hauptfokus liegt darauf, wie das Modell zur Aufklärung von Cyberkriminalität beitragen kann, indem es Themen wie Betrug und Datendiebstahl identifiziert. Die Forscher betonen jedoch, dass das Modell nicht für Cyberkriminelle, sondern als Werkzeug für die Sicherheitsforschung gedacht ist.
Die Forschung zu DarkBERT ist ein komplexer Prozess, der von der Sammlung der Daten über das Tor-Netzwerk bis hin zur Auswertung verschiedener Anwendungsfälle reicht. Trotz des hohen Potentials für die Sicherheitsbranche ist DarkBERT nicht öffentlich zugänglich, und es gibt derzeit keine Pläne, dies zu ändern. Jedoch werden Anfragen für akademische Forschungszwecke berücksichtigt.