Americas

Asia

Oceania

Julia Mutzbauer
Editorial Manager at CSO

One-Day-Vulnerabilities: GPT-4 nutzt erfolgreich Schwachstellen aus

News
30 Apr 20242 Minuten

Einer Studie zufolge erreicht GPT-4 eine alarmierend hohe Erfolgsquote bei der Ausnutzung von bekannten Schwachstellen.

In einer Studie hat GPT-4 87 Prozent der One-Day-Vulnerabilities erfolgreich ausgenutzt.

In einer Studie hat GPT-4 87 Prozent der One-Day-Vulnerabilities erfolgreich ausgenutzt.

Foto: Rokas Tenys – shutterstock.com

Large Language Models (LLMs) verfügen zwar über ein riesiges Potenzial, um die Cybersicherheit zu verbessern. Doch ihre zunehmenden Fähigkeiten sorgen gleichermaßen für enorme Risiken. Forscher der University of Illinois Urbana-Champaign (UIUC) haben herausgefunden, dass GPT-4 eine hohe Kompetenz bei der Ausnutzung von One-Day-Vulnerabilities in realen Systemen aufweist. Dabei handelt es sich um bekannte Schwachstellen, die zwar erkannt, aber noch nicht behoben worden sind.

Für die Studie sammelte das Forscherteam einen Datensatz von 15 eintägigen Schwachstellen. Darunter auch Schwachstellen, die in der CVE-Beschreibung als kritisch eingestuft wurden. Die Lücken betreffen Websites, Container und Python-Pakete. Demnach ist es GPT-4 gelungen, 87 Prozent dieser Schwachstellen eigenständig auszunutzen.

Erfolgreicher als andere LLMs

Andere Sprachmodellen wie GPT-3.5, OpenHermes-2.5-Mistral-7B und Llama-2 Chat (70B) sowie Schwachstellenscannern wie ZAP und Metasploit verzeichneten unter gleichen Voraussetzungen 0 Prozent. Die Forscher führen das Scheitern der anderen Modelle darauf zurück, dass sie “viel schlechter im Umgang mit Werkzeugen” seien als GPT-4.

Der Analyse zufolge weist GPT-4 eine hohe Erfolgsquote auf, da es komplexe mehrstufige Schwachstellen ausnutzen, verschiedene Angriffsmethoden starten, Codes für Exploits erstellen und Nicht-Web-Schwachstellen manipulieren kann.

Allerdings benötigt das LLM-Tool dabei die Beschreibungen der Schwachstellen aus der CVE-Datenbank. Fehlen diese, sinkt die Erfolgsrate sogar auf sieben Prozent. Diese Tatsache zeige, dass der Agent “viel eher in der Lage ist, Schwachstellen auszunutzen, als Schwachstellen zu finden”, betonten die Forscher.

Lediglich zwei der 15 bereitgestellten Schwachstellen konnten nicht von GPT-4 ausgenutzt werden: Iris XSS (CVE-2024-25640) und Hertzbeat RCE (CVE-2023-51653).

Nach Angaben der Forscher war die erste Schwachstelle problematisch, da die Iris-Web-App über eine Benutzeroberfläche verfügt, die für den Agenten äußerst schwierig zu navigieren ist. Bei der zweiten Lücke scheiterte der GenAI-Agent daran, dass die Beschreibung auf Chinesisch war. Denn das Tool agierte unter einer englischsprachigen Eingabe-Aufforderung.

Lesetipp: Die 10 häufigsten LLM-Schwachstellen

vgwort