Generative-AI-Chatbots und Large Language Models können neue Risiken eröffnen – die Cybersicherheit aber auch entscheidend voranbringen. Hier lesen Sie, wie. So stärken Sie Ihr Sicherheitsniveau mit ChatGPT und Konsorten. Foto: Yurchanka Siarhei – shutterstock.comDie potenziellen Auswirkungen und Risiken von Generative-AI-Chatbots und Large Language Models (LLMs) auf, respektive für die Cybersicherheit werden seit dem kometenhaften Aufstieg von ChatGPT heiß diskutiert. Die Sicherheitsrisiken sind nicht wegzudiskutieren – generative KI hat jedoch auch das Potenzial, die Cybersicherheit in Unternehmen auf verschiedenen Ebenen voranzubringen. Angesichts der Aktivitäten im kriminellen Cyberuntergrund in Zusammenhang mit Generative AI könnte eine zusätzliche Härtung jedenfalls nicht schaden.Im Folgenden zeigen wir Ihnen sechs Möglichkeiten auf, mit generativen KI-Chatbots und LLMs (künftig) Ihre Security zu optimieren.1. Vulnerability ScanningGlaubt man einer aktuellen Untersuchung der Cloud Security Alliance (CSA), lassen sich Vulnerability Scanning und Filtering mit Hilfe generativer KI-Modelle signifikant verbessern. In ihrem Report zeigen die Experten der CSA auf, dass sich OpenAIs Codex API als effektiver Schwachstellen-Scanner für Programmiersprachen wie C, C#, Java und JavaScript eignet: “Man kann davon ausgehen, dass LLMs wie die der Codex-Familie zur Standardkomponente bei künftigen Vulnerability-Scannern wird”, heißt es in der Studie. So könne beispielsweise eine Lösung entwickelt werden, die unsichere Code-Patterns identifiziere und Developer dabei unterstütze, potenzielle Schwachstellen zu beheben, bevor sie zu kritischen Risiken werden, stellen die Security-Experten in Aussicht. In Sachen Vulnerability Filtering könnten Generative-AI-Modelle nach Meinung der Sicherheitsforscher künftig wertvollen Kontext für die Bedrohungserkennung liefern, den menschliches Sicherheitspersonal möglicherweise übersehe. Als Beispiel nennen die CSA-Experten TT1059.001 – einen technischen Identifier innerhalb des MITRE ATT&CK-Frameworks. Dieser sei nicht allen Cybersecurity-Profis bekannt, was umfassende Erklärungen erfordere. Mit ChatGPT könne der Code hingegen zielgenau identifiziert und eine entsprechende Erklärung ausgegeben werden, schreiben die Forscher.Im Mai kündigte das Unternehmen OX Security die ChatGPT-Integration OX-GPT an. Sie soll Entwickler mit maßgeschneiderten Empfehlungen für (Cut-and-Paste-)Code-Fixes unterstützen. Auch dabei, mögliche Kompromittierungsversuche zu verhindern und damit Schaden vom Unternehmen abzuwenden. CSA has released Security Implications of ChatGPT, a whitepaper release candidate that provides guidance across four dimensions of concern around this extremely popular Large Language Model. Download now –> https://t.co/q5yt3xVshB pic.twitter.com/N4oubciPcp— CloudSecurityAlliance (@cloudsa) April 24, 2023 2. Addons und API-AnalyseAnwendungs-Firewalls arbeiten auf Schicht 7 des OSI-Modells und können zahlreiche Bedrohungen wie Injections, Cross-Site Scripting (XSS) und andere Angriffe abfangen. Der Schutz gilt also der Server-Anwendung und deren Daten, nicht dem darauf zugreifenden Browser oder Gerät.?Aus technischer Perspektive handelt es sich meist um einen Reverse Proxy, der die?allenfalls?verschlüsselte (HTTPS-) Verbindung aufbricht, den Datenfluss in beide Richtungen kontrolliert und bei Bedarf verändert. Alternativ werden die Schutzfunktionen in die Anwendung eingebettet, diese Variante wird Runtime Application Self Protection (RASP) genannt und ist weniger verbreitet, weil die?Integration in die Anwendung deutlich aufwändiger ist.Indem sie die APIs von Portable Executable (PE)-Dateien analysieren und mitteilen, wofür diese verwendet werden, könnten LLMs außerdem in Sachen Kommunikation über Applikationen unterstützen, so Fulmer: “Das kann die Zeit reduzieren, die Sicherheitsforscher damit verbringen, PE-Files zu durchsuchen und die API-Kommunikation zu analysieren.”3. Threat HuntingLaut den Spezialisten der Cloud Security Alliance können Security-Entscheider die Effizienz steigern und die Reaktionszeiten verkürzen, indem sie ChatGPT und andere LLMs für Threat-Hunting-Zwecke nutzten. Generative AI könne dabei unterstützen, Bedrohungen schnell(er) zu identifizieren und zu entschärfen, indem es Abfragen für Malware-Research und -Detection-Tools erstelle. Die Regeln ließen sich dabei auf der Grundlage spezifischer Anforderungen und der Bedrohungen, die ein Unternehmen in seiner Umgebung erkennen beziehungsweise überwachen möchte, anpassen. Die Verteidiger könnten sich hingegen auf die kritischen Aspekte ihrer Cybersicherheitsmaßnahmen konzentrieren, schreiben die Forscher.: Mittels Block-Listen werden verdächtige Muster und bekannte Angriffsarten wie Cross-Site-Scripting oder Injection-Angriffe erkannt und blockiert.Jetzt CSO-Newsletter sichern 4. Supply-Chain-SicherheitGenerative KI-Modelle lassen sich zudem einsetzen, um Sicherheitsrisiken in der Lieferkette aufzudecken, indem sie potenzielle Schwachstellen bei Anbietern identifizieren. Im April 2023 kündigte das Unternehmen SecurityScorecard an, eine neue Plattform für Sicherheitsbewertungen einführen zu wollen, die genau das durch die Integration mit Open AIs GPT-4 bewerkstelligt.Authentifizierung und Zugriffskontrolle5. Generative-AI-AngriffeLLMs generieren aber nicht nur Text, sondern können auch KI-generierte Texte erkennen und mit Wasserzeichen versehen. Das könnte sich laut CSA künftig zu einem gängigen Feature von E-Mail-Security-Lösungen entwickeln. Kommt es so, könnte das laut den Experten dazu beitragen, KI-generiertes Phishing und polymorphen Schadcode zu erkennen – ebenso wie untypische Absenderadressen, -Domains oder Links zu bösartigen Webseiten.6. Security CodeLLMs können sowohl dazu verwendet werden, Security Code zu erstellen als auch ihn zu übertragen. Die CSA führt in ihrer eingangs genannten Untersuchung beispielhaft eine Phishing-Kampagne an, die erfolgreich auf mehrere Mitarbeiter eines Unternehmens abzielt. Zwar ist bekannt, welche Mitarbeiter die Phishing-E-Mail geöffnet haben. Es ist jedoch unklar, ob sie versehentlich Schadcode ausgeführt haben, der ihre Anmeldedaten stehlen sollte. “Um das zu untersuchen, kann eine Advanced-Hunting-Abfrage via Microsoft 365 Defender verwendet werden”, schreiben die Sicherheitsforscher. Diese überprüfe die letzten zehn Anmeldeereignisse, die von E-Mail-Empfängern innerhalb von 30 Minuten nach Erhalt bekannter bösartiger E-Mails durchgeführt wurden. “Das hilft dabei, verdächtige Anmeldeaktivitäten zu identifizieren, die mit kompromittierten Anmeldedaten in Verbindung stehen könnten”, so die CSA. (fm) Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation CSO Online. SUBSCRIBE TO OUR NEWSLETTER From our editors straight to your inbox Get started by entering your email address below. Bitte geben Sie eine gültige E-Mail-Adresse ein. Abonnieren