Americas

Asia

Oceania

Julia Sieber
von Julia Sieber

Security und GenAI – Zwischen Innovation und Sicherheit

News
28 Februar 202511 Minuten

Cyberkriminelle nutzen KI zur Skalierung und Automatisierung von Angriffen, während Security-Teams auf KI-gestützte Erkennung, Prävention und Response setzen. Doch Experten konstatieren: Beide Seiten gehen sehr unterschiedlich an die Sache heran.

Hacker und AI
Experten sind sich einig, dass KI Vorteile sowohl für Angreifer als auch für Verteidiger mit sich bringt.

inray27 – Shutterstock.com

 Während KI die Angriffsmethoden immer raffinierter macht, steigen auch die Anforderungen an die Abwehr. Unternehmen müssen schneller reagieren, Bedrohungen frühzeitig erkennen und ihre Sicherheitsarchitektur kontinuierlich weiterentwickeln. Doch das ist leichter gesagt als getan. Der technologische Fortschritt allein reicht nicht aus – er muss mit den richtigen Strukturen und Strategien kombiniert werden, um wirklich wirksam zu sein.

Genau darüber diskutieren Experten der Security-Branche beim Computerwoche-Round-Table. Welche Chancen eröffnet KI für die Verteidigung – und welche neuen Risiken entstehen? Welche Herausforderungen müssen Unternehmen bewältigen, um Security-Teams optimal zu entlasten?

Und wieder fällt der Begriff, der die IT insgesamt und damit natürlich auch die Security beschäftigt: Fachkräftemangel. Roland Stritt von SentinelOne betont in diesem Zusammenhang die Bedeutung von Investitionen: “An GenAI führt kein Weg vorbei. Weder die Verteidiger, noch die Angreifer haben genügend “graue Substanz“ bzw. genügend Fachkräfte, weshalb unbedingt mehr in diesen Bereich investiert werden muss. Denn dies werden auch die Angreifer tun.”

Dieses Bewusstsein scheint auch in der Fläche angekommen. Bitkom Research führte im Auftrag des Digitalverbands Bitkom Ende 2024 eine Umfrage unter 852 Unternehmen in Deutschland durch. Von den Unternehmen mit 250 oder mehr Beschäftigten setzt demnach jedes fünfte KI gegen den Fachkräftemangel ein (21 Prozent).

Dies ist ein Trend, der an unterschiedlichen Stellen Wirkung zeigt. Christian Reinhardt von SoSafe ist Psychologe und macht durch die Anonymität der KI vor allem eine Minderung des Leistungsdrucks aus: “User wenden sich lieber an einen Chatbot als an das IT-Team, um Spezialisten keine scheinbar trivialen Fragen zu stellen.Diese Unterstützung ist gleichzeitig eine gravierende Security-Komponente, weil aufgrund des Fachkräftemangels überarbeitete und gestresste Teams entlastet werden und Mitarbeiter sich so niederschwellig Security-Wissen aneignen können.Doch bevor es so weit ist, müssen die User ihre Fragen in ein compliance-konformes System eingeben können. Hier fehlen laut Experten in vielen Unternehmen die Ressourcen.

Informationen zu den Partner-Paketen der Studie “IT-Security & GenAI 2025”

Eine Frage des Geldes: Ist Open Source die Lösung?

Beim KI-Gipfel in Paris, der erst kürzlich stattfand, gab es einige Aufregung über das chinesische generative Sprachmodell DeepSeek. Vor allem die rapide Weiterentwicklung, aber auch die Erkenntnis, dass es auch mit wenig Budget möglich ist, Teil der Innovation zu sein, sorgen für einen gewissen Innovationsdruck. Roland Stritt von SentinelOne steht dieser Kostenersparnis skeptisch gegenüber: Gerade aktuell im Mittelstand muss man für jedes Budget kämpfen, deshalb ist eine dedizierte Lösung zur Sicherung Nutzung von KI/AI im Unternehmen nicht für alle Unternehmen im Budget machbar, zudem ist auch noch das Bewusstsein für die Gefahr noch nicht vorhanden.”

Eine dieser Gefahren benennt Arnd Gille von Palo Alto Networks: Wir werden viel mehr neue Modelle auf Open-Source-Basis wie Deep Seek sehen. Ein neues, schlankeres Modell, das vor allem sehr kostengünstig ist und deswegen einen Reiz bietet, es auch einzusetzen. Andererseits ist es in China gehostet – ein Risiko, das man abwägen muss.

Unsichtbare Gefahr GenAI

Die Open-Source-Kultur hat KI rapide weiterentwickelt – und das eben nicht nur zugunsten der Verteidiger. Frameworks wie Meta’s Llama oder Stability AI’s Stable Diffusion senken die Einstiegshürden für Deep Fake-Generierung. Gleichzeitig profitieren Verteidiger von Open-Source-Modellen für Anomalieerkennung, Threat Intelligence und automatisierte Incident Response. Sie profitieren allerdings kaum von den jüngsten Entwicklungen aus dem GenAI-Bereich, können aber auf ein breites Instrumentarium “klassischer” KI und insbesondere des Machine Learnings zurückgreifen. Egal ob generativ oder nicht, entscheidend ist, „wer die KI besser integriert, es schafft, Mensch und Maschine besser zu kombinieren und zu optimieren, der wird sich auch besser verteidigen.“ so Michael Ehlert von SPIRIT21

Viele Unternehmen sind nach Einschätzung der Expertenrunde skeptisch und sehen aktuell die strukturellen Vorteile klar bei den Verteidigern. Der gezielte Einsatz von KI in der Security-Strategie – beispielsweise zur automatisierten Bedrohungsanalyse und Reaktion – schafft einen Skalierungseffekt, der Angreifern fehlt. Systeme wie Microsoft Security Copilot zeigen, wie sich KI als Assistenzebene in bestehende Security-Teams integrieren lässt, um schneller fundierte Entscheidungen zu treffen.

Bei der Auswertung bleibt am Ende laut Aris Koios von Crowdstrike ein entscheidendes Problem: Es ist relativ schwierig, als Verteidiger den Angriff zu analysieren, da bei der Betrachtung von Codes oder E-Mails im Nachhinein nicht zu erkennen ist, ob sie mit GenAI generiert wurden. Hier gibt es einfach Grenzen, das zu attribuieren.

Studie “IT-Security & GenAI”: Sie können sich noch beteiligen!
Zum Thema IT-Security & GenAI führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF).

Deep Fake: Der nächste Evolutionssprung im Social Engineering

Deep Fakes haben sich längst von Spielerei zur realen Bedrohung entwickelt. Wo früher schlecht geschnittene Audiodateien und auffällige Fake-Mails dominierten, ermöglichen KI-generierte Stimmen und Videos mittlerweile glaubwürdige CEO-Fraud-Angriffe, was auch Peter Schill von Fortinet feststellt: “Mit den entsprechenden GenAI Interfaces ist es deutlich einfacher Videos, Stimmen und Gesichter zu fälschen als früher, wo man wirklich sehr genau wissen musste, wie man das entsprechende Tool bedient.

Besonders im Kontext von MFA-Bypassing, Spear-Phishing und Deep Fake Audio Attacks müssen Unternehmen neu bewerten, welchen Kommunikationskanälen sie vertrauen können. KI-gestützte Erkennungssysteme werden hier zunehmend relevant, da sie synthetische Medien anhand von Bild- und Tonartefakten identifizieren können – ein Bereich, in dem Modelle kontinuierlich verbessert werden.

Defensive Strategien: Wie können sich Unternehmen sonst noch schützen?

Die Expertenrunde ist sich einig: Die Verteidigung gegen GenAI-gestützte Angriffe erfordert eine Kombination aus technologischen Maßnahmen, Awareness-Programmen und klaren Governance-Strukturen. Doch eine der größten Herausforderungen bleibt der Mensch – sowohl als potenzielle Schwachstelle als auch als entscheidender Faktor für eine erfolgreiche Sicherheitsstrategie.

AI ist dazu gedacht, mit Menschen zu interagieren, insbesondere GenAI. Das heißt, wenn sich Unternehmen schützen wollen, müssen sie davon ausgehen, dass der Baustein Mensch als Security-Baustein früher oder später ausfallen wird., warnt Richard Werner von Trend Micro.

Der Schutz vor KI-gestützten Angriffen kann also nicht allein über technische Lösungen erfolgen. Unternehmen müssen Sicherheitsmaßnahmen schaffen, die den Menschen als potentiellen Risikofaktor mit einbeziehen. Dazu gehört auch, Mitarbeitenden sichere Alternativen zu bieten.

Mehr Verständnis statt Verbote

Anstatt auf restriktive Verbote zu setzen, plädieren die Experten für eine proaktive Sicherheitsstrategie. Thorben Jändling von Elastic zieht hier einen Vergleich: Ein Verbot von LLMs ist so aussichtslos wie vor 15 Jahren das Social-Media-Verbot in Firmen. Mitarbeitende finden Wege, sie zu nutzen. Unternehmen sollten daher sichere, interne Tools bereitstellen – besonders für Cloud-Tenant-Nutzer eine einfache Lösung.

Insbesondere Unternehmen mit sensiblen Daten müssen verhindern, dass Mitarbeitende aus Mangel an Alternativen auf unsichere oder nicht regulierte KI-Modelle ausweichen.

Doch das eigentliche Risiko liegt nicht nur in der Nutzung von KI, sondern in den Daten, die dadurch unabsichtlich nach außen gelangen.

Peter Schill von Fortinet warnt vor der nächsten Eskalationsstufe: Die nächste Welle werden wir sehen, wenn das Harvesting der Cyberkriminellen bei den public GenAIs stattfindet. Das wird der Fall sein, sobald sich die Daten, die unabsichtlich von Mitarbeitern geleakt wurden, akkumuliert haben.

Der Wettlauf zwischen Angreifern und Verteidigern bleibt also ein Wettrennen um Geschwindigkeit und Anpassungsfähigkeit. Wer schneller lernt, sich besser anpasst und Sicherheitsmaßnahmen effizient umsetzt, wird im Vorteil sein.

Wir wissen, dass die Angreifer Early Adopter sind und sehr kreativ sind in dem, was sie tun. Insofern ist das ein Wettrennen, in dem wir immer einen Schritt voraus bleiben müssen. Wir haben hier aktuell eine reelle Chance, aber es ist und bleibt eine große Aufgabe“, betont Christian Reinhardt von SoSafe.

Balanceakt zwischen Innovation und Sicherheit

Während die Angriffsmethoden immer ausgefeilter werden, setzen auch die Verteidiger auf KI, um ihre Sicherheitsstrategien zu verbessern. Doch dieser Wettkampf ist nicht nur eine technische Herausforderung – er ist auch eine Frage der Ressourcen, Strategie und Governance.

Aktuell sehen wir noch nicht, was technisch möglich ist, sondern was praktikabel ist. Weil es einen extremen Energieverbrauch und eine hohe Ressourcenbelastung gibt. Es ist ein Marathon, und wir sind erst am Anfang, sagt Richard Werner von Trend Micro.

Die Debatte über den optimalen Einsatz von GenAI in der Security ist noch nicht abgeschlossen. Während einige Unternehmen bereits erste Erfolge mit KI-gestützten Sicherheitslösungen verzeichnen, bleibt die Integration in bestehende Infrastrukturen komplex. Unternehmen müssen innovative Lösungen implementieren, ohne dabei bestehende Sicherheitsstandards zu gefährden.

Ob GenAI entscheidend sein wird für die Sicherheit, wage ich zu bezweifeln. Ich glaube, es geht eher um die Möglichkeit, allgemein KI in die Tools zu integrieren, um schnell auf Angriffe zu reagieren, meint Arnd Gille von Palo Alto.

Die ersten Ansätze sind bereits Realität: Automatisierte Playbooks, die Bedrohungen selbstständig erkennen und Gegenmaßnahmen einleiten, können Security-Teams entlasten. Wer es schafft, KI gezielt in seine Sicherheitsstrategie einzubinden, gewinnt an Agilität und Effizienz.

Doch der Druck, mit der rasanten Entwicklung Schritt zu halten, darf nicht dazu führen, dass Security auf der Strecke bleibt.

Blick nach vorn: Die Zukunft von Security & GenAI

Die Entwicklung von KI-gestützten Angriffen und Verteidigungsmechanismen wird sich weiter beschleunigen. Unternehmen müssen daher nicht nur auf technologische Innovationen setzen, sondern auch klare Governance-Richtlinien etablieren.

Entscheidend ist dabei, den Einsatz von KI transparent zu gestalten und klare Sicherheitsmechanismen zu entwickeln, um Missbrauch zu verhindern.

Am Ende bleibt es eine entscheidende Frage: Wer hat den besseren KI-Freund?

Informationen zu den Partner-Paketen der Studie “IT-Security & GenAI 2025”

Teilnehmer des Roundtables “IT-Security & GenAI”

Aris Koios, Crowdstrike

“Die Kosten für die Modelle sind gerade extrem hoch, weshalb nach heutigem Stand der Vorteil klar bei den Verteidigern liegt – doch sie werden weiter sinken, es wird sich nivellieren. Deshalb ist es schwierig vorherzusagen, wie die Angreifer GenAI in Zukunft nutzen werden.”

CrowdStrike Gmbh

Thorben Jängling, Elastic

“Verteidiger sind im Vorteil, da sie alle verfügbaren KI-Technologien nutzen können. Angreifer hingegen haben nur eingeschränkten Zugriff auf Modelle oder müssen fertige KI wie ChatGPT überlisten – beides bringt sie nicht auf Augenhöhe mit den Verteidigern.”

Elasticsearch B.V

Peter Schill, Fortinet

\”Genauso wie man Schreibstile in gesprochener Sprache imitieren kann, ist es auch möglich, Coding-Stile zu imitieren.\”

Fortinet GmbH

Arnd Gille, Palo Alto

“Ob GenAI alleine entscheidend sein wird für die Sicherheit, wage ich zu bezweifeln. Es geht eher um die Möglichkeit, allgemein KI in die Tools zu integrieren, um schnell auf Angriffe zu reagieren. Dies geht über die Nutzung von Gen AI hinaus.”

Palo Alto Networks (Germany) GmbH

Roland Stritt, SentinelOne

“Es gibt bereits Produkte bzw. Hersteller die sehr gut GenAI integrieren, der Charme von Gen AI liegt darin, dass selbst Analysten, die das Produkt bisher nicht kennen, zügig dazu befähigt werden, dieses zu verwenden und zu nutzen.”

SentinelOne GmbH

Christian Reinhardt, SoSafe

“Für Unternehmen sind Multichannel-Angriffe eine zunehmende Gefahr. Vor allem, da sie nicht die sozialen Kanäle ihrer Mitarbeiter kontrollieren können und wollen. Deshalb ist es an der Stelle wichtig, für Awareness zu sorgen und zu schulen.”

SoSafe GmbH

Michael Ehlert, SPIRIT/21

\”Unternehmen sind immer mehr vernetzt und es bestehen logischerweise Abhängigkeiten. Deshalb sehen wir neben Social Engineering oder Ransomware auch Angriffe auf die gesamte Supply-Chain.\”

SPIRIT/21 GmbH

Richard Werner, Trend Micro

“Wir können mit Gen AI wesentlich proaktiver agieren und mit den Telemetrie-Daten aus den Unternehmen und den Daten, die wir von den Angreifern kennen, besser vorhersagen, woher und wie ein Angriff kommt und entsprechende Maßnahmen in die Wege leiten.”

Trend Micro Deutschland GmbH

Julia Sieber
von Julia Sieber
Autorin

Julia Sieber ist Social-Media-Managerin bei der Agentur "Medienstürmer" in München.