Americas

Asia

Oceania

deb_radcliff
Contributing Writer

Deepfake-Gefahr: Zoom-Calls unter falscher Flagge

Analyse
28 September 20228 Minuten

Deepfakes stellen bereits eine echte Bedrohung für die IT-Sicherheit und das Risikomanagement dar. Da sich die Technologie weiterentwickelt und böswillige Akteure auf kriminelle As-a-Service-Angebote zugreifen können, wird die Methode künftig noch gefährlicher.

KI-generierte Deepfakes lassen sich immer einfacher produzieren. Betrüger können die Technik nutzen, um Mitarbeiter zu manipulieren und Sicherheitskontrollen zu umgehen.

KI-generierte Deepfakes lassen sich immer einfacher produzieren. Betrüger können die Technik nutzen, um Mitarbeiter zu manipulieren und Sicherheitskontrollen zu umgehen.

Foto: ArtemisDiana – shutterstock.com

Im August wusste Patrick Hillman, Chief Communications Officer des Blockchain-Ökosystems Binance, dass etwas nicht stimmte, als er durch sein volles Mail-Postfach scrollte. Er stieß auf sechs Nachrichten von Kunden über kürzliche Videoanrufe mit Investoren, an denen er angeblich teilgenommen hatte. “Danke für die Investitionsmöglichkeit”, hieß es in einer Nachricht. “Ich habe einige Bedenken bezüglich Ihrer Anlageberatung”, schrieb ein anderer Kunde. Andere beschwerten sich über die schlechte Videoqualität, und einer fragte sogar ganz unverblümt: “Können Sie bestätigen, dass der Zoom-Call, den wir am Donnerstag hatten, von Ihnen war?”

Der Kommunikationschef hatte ein mulmiges Gefühlim Bauch als er erkannte, dass jemand sein Image und seine Stimme gefälscht hatte, um 20-minütige Zoom-Calls zu halten. Die Person habe versucht,e die Kunden seines Unternehmens davon zu überzeugen, ihre Bitcoin für betrügerische Investitionen einzusetzen, so Hillman. “Die Kunden, mit denen ich in Kontakt treten konnte, informierten mich über gefälschte LinkedIn- und Telegram-Profile, über die der Betrüger in meinem Namen agierte.” Darüber seien beispielsweise Einladungen zu verschiedenen Treffen verschickt worden, um über verschiedene Listing-Möglichkeiten zu sprechen. “Der Täter benutzte zudem ein überzeugend aussehendes Hologramm von mir in den Zoom-Calls mit dem Ziel, mehrere Vertreter von legitimen Kryptowährungsprojekten zu betrügen.”

Mit einem Volumen von 25 Milliarden Dollar zählt Binance zu den größten Kryptobörsen und damit ein lohnendes Ziel für Investitionsbetrüger. Doch der Deepfake-Vorfall ist so neuartig, dass Hillman trotz der hohen Investitionen des Unternehmens in Sicherheitspersonal und -technologien möglicherweise nie von diesen gefälschten Videoanrufen erfahren hätte, wenn nicht aufmerksame Investoren die Unregelmäßigkeiten und Latenzzeiten in den Videos entdeckt hätten. “Das war eine Premiere für uns”, sagt Hillman. “Ich sehe es als einen Vorboten dessen, was uns in Zukunft von KI-generierten Deepfakes erwartet, die in Geschäftsbetrügereien eingesetzt werden.”

Deepfakes als Dienstleistung

KI-generierte Deepfakes lassen sich immer einfacher produzieren. Deshalb werden sie bereits häufig eingesetzt, um selbst geschulte Mitarbeiter zu manipulieren und Sicherheitskontrollen zu umgehen. Die missbräuchliche Verwendung von Deepfakes für Betrug, Erpressung, Scams und die Ausbeutung von Kindern ist ein so großes Risiko für Unternehmen und die Öffentlichkeit, dass das Department of Homeland Security (DHS) vor kurzem einen 40-seitigen Bericht zu diesem Thema veröffentlicht hat. Darin wird detailliert beschrieben, wie Deepfakes durch die Zusammenstellung von Bildern und Stimmen aus Online-Quellen entstehen. Zudem werden auch Möglichkeiten zur Eindämmung von Deepfake-Angriffen aufgezeigt.

“Deepfakes gibt es bereits als Service im Dark Web, genauso wie wir Ransomware als Service bei Erpressungstechniken kennen. Deepfakes sind beim Social Engineering unglaublich effektiv “, sagt Derek Manky, Chief Security Strategist und VP of Global Threat Intelligence bei Fortinets FortiGuard Labs. Die Methode sei zum Beispiel bei BEC-Betrügereien (Business Email Compromise) sehr beliebt. Dabei gehe es darum, jemanden davon zu überzeugen, Geld an eine gefälschte Adresse zu senden. Das Opfer glaubt in so einem Fall, es handele sich um eine Anweisung des Finanzvorstands.

Whaling für Führungskräfte, BEC-Betrug und andere Formen von Phishing und Farming stellen die erste Phase der Art von Angriffen gegen Unternehmen dar. Im Jahr 2019 haben beispielsweise Betrüger mit einem Deepfake der Stimme eines Firmenchefs, der als dringend gekennzeichnet war, einen Abteilungsleiter davon überzeugt, 243.000 Dollar an einen ungarischen Lieferanten zu überweisen. Aber viele Experten sehen Deepfakes als Bestandteil zukünftiger Malware-Pakete, einschließlich Ransomware und biometrischer Subversion.

Umrüstung erforderlich, um Deepfakes zu erkennen

“Deepfakes können nicht nur Führungskräfte von Unternehmen dazu bringen, Geld zu überweisen”, sagt Lou Steinberg, ehemaliger CTO von Ameritrade. “Sie stellen auch eine besondere Herausforderung für die heute von Banken häufig verwendete Stimmauthentifizierung und andere biometrische Verfahren dar.” Nach seiner Tätigkeit bei Ameritrade gründete Steinberg das Cyber-Forschungslabor CTM Insights, um Schwachstellen in der Datenintegrität anzugehen, die es Deepfakes ermöglichen, Sicherheitskontrollen zu umgehen. Nach einer Demonstration mit israelischen Forschern kam er zu der Erkenntnis, dass biometrische Daten nur eine weitere Form von Daten sind, die Kriminelle manipulieren können.

“Wir sahen, wie israelische Forscher Bilder in einem CT-Scanner ersetzten, um Krebs zu verbergen oder in die Scan-Bilder einzufügen. Wir erkannten, dass dies in Erpressungssituationen genutzt werden könnte, wenn die Bösewichte sagen: ‘Wir zeigen Ihnen die echten Ergebnisse Ihres echten CT-Scans nur, wenn Sie uns einen Betrag von X Dollar zahlen'”, warnt Steinberg. Daher müsse man sich stärker auf die Datenintegrität konzentrieren. “Deepfakes werden von kkünstlicher Intelligenz generiert, und herkömmliche Signaturtechnologien können da nicht mithalten, weil es nur eine kleine Veränderung des Bildes braucht, um die Signatur zu ändern”.

Da herkömmliche Sicherheitskontrollen nicht ausreichen, um Verbraucher und Unternehmen vor Deepfakes zu schützen hat Adobe die Content Authenticity Initiative (CAI) ins Leben gerufen. Die Initiative befasst sich mit dem Problem der Integrität von Bild- und Audioinhalten bis hin zur Entwicklerebene. Dazu haben die CAI-Mitglieder offene Standards für die Entwicklung von Manifesten zum Zeitpunkt der Bilderfassung (z. B. von der Digitalkamera, die das Bild aufnimmt) erarbeitet, damit Betrachter und Sicherheitswerkzeuge die Authentizität eines Bildes überprüfen können. Die Initiative wird von mehr als 700 Unternehmen unterstützt, darunter viele Medienunternehmen wie USA Today, Gannett News, Getty Images sowie Anbieter von Stockbildern und bildgebenden Produkten wie Nikon.

“Das Thema Deepfakes ist so wichtig, dass der CEO von Adobe auf eine Authentifizierung der Inhalte hinter den Bild- und Audiodateien drängt. Dies ist ein Beispiel dafür, dass der Schutz vor Deepfakes eine neue Reihe von Gegenmaßnahmen und einen neuen Kontext erfordert, einschließlich Deep Learning, KI und andere Techniken, um zu entschlüsseln, ob etwas echt ist oder nicht”, betont Brian Reed, ehemaliger Gartner-Analyst und jetzt Berater bei Lionfish Technology Advisors. Er verweist auch auf den Deep Fakes Passport Act, der als Gesetzentwurf HR 5532 des Senats eingebracht wurde und der die Finanzierung von Deepfake-Wettbewerben vorsieht, um die Kontrollen zur Bekämpfung von Deepfakes zu fördern.

Steinberg schlägt vor, sich ein Beispiel an der Finanzbranche zu nehmen. Hier konzentriert sich die Betrugserkennung immer mehr darauf, was eine Person von einem System verlangt, anstatt nur zu versuchen, zu beweisen, wer die Person am anderen Ende der Transaktionsanfrage ist. “Wir konzentrieren uns zu sehr auf die Authentifizierung und zu wenig auf die Autorisierung, bei der es auf die Absicht ankommt”, erklärt der Ex-CTO von Ameritrade. “Wenn Sie nicht berechtigt sind, Millionen an eine unbekannte Person in der Dritten Welt zu überweisen, sollte diese Transaktion automatisch abgelehnt und gemeldet werden, mit oder ohne biometrische Authentifizierung”.

Fälschung der biometrischen Authentifizierung

Der Nachweis des “Wer” in einer Transaktion sei ebenfalls problematisch, wenn Angreifer Deepfakes gegen biometrische Kontrollen einsetzen, ergänzt Steinberg. Biometrische Bilder und Hashes seien ebenfalls Daten, die mit KI-gesteuerter Deepfake-Technologie manipuliert werden könnten. Sie könnten mit den Merkmalen übereinstimmen, anhand derer die biometrischen Scanner die Authentifizierung vornehmen. Beispiele dafür wären Punkte auf einem Gesicht und einer Iris oder Schleifen auf einem Fingerabdruck. “Der Einsatz von KI zur Identifizierung von KI-generierten Bildern ist ein Anfang, aber die meisten Abgleichstechnologien sind nicht granular genug, oder sie sind so granular, dass das Scannen eines einzelnen Bildes mühsam ist”, erklärt der Experte.

Das Markenschutzunternehmen Allure Security skaliert die KI-gesteuerte Micro-Matching-Technologie von CTM, um Änderungen an seiner Datenbank mit Zehntausenden von Original-Markenbildern zu erkennen. Es scannt täglich 100 Millionen Seiten, sagt Josh Shaul, CEO von Allure. “Um Deepfakes zu identifizieren, die entwickelt wurden, um die Analyse und Erkennung zu umgehen, setzen wir KI gegen KI ein”, erklärt er. “Wir können die gleiche Technologie einsetzen, um gefälschte Bilder, Profilbilder, Online-Videos und Web3-Spots zu erkennen. Zum Beispiel haben wir vor kurzem eine Nachahmung in einer Metaverse-Landkaufgelegenheit untersucht.”

Aufgrund seiner eigenen Erfahrung mit dem Deepfake-Vorfall fordert Hillman Unternehmen auf, ihre Schulungen und ihr Bewusstsein für diese Gefahr zu aktualisieren, sowohl intern für Mitarbeiter und Führungskräfte als auch extern für Kunden. “Die Frage, ob Deepfakes zu einem Problem werden, ist nicht mehr eine Frage des Ob, sondern des Wann”, so der Binance-Kommunikationschef: “Ich glaube nicht, dass die Unternehmen einen Leitfaden haben, wie sie sich gegen Deepfake-Angriffe verteidigen können.” Seine Empfehlung: “Nutzen Sie Ihre Informationskanäle, um aufzuklären. Führen Sie externe Audits bei Führungskräften durch, um herauszufinden, wer Inhalte veröffentlicht, die sie angreifbar machen. Überprüfen Sie Ihre Kontrollen. Und seien Sie mit Krisenmanagement vorbereitet.” (jm)

Dieser Artikel basiert auf einem Beitrag unserer US-Schwesterpublikation CSO Online.