Americas

Asia

Oceania

Einfluss auf Politik: OpenAI warnt vor Propaganda mit Hilfe von GenAI

News
03 Juni 20244 Minuten

OpenAI beschuldigt Russland, China, Iran und Israel, seine GenAI-Tools für verdeckte Operationen zu missbrauchen.

OpenAI warnt davor, dass seine KI-Tools wie ChatGPT für politische Zwecke missbraucht werden.

OpenAI warnt davor, dass seine KI-Tools wie ChatGPT für politische Zwecke missbraucht werden.

Foto: FAMILY STOCK – shutterstock.com

Laut einem Bericht von OpenAI haben böswillige Akteure aus China, Russland, dem Iran und Israel die generativen KI-Tools des Unternehmens genutzt, um Propagandainhalte zu verschiedenen geopolitischen und sozioökonomischen Themen auf Social-Media-Plattformen zu veröffentlichen. Die Kampagnen zielten demnach darauf ab, politische Ergebnisse und den öffentlichen Diskurs zu beeinflussen. Die Täter erstellten dazu gefälschte Social-Media-Kommentare, Artikel und übersetzten Texte in mehreren Sprachen.

“In den vergangenen drei Monaten haben wir fünf verdeckte IO (Influencer-Operationen) gestört, die versuchten, unsere Modelle zur Unterstützung irreführender Aktivitäten im Internet zu nutzen”, erklärt OpenAI. Allerdings, so der Bericht, : “haben die Kampagnen bis Mai 2024 nicht den Eindruck erweckt , dass sie ihr Publikumsengagement oder ihre Reichweite mit Hilfe unserer Dienste signifikant erhöht haben”.

Der ChatGPT-Entwickler definiert IO als “betrügerische Versuche, die öffentliche Meinung zu manipulieren oder politische Ergebnisse zu beeinflussen, ohne die wahre Identität oder die Absichten der dahinter stehenden Akteure offenzulegen.”

Dem Bericht zufolge zielte eine russische Kampagne mit dem Namen “Bad Grammar” auf die Ukraine, Moldawien, die baltischen Staaten und die USA ab, um mit Hilfe der KI-Tools von OpenAI politische Kommentare und Debug-Code für Telegram-Bots zu erstellen. Zudem weist das Unternehmen auf eine andere russische Operation namens “Doppelganger” hin. Die Betrüger generierten dabei Kommentare in mehreren Sprachen, übersetzten Artikel und veröffentlichten sie auf Plattformen wie Facebook, 9GAG und X.

“Ein chinesisches Netzwerk, bekannt als Spamouflage, nutzte unsere Modelle, um öffentliche Aktivitäten in sozialen Medien zu recherchieren, Texte in Sprachen wie Chinesisch, Englisch, Japanisch und Koreanisch zu generieren, die dann auf Plattformen wie X, Medium und Blogspot gepostet wurden, sowie Debugging-Code für die Verwaltung von Datenbanken und Websites, einschließlich einer bisher nicht gemeldeten Domain, revealscum[.]com”, so der Bericht weiter.

In ähnlicher Weise nutzte eine iranische Organisation, bekannt als “The International Union of Virtual Media” (IUVM) , KI-Tools, um lange Artikel und Schlagzeilen zu verfassen und auf der Website ivumpress.co zu veröffentlichen.

Ein kommerzielles Unternehmen in Israel, das sich “Zero Zeno” nennt, setzte ebenfalls KI-Tools ein, um Artikel und Kommentare zu erstellen, die dann auf mehreren Plattformen, darunter Instagram, Facebook, X und eigenen Websites, veröffentlicht wurden.

“Die Inhalte, die von diesen Operationen gepostet wurden, konzentrierten sich auf eine breite Palette von Themen, einschließlich der russischen Invasion in der Ukraine, des Konflikts in Gaza, der indischen Wahlen, der Politik in Europa und den Vereinigten Staaten und der Kritik an der chinesischen Regierung durch Dissidenten und ausländische Regierungen”, so der Bericht.

OpenAI verweist dabei auf mehrere Trends: Die böswilligen Akteure verließen sich auf KI-Tools wie ChatGPT, um große Mengen an Inhalten mit weniger Sprachfehlern zu generieren, den Anschein von Engagement in sozialen Medien zu erwecken und die Produktivität durch die Zusammenfassung von Beiträgen und das Debuggen von Code zu steigern. Das Unternehmen fügt jedoch hinzu, dass es keiner der Operationen gelang, “ein authentisches Publikum sinnvoll einzubinden”.

Missbrauch von KI-Tools nimmt zu

Meta, der Mutterkonzern von Facebook hat vor kurzem einen ähnlichen Bericht veröffentlicht und die Meinung von OpenAI über den zunehmenden Missbrauch von KI-Tools durch solche “Beeinflussungsoperationen” zur Verfolgung bösartiger Absichten aufgegriffen. In seinem vierteljährlichen Bedrohungsbericht erklärte das Unternehmen, dass es vor kurzem viele solcher verdeckten Operationen, die KI zur Generierung von Bildern, Videos und Texten zur Umsetzung ihrer Agenda nutzten, gestoppt hat.

Meta verwendet dabei den Begriff CIB oder Coordinated Inauthentic Behaviour (koordiniertes inauthentisches Verhalten) und definiert dies als “koordinierte Bemühungen, die öffentliche Debatte für ein strategisches Ziel zu manipulieren, bei denen gefälschte Konten im Mittelpunkt der Operation stehen”.

Nachdem OpenAI die Beeinflussungsoperationen entdeckte, stellte das Unternehmen spezielle KI-Tools bereit, um die Erkennung und Analyse zu verbessern und die Ermittlungen effizienter zu gestalten. Das Unternehmen führte zudem Sicherheitsmaßnahmen ein, die die Erstellung bösartiger Inhalte verhindern sollen. (jm)